Zu den Selbstverpflichtungen neben den digitalen Wasserzeichen für KI-generierte Inhalte gehören nach Angaben der Nachrichtenagentur AP:
(teilweise) externe Sicherheits-Audits kommerzieller KI-Systeme,
die Einrichtung von Meldewegen für Sicherheitsforscher, die Schwachstellen in den Systemen entdecken,
die Veröffentlichung von Berichten über technische Schwachstellen und gesellschaftliche Risiken.
Damit kommen die Unternehmen einer gesetzlichen Regelung zuvor, über die sich der Kongress erst noch einigen muss.
KI Siegel für Texte ist ja noch geiler als Wasserzeichen. Das man das beim Kopieren einfach weglässt, scheint denen nicht als Möglichkeit in den Sinn zu kommen. Genauso sind Wasserzeichen auch nur sehr halbherzig, da man die genauso wieder wegretuschieren kann. Stellt sich auch die Frage, wie das bei “KI” Tools zur Bildbearbeitung laufen soll, die komplexe Bearbeitungsvorgänge automatisieren. Muss dann auf das Urlaubsbild, was man sich gerne Einrahmen möchte auch ein fettes Wasserzeichen drauf?
Es muss klare Regeln für den Einsatz geben und entsprechende Sanktionen, wenn diese Regeln nicht befolgt werden. Im Minimum sollten Texte, die ganz oder teilweise von LLM Tools verfasst wurden nicht unter den Schutz der Pressefreiheit fallen und nicht als intellektuelles Eigentum schützbar sein.
Ich könnte mir vorstellen, dass es aus Sicht der Unternehmen schon das wichtigiste Ziel erreicht, wenn großer Teil der Quellen gekennzeichnet wird. Dann kann man die nämlich beim Training der KI vermeiden und verhindert so eine “Rückkopplung” (da gibt es doch einen echten Fachbegriff, oder?).
Für unsere Demokratie however…