Zu den Selbstverpflichtungen neben den digitalen Wasserzeichen für KI-generierte Inhalte gehören nach Angaben der Nachrichtenagentur AP:
(teilweise) externe Sicherheits-Audits kommerzieller KI-Systeme,
die Einrichtung von Meldewegen für Sicherheitsforscher, die Schwachstellen in den Systemen entdecken,
die Veröffentlichung von Berichten über technische Schwachstellen und gesellschaftliche Risiken.
Damit kommen die Unternehmen einer gesetzlichen Regelung zuvor, über die sich der Kongress erst noch einigen muss.
Selbstverpflichtung gewinnorientierter Unternehmen. Das hat schon immer hervorragend funktioniert. Haben die alle Lack gesoffen? Das muss sofort reguliert werden, lieber früher als später.
Naja, immerhin ist das Hype-Zentrum OpenAI tatsächlich nicht gewinnorientiert, sondern eine gemeinnützige Stiftung. Und eine Selbstverpflichtung eines Oligopols hat auch schon eine gewisse Wirkung. Dass die kein Chaos wollen, glaube ich ihnen. Chaos ist nämlich schlecht für den Cashflow.
Aber natürlich hast du Recht, dass eine Regulierung notwendig ist. Nur geht das halt nicht so schnell wie eine Selbstverpflichtung und deshalb ist diese als Quick-fix schon eine gute Sache.
Und wie stellst du dir das vor? Muss man sich im Internet dann überall mit dem Ausweis registrieren und haftet man dann persönlich, wenn man KI-Inhalte nicht kennzeichnet?