Zu den Selbstverpflichtungen neben den digitalen Wasserzeichen für KI-generierte Inhalte gehören nach Angaben der Nachrichtenagentur AP:

(teilweise) externe Sicherheits-Audits kommerzieller KI-Systeme,

die Einrichtung von Meldewegen für Sicherheitsforscher, die Schwachstellen in den Systemen entdecken,

die Veröffentlichung von Berichten über technische Schwachstellen und gesellschaftliche Risiken.

Damit kommen die Unternehmen einer gesetzlichen Regelung zuvor, über die sich der Kongress erst noch einigen muss.

  • Frisbeedude@feddit.deOP
    link
    fedilink
    arrow-up
    8
    arrow-down
    1
    ·
    edit-2
    1 year ago

    Selbstverpflichtung gewinnorientierter Unternehmen. Das hat schon immer hervorragend funktioniert. Haben die alle Lack gesoffen? Das muss sofort reguliert werden, lieber früher als später.

    • letmesleep@feddit.de
      link
      fedilink
      arrow-up
      2
      ·
      edit-2
      1 year ago

      Naja, immerhin ist das Hype-Zentrum OpenAI tatsächlich nicht gewinnorientiert, sondern eine gemeinnützige Stiftung. Und eine Selbstverpflichtung eines Oligopols hat auch schon eine gewisse Wirkung. Dass die kein Chaos wollen, glaube ich ihnen. Chaos ist nämlich schlecht für den Cashflow.

      Aber natürlich hast du Recht, dass eine Regulierung notwendig ist. Nur geht das halt nicht so schnell wie eine Selbstverpflichtung und deshalb ist diese als Quick-fix schon eine gute Sache.

    • nottheengineer@feddit.de
      link
      fedilink
      arrow-up
      2
      arrow-down
      1
      ·
      1 year ago

      Und wie stellst du dir das vor? Muss man sich im Internet dann überall mit dem Ausweis registrieren und haftet man dann persönlich, wenn man KI-Inhalte nicht kennzeichnet?