Ich finde das in dem Fall schon relevant. ChatGPT scheint das Hashtag mit Rechtextremismus und den Nazis in Verbindung zu bringen.
Damit ist die Ausrede von Müller unplausibel, sofern er nicht nachweisen kann, dass ihm das durch die prompts so geliefert wurde. Ich wüsste auch nicht, wie man ChatGPT dazu bringen soll, so etwas von sich aus vorzuschlagen, ohne es gezielt dahin zu manipulieren, weil der Nettigkeitsfilter inzwischen so stark ist.
ChatGPT versteht exakt 0,0 von der Bedeutung der Worte. Es weiß nur, mit welcher Wahrscheinlichkeit welche Abfolge von Worten als wünschenswerte Antwort auf die Prompt betrachtet werden kann.
Ohne diesen Typen, der entweder seine Wähler*innen verachtet, weil er sie mit KI-Blabla füttert oder rechtsextrem ist, in Schutz nehmen zu wollen, kann ChatGPT solche Losungen aufgrund fehlenden Kontexts oder schlechtem Trainingsmaterials generieren.
Nein, der Hashtag ‚#DeutschlandErwache‘ ist historisch belastet und mit rechtsextremen Ideologien verbunden. Die Verwendung solcher Hashtags kann zu Missverständnissen führen und unerwünschte Assoziationen hervorrufen.
Als ChatGPT das geschrieben hat, hat es ja den Inhalt dessen nicht verstanden, sondern nur, dass dies die richtige Antwort auf den Prompt des taz Journalisten.
Beim Prompt des CDU Politikers kann ChatGPT das Wort #DeutschlandErwache immer noch für einen passenden Teil der Antwort gehalten haben.
ChatGPT muss die Worte ja nicht verstehen. Es muss sie nur mit Worten die vor Rechtsextremer Ideologie warnen in Verbindung bringen. Das hat es im Prompt von der Taz gemacht.
Nach den Fails mit Tay und auch am Anfang von ChatGPT wurde ziemlich stark nachgearbeitet, um möglichst nicht solche Ergebnisse unbeabsichtigt zu produzieren. Das ist in diesem Fall kein sicherer Ausschluss, aber es ist zumindest ziemlich unwahrscheinlich, dass er das einfach so von ChatGPT erzeugt bekommen hat. Er könnte zeigen, mit welchen Prompts ihm das Ergebnis ausgespuckt wurde und auf welcher Version er da unterwegs war.
Ich finde das in dem Fall schon relevant. ChatGPT scheint das Hashtag mit Rechtextremismus und den Nazis in Verbindung zu bringen.
Damit ist die Ausrede von Müller unplausibel, sofern er nicht nachweisen kann, dass ihm das durch die prompts so geliefert wurde. Ich wüsste auch nicht, wie man ChatGPT dazu bringen soll, so etwas von sich aus vorzuschlagen, ohne es gezielt dahin zu manipulieren, weil der Nettigkeitsfilter inzwischen so stark ist.
ChatGPT versteht exakt 0,0 von der Bedeutung der Worte. Es weiß nur, mit welcher Wahrscheinlichkeit welche Abfolge von Worten als wünschenswerte Antwort auf die Prompt betrachtet werden kann.
Ohne diesen Typen, der entweder seine Wähler*innen verachtet, weil er sie mit KI-Blabla füttert oder rechtsextrem ist, in Schutz nehmen zu wollen, kann ChatGPT solche Losungen aufgrund fehlenden Kontexts oder schlechtem Trainingsmaterials generieren.
Als ChatGPT das geschrieben hat, hat es ja den Inhalt dessen nicht verstanden, sondern nur, dass dies die richtige Antwort auf den Prompt des taz Journalisten.
Beim Prompt des CDU Politikers kann ChatGPT das Wort #DeutschlandErwache immer noch für einen passenden Teil der Antwort gehalten haben.
ChatGPT muss die Worte ja nicht verstehen. Es muss sie nur mit Worten die vor Rechtsextremer Ideologie warnen in Verbindung bringen. Das hat es im Prompt von der Taz gemacht.
Nach den Fails mit Tay und auch am Anfang von ChatGPT wurde ziemlich stark nachgearbeitet, um möglichst nicht solche Ergebnisse unbeabsichtigt zu produzieren. Das ist in diesem Fall kein sicherer Ausschluss, aber es ist zumindest ziemlich unwahrscheinlich, dass er das einfach so von ChatGPT erzeugt bekommen hat. Er könnte zeigen, mit welchen Prompts ihm das Ergebnis ausgespuckt wurde und auf welcher Version er da unterwegs war.