Ein sehr gutes Video von @Ultralativ das einfach verständlich erklärt warum #ChatGPT oder andere Generative #AI nicht intelligent oder kreativ sind, und welche Probleme damit zusammenhängen.
Diese viertel Stunde sollte man sich mal gönnen.
#KI #gesellschaft
Der Chat-Bot denkt sich einfach Fakten aus! Das ist scheisse!
Ja mei, was meinen die Kritiker, wofür das “G” in “GPT” steht? Bereits der Name des Programms beschreibt, worum es geht – generieren von Text.
Das ist nicht zwangsläufig das gleiche wie das korrekte Wiedergeben von Fakten.
Außerdem hängt die Qualität der Ausgaben stark vom Sprachmodell ab und dessen Qualität wiederum hängt von den Trainingsdaten ab – wer hat die Daten wie zusammengestellt und wie wurde das Sprachmodell trainiert? Hier gibt es noch riesige Unterschiede.
Der Chat-Bot denkt sich einfach Fakten aus!
Um fair zu bleiben, das machen die Menschen in Gesprächen doch genau so.
Insbesondere ein bestimmtes Klientel macht das gern, ist dafür aber gegen echte Fakten immun 😂
Die Schule bring uns bei, das sich ne Antwort aus dem Arsch zu saugen besser ist, als keine Antwort zu haben. Das geht durch alle Schichten und Bereiche.
Ultralativ schaue ich sonst sehr gerne, das Video war aber wirklich nicht gut.
Es wird nur ewig erklärt, dass KIs nicht wirklich intelligent oder kreativ sind, was komplett am Thema vorbei geht.
Dabei sind die Modelle (vor allem LLMs) bereits heute gut, dass sie bei echten Aufgaben teilweise mit einem Menschen mithalten können. Jetzt gerade kann ein Entwickler an manchen Themen doppelt so schnell arbeiten, weil der Code sich von selbst schreibt.
Auf die Auswirkungen davon wird im Video nicht wirklich eingegangen, also hat er da meines Erachtens das Thema komplett verfehlt.
Dabei sind die Modelle (vor allem LLMs) bereits heute gut, dass sie bei echten Aufgaben teilweise mit einem Menschen mithalten können.
Hast du das Video überhaupt geschaut? Ein zentraler Punkt des Videos ist doch genau das: für manche Dinge eignet sich diese Art von KI, für sehr vieles aber eben nicht. By design. Es ist absolut relevant, wie diese Modelle funktionieren.
Saying that ChatGPT “can’t yet provide reliably correct answers to questions” is like saying your cat can’t yet provide reliable services as a paralegal. You can’t solve that task mismatch with a better cat
By design. Es ist absolut relevant, wie diese Modelle funktionieren.
Das Problem mit solcher Argumentation ist, dass immer so getan wird als wäre ChatGPT das einzige was im Bereich KI passiert. Das ist aber überhaupt nicht der Fall. KI ist der Wilde Westen, da wird alles mögliche probiert um zu sehen was funktioniert und was nicht. LLMs sind gerade populär da sie ein Sprachverständnis haben das deutlich besser ist als was wir davor hatten, aber die sind auch nur ein Ansatz von vielen. Sprich von den Fähigkeiten von ChatGPT auf KI im allgemeinen Rückschlüsse zu ziehen ist Unsinn.
Darüber hinaus wird sich immer viel zu viel auf die paar Dinge konzentriert die KI nicht kann, statt auf all das was sie kann. Ganze Klassen von Problemen die noch vor ein paar Jahren völlig unlösbar waren kann KI heute mit Leichtigkeit lösen.
In dem Video geht es auch nur um LLMs bzw den Marketing Hype um “KI”, was dasselbe ist. Es geht um ChatGPT.
Ein weiteres AI Video was in die Tonne gehört. Erinnert mich an Homer Simpson’s: It only transports matter?.
Die Leute die sich über KI beschweren scheinen frei von jeglichen originellen Ideen. Es werden einfach immer die selben langweiligen Phrase recycled die man schon hundert mal gehört hat. Ironischerweise, genau dass was sie KI vorwerfen.
Natürlich kann ChatGPT im Moment nicht als Fakten Suchmachine benutzt werden. Wasser ist Nass. Das ist keine große neue Erkenntnis, sondern folgt trivialerweise aus der Technologie und der Model Größe. Man kann nicht von einem Stück Software erwarten das es Dinge wie Buchtitel und Seitennummer korrekt wiedergeben kann wenn es keinen Zugriff auf eine Bücherei hat. Das ist aber keine fundamentale limitation von KI, sondern schlichtweg ein Problem das außerhalb des Problembereiches liegt den ChatGPT lösen soll. ChatGPT ist einfach nur automatische Text Vervollständigung mit chatbot UI.
Bei Aussagen wie “KI kann nicht denken, sondern macht nur Mathe” oder “KI ist nicht kreativ”, muss ich mich auch immer mal wieder fragen ob die Leute auch nur einen Hauch von Ahnung haben von was sie Reden. Was glauben die was in deren Köpfen vorgeht? Magie? Filme wie Star Wars sind auch nur ein Remix von vorhergegangenen Filmen, konkret WWII Film + Weltraum. Setzt dich mal hin und versucht eine originelle Idee zu haben die auf gar nichts basiert, du wirst schnell merken dass das gar nicht so einfach ist.
Kurzum, ChatGPT ist nicht das Ende von KI, sondern der Anfang. Es ist das erste Sprachmodel das halbwegs funktioniert. Und die gesamte IT schmeißt gerade Milliarden in die Richtung um es zu verbessern. Aktuelle Mängel von ChatGPT geben keinerlei Aufschluss darüber was KI in einem Jahr tun wird oder in 10. Viele der Mängel die Leute beklagen sind nicht mal mehr aktuell und schon längst GPT-4 behoben (größeres Model, mehr Kontext).
Darüberhinaus ist ChatGPT nur die populäre Spitze des Eisberges. Was den KI Forschungsbereich interessant macht ist nicht das wir jetzt eine haben die Text produzieren kann, sondern das die zugrunde liegenden KI Algorithmen in den letzten 10 Jahren angefangen haben praktisch alle Probleme zu lösen die wir ihnen entgegen geworfen haben, egal obs Atari Spiele gewinnen ist, Go Weltmeister zu schlagen, Bilder malen, Bilder identifizieren, Rechtschreibung, Sprachgenerierung, Krebsdiagnose oder was auch immer. In immer mehr Bereichen produziert KI Übermenschliche Leistung und es ist kein Ende in Sicht. Das ist, dass worüber man sich sorgen machen sollte.
deleted by creator
In einem menschlichen Gehirn passiert auch definitiv mehr als in einer KI-Software.
Und GPT-4 passiert mehr als GPT-3. Solche Beobachtungen sind korrekt, aber ebenso nutzlos. KI schreitet mit enormen Tempo voran. Aussagen über den aktuellen Zustand von ChatGPT werden ständig als fundamentale KI Problem dargestellt, wenn sie oft nichts anderes sind als “war halt nicht in den Trainings Daten drin” und in der nächsten Version ist es sowieso behoben.
Die Frage über die man sich den Kopf zerbrechen muss ist wo KI Systeme in 5, 10 oder 50 Jahren sein werden, stattdessen dreht sich die Diskussion um harmlose Mini-Problemchen (DALL-E kann keine Hände zeichen, ChatGPT zitiert falsch, nur Menschen können kreativ sein!!!1, KI beklaut die Künstler, …).
Maschinen können von Menschen einprogrammierte Routinen schneller und automatisiert ausführen.
NIEMAND PROGRAMMIERT KI. Das ist der Witz am ganzen. Aktuellen KI System basieren alle auf Daten, nicht Code. Keiner der Leute die ChatGPT “programmiert” haben versteht was ChatGPT genau macht. Sprich was ChatGPT kann oder nicht, hängt nicht mehr davon ob wie gut oder schlecht die Menschen Sprachen und Texte verstehen, sondern davon was die KI aus den Trainingsdaten selbstständig raussaugen kann.
Bei AlphaGoZero brauchte es nicht mal mehr Trainingsdaten, das hat einfach aus den Regeln des Spiels gelernt besser zu spielen als jeder Mensch. Und das ist etwas das uns mit GPT und Nachfolgern auch noch passieren wird. Im Moment sind die Trainingsdaten noch extrem beschränkt sprich im wesentlichen nur Text der von Menschen verfasst wurde, die KI Modelle interagieren nicht mit der realen Welt und können dementsprechend keine neuen Entdeckungen machen die nicht schon in den Trainingsdaten stecken. Das wird aber alles Stück für Stück aufgeweicht, GPT-4 hat schon etwas Bilderkennung und andere Modelle gleich ganz Multimodal oder haben Interaktionen mit der realen Welt drin (e.g. Deepmind’s Robocat).
Die Liste von Dingen die KI besser kann als der Mensch wird unausweichlich immer länger werden.