So hat sich die neuseeländische Supermarktkette Pak 'n' Save den Durchbruch ihrer App sicherlich nicht vorgestellt. Eigentlich sollte das Programm lediglich leckere Rezepte für Lebensmittelreste generieren. Je nach Zutaten spuckt es hin und wieder jedoch auch lebensgefährliche Kreationen aus.
So wie ich das verstanden habe, hat die KI aus vom Nutzer vorgegebenen Zutaten ein “schmackhaftes” Rezept kreiert. Wenn du angibst, dass du Erdnüsse als Zutat verwenden willst, dann darf die KI ja wohl davon ausgehen, dass du weißt, ob du Erdnüsse verträgst oder nicht. Dasselbe für Bleichmittel. Allenfalls könnte man eine Liste von Zutaten definieren, bei deren Verwendung die App dann davor warnt, dass sie allergieauslösend oder gänzlich ungenießbar seien. Das hat allerdings mit KI nicht viel zu tun sondern ist eine reine Datenbankabfrage.
Naja, wenn die KI zum Beispiel nachfragt ob man unter Umständen eine Zutat da hat für ein bestimmtes Gericht, dann kann man schon in diese Falle tappen.
Außerdem ist die Limitierung völlig vergessen worden, die App wurde ohne anscheinende Blacklist veröffentlicht, ein schwerwiegender Fehler, einen denn man nicht so einfach mit ‘kann man ja patchen’ abtun sollte.
Ist halt die Frage, von welchem Verhältnis von Nutzer und KI man ausgeht.
Für mich ist KI ein Kind mit einer blühenden Fantasie. Sag ihm, es soll sich irgendwas ausdenken, und es sagt Dinge, die dir selber nie in den Sinn gekommen wären. Viele davon sind Unsinn, darum braucht es natürlich immer noch einen Erwachsenen (der User!), der entscheidet, was tatsächlich umgesetzt wird.
Für manche Leute ist KI aber anscheinend der Führer, der befiehlt, und sie folgen ihm blind, und wenn die ganze Sache in die Hose geht, reden sie sich damit raus, dass sie ja nur Befehle ausgeführt hätten. Diesen Leuten kann ich auch nicht helfen; aus ihrer Unmündigkeit müssen sie schon selbst herausfinden.
Wenn man sich daran erinnert wie vor ein paar Monaten ein Anwalt ChatGPT für die Recherche nutzte und keine von den Fällen nachgeprüft hatte, sollten wir uns glaube ich nochmal doppelt überlegen KI für die Erstellung von Anleitungen zur Essenszubereitung zu nehmen
Das Blöde ist, dass es Lebensmittel gibt, die nur bei bestimmter Zubereitung gegessen werden können. Grüne Bohnen sind zum Beispiel giftig, wenn sie nicht ordentlich gekocht werden.
So wie ich das verstanden habe, hat die KI aus vom Nutzer vorgegebenen Zutaten ein “schmackhaftes” Rezept kreiert. Wenn du angibst, dass du Erdnüsse als Zutat verwenden willst, dann darf die KI ja wohl davon ausgehen, dass du weißt, ob du Erdnüsse verträgst oder nicht. Dasselbe für Bleichmittel. Allenfalls könnte man eine Liste von Zutaten definieren, bei deren Verwendung die App dann davor warnt, dass sie allergieauslösend oder gänzlich ungenießbar seien. Das hat allerdings mit KI nicht viel zu tun sondern ist eine reine Datenbankabfrage.
Naja, wenn die KI zum Beispiel nachfragt ob man unter Umständen eine Zutat da hat für ein bestimmtes Gericht, dann kann man schon in diese Falle tappen.
Außerdem ist die Limitierung völlig vergessen worden, die App wurde ohne anscheinende Blacklist veröffentlicht, ein schwerwiegender Fehler, einen denn man nicht so einfach mit ‘kann man ja patchen’ abtun sollte.
Ist halt die Frage, von welchem Verhältnis von Nutzer und KI man ausgeht.
Für mich ist KI ein Kind mit einer blühenden Fantasie. Sag ihm, es soll sich irgendwas ausdenken, und es sagt Dinge, die dir selber nie in den Sinn gekommen wären. Viele davon sind Unsinn, darum braucht es natürlich immer noch einen Erwachsenen (der User!), der entscheidet, was tatsächlich umgesetzt wird.
Für manche Leute ist KI aber anscheinend der Führer, der befiehlt, und sie folgen ihm blind, und wenn die ganze Sache in die Hose geht, reden sie sich damit raus, dass sie ja nur Befehle ausgeführt hätten. Diesen Leuten kann ich auch nicht helfen; aus ihrer Unmündigkeit müssen sie schon selbst herausfinden.
Wenn man sich daran erinnert wie vor ein paar Monaten ein Anwalt ChatGPT für die Recherche nutzte und keine von den Fällen nachgeprüft hatte, sollten wir uns glaube ich nochmal doppelt überlegen KI für die Erstellung von Anleitungen zur Essenszubereitung zu nehmen
Das Blöde ist, dass es Lebensmittel gibt, die nur bei bestimmter Zubereitung gegessen werden können. Grüne Bohnen sind zum Beispiel giftig, wenn sie nicht ordentlich gekocht werden.
._.