Eine Supermarktkette hat eine angepasste Version von chatgpt speziell für die Küche auf den Markt gebracht. Der Chatbot kann sich tatsächlich Rezepte auf Abruf vorstellen. Leider stellt sich heraus, dass die KI einen besonderen Geschmack hat, wenn es um Essen geht.

Inspiriert durch den Riesenerfolg von ChatGPT hat Pak ’n‘ Save, eine große neuseeländische Supermarktkette, ihren eigenen generativen, KI-gestützten Chatbot auf den Markt gebracht. getauft Savey-Mahlzeitdafür ist der Chatbot konzipiert Schlagen Sie Essensideen vor an seine Gesprächspartner. Zur Generierung der Rezepte greift die KI auf die vom Nutzer bereitgestellte Zutatenliste zurück.

„Geben Sie alle Lebensmittel ein, die Sie in Ihrem Kühlschrank oder Ihrer Speisekammer haben, und unser Savey-Bot generiert sofort ein Rezept für Sie. „Für ein Rezept braucht man mindestens drei Zutaten.“ erklärt Pak ’n‘ Save auf der dem Roboter gewidmeten Website.

In der Chatbot-Oberfläche müssen Sie Lebensmittel aus einer vordefinierten Liste alltäglicher Lebensmittel auswählen. Sobald die Zutaten ausgewählt sind, bietet Savey Meal ein vollständiges Rezept inklusive Beschreibung, einer Liste mit Anweisungen und der idealen Anzahl an Gästen. Es besteht die Möglichkeit, das Rezept zu speichern oder zu teilen. Bei unseren Tests hat sich der Chatbot insbesondere ein Rezept für Eier mit Chili und Käse, einen Salat aus Nüssen und Hühnchen oder Nudeln mit Rindfleisch und Tomatensauce ausgedacht.

Wenn die Zutaten völlig inkompatibel sind, kann Savey Meal kein Rezept vorlegen. Die KI kam zum Einsatz, als wir Würstchen, Milch und Schokolade auswählten. Wir geben ihm keine Vorwürfe. Der Chatbot verlässt sich auf GPT-3.5, die vorherige Version des Sprachmodells hinter ChatGPT. Es handelt sich also um eine personalisierte Version des OpenAI-Roboters.

Siehe auch  Marc Andreessen sagt, er unterrichtet den 8-jährigen Sohn in ChatGPT

Lesen Sie auch: ChatGPT, Dating und Krypto – wenn die KI mit Ihren Gefühlen und Ihrem Geld spielt

Ein alkoholfreier Cocktail … aber mit Bleichmittel

Leider begann der Pak ’n‘ Save-Chatbot schnell, unattraktive, wenn nicht geradezu giftige Rezepte zu generieren, berichten unsere Kollegen vom Guardian. Beispielsweise schlug er Internetnutzern vor, ein Rezept mit dem Namen „ „aromatische Wassermischung“. Dies besteht aus dem Hinzufügen Chlorgas, ein giftiges gelbliches Flüssiggas, das in Schwimmbädern zur Desinfektion verwendet wird, zu einem Glas Wasser. Bei Einnahme in den vom Bot empfohlenen Mengen ist es möglicherweise tödlich. Es ist „das perfekte alkoholfreie Getränk, um den Durst zu stillen und die Sinne zu erfrischen“glaubt der IA trotz allem.

Savey Meal hörte hier nicht auf. Den Aussagen des Guardian zufolge stellte sich die künstliche Intelligenz auch einen alkoholfreien Cocktail mit Bleichmittel, ein Sandwich aus Leim, mit Bleichmittel angereicherten Reis und eine Schüssel aus Terpentin vor. Alle von denen “ Rezepte „ sind offensichtlich giftig. Bleichmittel, die üblicherweise als Desinfektions- und Bleichmittel verwendet werden, können schwere Verätzungen, Atemprobleme und den Tod verursachen. Terpentin wiederum ist ein starkes Lösungsmittel, das mit Vorsicht gehandhabt werden muss. Natürlich sollte man es nicht einnehmen…

Vertraue der KI nicht zu sehr

Dieser Fall veranschaulicht das größte Problem generativer KI. Wie Microsoft Bing, google Bard oder ChatGPT wird Savey Meal wahrscheinlich generiert absurde und unrealistische Antworten. Offensichtlich gerät die KI manchmal aus den Fugen und zeigt ungezügelte Kreativität. In solchen Momenten soll der Chatbot „halluzinieren“. Offensichtlich generiert es Antworten, die einige der Daten in seinem Lernkorpus nachahmen, aber diese bleiben von der Realität abgekoppelt. Sprachmodelle „denken“ nicht wie ein menschliches Gehirn. Sie stützen ihre Antworten auf die ihnen zur Verfügung stehenden Daten, indem sie sich die logischste Wortfolge vorstellen. Aus diesem Grund merkt ein Chatbot nicht, wenn er seinen Gesprächspartnern Unsinn erzählt oder absurde Rezepte anbietet.

Siehe auch  Baidu behauptet, dass sein Ernie-Bot ChatGPT jetzt in wichtigen Punkten übertrifft

Pak ’n‘ Save ist sich der Mängel dieser Technologie bewusst und warnt seine Benutzer auch auf der Homepage des Chatbots. Rezepte würden nicht von Menschen überprüft, so das Unternehmen. Daher kann nicht garantiert werden, dass die Gerichte genießbar sind:

„Wir geben keine Zusicherungen hinsichtlich der Genauigkeit, Angemessenheit oder Zuverlässigkeit der generierten Rezeptinhalte, einschließlich der Tatsache, dass die Portionsgrößen zum Verzehr geeignet sind oder dass ein Rezept eine vollständige oder ausgewogene Mahlzeit darstellt oder zum Verzehr geeignet ist.“ Sie müssen Ihr eigenes Urteilsvermögen walten lassen, bevor Sie sich auf ein von Savey Meal hergestelltes Rezept verlassen oder es nachkochen.“

Auf die Frage nach dem Problem bedauerte ein Sprecher von Pak ’n‘ Save, dass a „Eine kleine Minderheit hat versucht, das Tool unangemessen und nicht für den beabsichtigten Zweck zu verwenden.“. Aus diesem Grund begann die KI zu versagen, glaubt das Unternehmen, das sich dennoch verpflichtet, den Gesprächsroboter zu „optimieren“.

Quelle :

Der Wächter

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein