[ad_1]

Pak ’n‘ Save-Kunden haben schnell erkannt, dass man künstlicher Intelligenz nicht blind vertrauen sollte! Die Marke hat ihren chatgpt eingeführt, der Rezepte empfiehlt, mit der Ausnahme, dass einige Vorschläge einfach … tödlich sind.

Chatgpt, Künstliche Intelligenz, Chatbot, Paket Und Speicherung
Chatgpt, Künstliche Intelligenz, Chatbot, Paket Und Speicherung
© Envato

Laut Forschern wäre ChatGPT sehr gesundheitsgefährdend. Und seine Klone können ätzend sein. Um seinen Kunden mit köstlichen Rezepten zu einer besseren Ernährung zu verhelfen, hat der neuseeländische Supermarkt Pak ’n‘ Save seinen Chatbot namens Savey Meal-bot über eine App gestartet. Außer, dass nichts wie geplant lief.

Lesen Sie > Googles künstliche Intelligenz Med-PaLM 2 ersetzt bereits Ärzte in Krankenhäusern

Eine KI, die sehr gefährliche Rezepte vorschlägt

Die von dieser Discount-Supermarktkette erstellte Anwendung geriet sehr schnell außer Kontrolle, als sie vorschlug: vergiftete Brotsandwiches oder sogar Bratkartoffeln … die Mücken abwehren. Kurz gesagt, allgegenwärtige, aber vor allem gefährliche Rezepte.

Zum Beispiel aromatisches Chlorgaswasser, ein tödliches Produktbeschrieben als „ das perfekte alkoholfreie Getränk, um Ihren Durst zu löschen und Ihre Sinne zu erfrischen „. In Wirklichkeit riskiert der Benutzer eher den Tod oder sogar den Tod am besten “ Fälle, Lungenschaden. Künstliche Intelligenz treibt das Laster so weit, dass es empfiehlt: Servieren Sie es gekühlt, um seinen erfrischenden Geschmack zu genießen ».

Pell-mell, die Anwendung, die auf einer künstlichen Intelligenz ähnlich wie ChatGPT basiert, empfiehlt „ mit Bleichmittel angereicherter Reis oder French Toast mit Terpentin, eine Substanz, die Reizungen der Verdauungs-, Augen- und Atemwegsschleimhäute verursacht.

Die Glücklichen wurden nicht mit tödlichen Rezepten verwöhnt, sondern mit unattraktiven Gerichten wie eine Gemüsepfanne mit Oreo-Kuchen.

Siehe auch  ChatGPT und Google Bard werden beschuldigt, „tödliche Geisteskrankheiten zu fördern“, da Untersuchungen ergeben haben, dass „sie Essstörungen begünstigen“

Lesen Sie > ChatGPT: Was es ist, wie man es verwendet, alles über die berühmte KI

Wie reagiert die Marke auf die Ausrutscher ihrer KI?

Angesichts dieser Kontroverse glaubt ein Sprecher von Pak ’n‘ Save, dass es die Benutzer sind, die „ versucht hat, das Werkzeug unsachgemäß und nicht bestimmungsgemäß zu verwenden „. Das Zeichen gibt an, dass die Anwendung bestimmungsgemäß ist an Erwachsene und dass die Kontrollen verstärkt werden.

Nun zeigt künstliche Intelligenz an, dass die Rezepte gegeben sind werden nicht von einem Menschen überprüft. Pak ’n‘ Save gibt daher an, dass ein Gericht „ nicht unbedingt vollständig und ausgewogen oder verbrauchbar ist „. Kunden müssen daher Urteilsvermögen üben Vor [se] stolz auf ein Rezept von [l’intelligence artificielle] ».

[ad_2]

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein