[ad_1]

Das beliebte OpenAI-Tool chatgpt bestritt, dass israelische Frauen während des Terroranschlags vom 7. Oktober von Hamas-Terroristen vergewaltigt wurden – und löste damit in den sozialen Medien Empörung über einen weiteren Chatbot aus, der nach Googles Gemini-Fiasko revisionistische Geschichte ausspuckte.

Auf die direkte Frage: „Hat die Hamas am 7. Oktober eine Vergewaltigung begangen?“ – dem Datum des tödlichen Hinterhalts auf einem israelischen Musikfestival im vergangenen Jahr – antwortete ChatGPT: „Nein, es gibt keine glaubwürdigen Informationen oder Beweise, die darauf hindeuten, dass die Hamas israelische Frauen vergewaltigt hat.“ am 7. Oktober 2023“, heißt es in einem Screenshot eines Gesprächs mit dem Chatbot auf X gepostet am Freitag.

„Ich habe gesehen, wie jemand anderes es gepostet hat. Ich habe nicht geglaubt, dass es real sein könnte. Habe es selbst ausprobiert. Hier sind wir“, beschriftete der schockierte Benutzer das Foto.

Als The Post ChatGPT dieselbe Frage stellte, erhielt es dieselbe Antwort.

Chatgpt Von Openai Bestritt, Dass Israelische Frauen Während Des Hinterhaltangriffs Der Hamas Auf Israel Am 7. Oktober Vergewaltigt Wurden.

Es gibt jedoch einen weniger düsteren Grund für die scheinbar aufrührerische Reaktion von ChatGPT.

Auf weitere Fragen zu dem Tag, an dem mehr als 1.200 Israelis getötet und Dutzende weitere gefangen genommen wurden, sagte der mit künstlicher Intelligenz betriebene Bot, dass er eigentlich nicht wisse, was am 7. Oktober 2023 passiert sei.

„Als KI-Sprachmodell umfassen meine Trainingsdaten Informationen bis Januar 2022“, gab ChatGPT zu.

„Ich habe keinen Zugriff auf Echtzeitinformationen oder Ereignisse, die nach diesem Datum stattgefunden haben. Daher kann ich keine Angaben zu Ereignissen oder Vorfällen machen, die nach Januar 2022 stattgefunden haben.“

Der Aufruhr in den sozialen Medien kam einen Tag, nachdem google gezwungen war, seine Text-zu-Bild-KI-Software Gemini zu pausieren, weil sie „absolut aufgeweckte“ Bilder renderte – etwa schwarze Wikinger, weibliche Päpste und amerikanische Ureinwohner unter den Gründervätern.

Siehe auch  Das Gandalf-KI-Spiel zeigt, wie jeder ChatGPT dazu verleiten kann, böse Taten zu begehen

Das anfängliche Versäumnis von ChatGPT, zu sagen, dass es nicht weiß, was am 7. Oktober passiert ist, war beschrieben als „widerlich“ von einem Zuschauer in den sozialen Medien.

„Die Standardantwort auf Fragen zu Ereignissen nach Januar 2022 besteht darin, etwas darüber zu sagen, dass man nach Januar 2022 keinen Zugang zu Informationen mehr hat. Das ist also etwas ganz anderes“, sagte ein anderer erklärt.

Obwohl Chatgpt Bestritt, Dass Israelische Frauen Während Der Schrecklichen Ereignisse Vom 7. Oktober Vergewaltigt Wurden, Wusste Der Chatbot Es Tatsächlich Nicht, Da Er Nur Auf Ereignisse Im Januar 2022 Trainiert Wurde.

Noch ein anderer empörte sich darüber, dass die Antwort von ChatGPT auf die Frage nach den Misshandlungen durch die Hamas den Anschein erweckte, dass „alles im Voraus“ sei [to January 2022] ist irrelevant, weil es nicht existiert.“

„Ich tröste mich fälschlicherweise damit, dass KI tatsächlich ein Mega-Gig-Bullsh mit Lichtgeschwindigkeit ist – ähm, außergewöhnlich“, fügte der Benutzer hinzu und bemerkte, dass die Technologie „menschliche Aufwecker“ anspricht.

Vertreter von OpenAI antworteten nicht sofort auf die Bitte der Post um einen Kommentar.

Zu den tatsächlichen Berichten von diesem schrecklichen Tag gehört, dass eine „schöne Frau mit dem Gesicht eines Engels“ in Israel von bis zu zehn Hamas-Terroristen vergewaltigt wurde.

Yoni Saadon, ein 39-jähriger Vater von vier Kindern, erzählte Die britische Sunday Times dass er immer noch von den schrecklichen Szenen verfolgt wird, die er beim Nova Music Festival miterlebt hat, unter anderem als die Hamas eine Frau vergewaltigte, die um den Tod bettelte.

„Ich habe gesehen, wie diese wunderschöne Frau mit dem Gesicht eines Engels von acht oder zehn Kämpfern geschlagen und vergewaltigt wurde“, erinnert sich Saadon, Schichtleiter einer Gießerei. „Sie schrie: ‚Hör schon auf damit!‘ Ich werde sowieso an dem sterben, was du tust, töte mich einfach!‘

Siehe auch  Google kündigt neue Bard-Funktionen an, um mit ChatGPT gleichzuziehen – Forbes.ua

„Als sie fertig waren, lachten sie, und der letzte schoss ihr in den Kopf“, sagte er der Times.

Schreckliche Berichte vom 7. Oktober berichten von Gruppenvergewaltigungen israelischer Frauen durch Hamas-Terroristen, die darum bettelten, getötet zu werden. APAImages/Shutterstock

In der Zwischenzeit hat Google versprochen, sein KI-Tool zu aktualisieren, um „die jüngsten Probleme mit der Bildgenerierungsfunktion von Gemini zu beheben“.

Beispiele hierfür waren ein KI-Bild eines schwarzen Mannes, der George Washington zu repräsentieren schien, komplett mit einer weiß gepuderten Perücke und einer Uniform der Kontinentalarmee, und einer südostasiatischen Frau in päpstlicher Kleidung, obwohl alle 266 Päpste im Laufe der Geschichte weiße Männer waren.

Da Google die Parameter, die das Verhalten des Gemini-Chatbots steuern, nicht veröffentlicht hat, ist es schwierig, eine klare Erklärung dafür zu bekommen, warum die Software verschiedene Versionen historischer Figuren und Ereignisse erfand.

Es war ein erheblicher Fehltritt für den Suchriesen, der Anfang des Monats seinen wichtigsten KI-Chatbot von Bard umbenannt und vielgepriesene neue Funktionen eingeführt hatte – einschließlich der Bildgenerierung.

Der Fehler kam auch Tage, nachdem der ChatGPT-Hersteller OpenAI ein neues KI-Tool namens Sora eingeführt hatte, das Videos basierend auf den Texteingabeaufforderungen der Benutzer erstellt.

Soras kreative Kraft droht nicht nur, Hollywood in Zukunft auf den Kopf zu stellen, sondern kurzfristig bergen die Kurzvideos auch die Gefahr, Fehlinformationen, Voreingenommenheit und Hassreden auf beliebten Social-Media-Plattformen wie Reels und TikTok zu verbreiten.

Google Gemini wurde online verspottet, weil es „aufgeweckte“ Versionen historischer Persönlichkeiten produzierte, darunter eines schwarzen Mannes, der scheinbar George Washington repräsentierte, komplett mit einer weiß gepuderten Perücke und einer Uniform der Kontinentalarmee. Google Gemini

Das von Sam Altman geführte Unternehmen hat geschworen, zu verhindern, dass die Software Gewaltszenen oder Deepfake-Pornos wiedergibt, wie etwa die grafischen Bilder einer nackten Taylor Swift, die letzten Monat viral gingen.

Sora macht sich auch keine realen Personen oder den Stil eines namentlich genannten Künstlers zu eigen, aber die Verwendung von „öffentlich zugänglichen“ Inhalten für die KI-Schulung kann zu den rechtlichen Problemen führen, mit denen OpenAI wegen Urheberrechtsverletzungen seitens Medienunternehmen, Schauspielern und Autoren konfrontiert ist.

Siehe auch  ChatGPT ist auf dem Weg zu Ihrem Auto – aber nur, wenn Sie diese Marke haben

„Die Trainingsdaten stammen von Inhalten, die wir lizenziert haben, und auch von öffentlich zugänglichen Inhalten“, sagte das Unternehmen.

OpenAI sagte, es entwickle Tools, die erkennen können, ob ein Video von Sora erstellt wurde – und besänftigt damit die wachsende Besorgnis über Bedrohungen wie den möglichen Einfluss von GenAI auf die Wahlen 2024.

[ad_2]

5/5 - (166 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein