Tage nachdem OpenAI die Welt mit unglaublich fotorealistischen Demos seines neuen KI-Videogenerationsmodells Sora begeistert hat, stößt es auf eine große Hürde.

Das Signaturprodukt des Startups, chatgpt, begann gestern Nachmittag, Dienstag, den 20. Februar 2024, unsinnige, unsinnige Ausgaben an Benutzer zurückzusenden, und viele wandten sich an X (ehemals Twitter), um sich zu beschweren.

Einige der ChatGPT-Ausgaben mischten Spanisch und Englisch unverständlich, während andere immer wieder Wörter oder wiederholte Phrasen erfanden, obwohl der Chatbot, der auf dem Large Language Model (LLM) basiert, nicht dazu aufgefordert wurde.

Ein kluger Benutzer verglich die scheinbar zufälligen Aneinanderreihungen unzusammenhängender Wörter mit den beunruhigenden außerirdischen „seltsamen Horror“-Graffiti aus Jeff VanderMeers bahnbrechendem Roman von 2014 Vernichtungund aus der Sicht dieses Lesers ist es wahr, dass sie beide eine ähnlich unheimliche Qualität einer unmenschlichen Intelligenz aufweisen, die aus dem Ruder läuft oder unlogisch erscheint.

VB-Ereignis

Die AI Impact Tour – NYC

Wir werden am 29. Februar in Zusammenarbeit mit Microsoft in New York sein, um zu diskutieren, wie Risiken und Vorteile von KI-Anwendungen in Einklang gebracht werden können. Fordern Sie unten eine Einladung zur exklusiven Veranstaltung an.

Eine Einladung anfordern

Während verschiedene Befragte scherzten, dass die seltsamen Ergebnisse der Beginn eines „Roboteraufstands“ seien, wie er in zahlreichen Science-Fiction-Filmreihen dargestellt wird, darunter Terminator Und Die Matrixandere taten sie achselzuckend als Pannen ab, und viele wiesen darauf hin, dass sie die Idee untergraben, dass generative KI-Tools genauso gut funktionieren wie Menschen für Schreib- und Codegenerierungsaktivitäten.

Siehe auch  Privilegierte Studierende nutzen „wahrscheinlicher ChatGPT“

Am 20. Februar um 15:40 Uhr PST war sich OpenAI des Problems bewusst und veröffentlichte es auf seiner Website öffentliches Status-Dashboard Website. Um 15:47 Uhr PST gab das Unternehmen an, das Problem erkannt zu haben und es zu „beheben“. Und gegen 17 Uhr PST teilte das Unternehmen mit, dass es „die Situation weiterhin beobachtet“.

Doch selbst mit einer schnellen Lösung konnten die fehlerhaften und weitschweifigen Antworten aus dem Nichts nicht anders, als mich und andere dazu zu bringen, die zugrunde liegende Zuverlässigkeit und Integrität von ChatGPT und die Verwendung von ChatGPT oder anderen OpenAI-Produkten wie den LLMs, die es antreiben – GPT-4 – in Frage zu stellen und GPT-3.5 – für Unternehmensanwendungen, insbesondere für „sicherheitskritische“ Aufgaben wie Transport, Gesundheitswesen/Medizin, Energie und Technik.

Wir haben uns an OpenAI gewandt, um weitere Informationen darüber zu erhalten, was genau dazu geführt hat, dass sich ChatGPT auf diese Weise oder falsch verhält, und werden dies aktualisieren, sobald wir etwas hören.

Die Mission von VentureBeat soll ein digitaler Stadtplatz für technische Entscheidungsträger sein, um sich Wissen über transformative Unternehmenstechnologie anzueignen und Transaktionen durchzuführen. Entdecken Sie unsere Briefings.

5/5 - (164 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein