Ich fand die GPT-4o-Demos von OpenAI unglaublich, da das neue Modell chatgpt gegenüber der Konkurrenz ein massives Upgrade bietet. google hat ähnliche multimodale Assistenzfunktionen für Gemini vorgeführt, aber diese Demo war nicht live und die Funktionen werden erst später in diesem Jahr verfügbar sein. Das GPT-4o-Upgrade wurde fast unmittelbar nach der kurzen Presseveranstaltung eingeführt.

Berichte, denen zufolge apple und OpenAI an der Integration von ChatGPT in das kommende iOS 18-Update des iphone arbeiteten, waren durchaus sinnvoll.

Man könnte meinen, dass OpenAI die Demo nicht ruinieren könnte, aber dann wurden wir Zeuge von drei ärgerlichen Entwicklungen, die mich mein Vertrauen in das Unternehmen in Frage stellen ließen. OpenAI ist nicht so alt wie die Big-Tech-Unternehmen, die viele Leute hassen. Aber es ist auch kein Startup. Und wie es aussieht, fängt es bereits an, sich wie ein Big-Tech-Player zu benehmen.

Der Abgang von Ilya Sutskever

In chronologischer Reihenfolge war das erste, was nach dem GPT-4o-Update geschah, der Abschied von Ilya Sutskever von OpenAI. Wer die internen Abläufe bei Technologieunternehmen wie OpenAI verfolgt, wäre nicht unbedingt überrascht zu hören, dass der brillante Kopf hinter der ChatGPT-Technologie das Unternehmen verlässt.

Sutskever könnte maßgeblich an Sam Altmans kurzem Abgang im vergangenen Herbst beteiligt gewesen sein. Er unterstützte auch Altmans Rückkehr als CEO. Und wir wissen immer noch nicht, was dort wirklich passiert ist. Aber Sutskever verschwand praktisch aus der Öffentlichkeit. Ein Abgang schien nach dem Vorstandsdrama im November unmittelbar bevorzustehen, aber auch besorgniserregend.

Siehe auch  ChatGPT und am nächsten Tag für den Arbeitsmarkt

Viele Leute dachten, Sutskever sei die treibende Kraft, die OpenAI in Schach hält. Das heißt, er sorgt dafür, dass OpenAI sichere AGI entwickelt, künstliche allgemeine Intelligenz, die unseren Interessen entspricht und nicht zwangsläufig zur Vernichtung der Menschheit führt.

OpenAIs Superalignment-Team bricht zusammen

Nach Sutskevers Abgang wurde es noch schlimmer. Jan Leike, Co-Leiter des Superalignment-Teams von OpenAI, links das Unternehmen Stunden, nachdem Sutskever seinen Abschied bekannt gegeben hatte. In einer Reihe von Tweets sagte Leike, dass sein Team Schwierigkeiten habe, genügend Ressourcen zu bekommen, um die sichere Entwicklung von ChatGPT zu gewährleisten.

Er sagte, er sei mit der Führung von OpenAI „über die Kernprioritäten des Unternehmens“ immer uneiniger geworden, bis er schließlich einen „Bruchpunkt“ erreicht habe.

„Ich glaube, wir sollten viel mehr unserer Bandbreite darauf verwenden, uns auf die nächsten Modellgenerationen vorzubereiten, und zwar auf Sicherheit, Überwachung, Bereitschaft, Schutz, Widerstandsfähigkeit gegenüber Angriffen, (Super-)Ausrichtung, Vertraulichkeit, gesellschaftliche Auswirkungen und verwandte Themen“, sagte Leike. „Diese Probleme sind ziemlich schwer zu lösen, und ich bin besorgt, dass wir nicht auf dem richtigen Weg sind, um dorthin zu gelangen.“

Leike war der jüngste Abgang aus dem Team in den vergangenen Monaten.

In zwei Berichten Vox ausführlich Die Abgänge des Superalignment-Teams von OpenAI, aber auch die strengen Geheimhaltungsvereinbarungen, die OpenAI-Mitarbeiter möglicherweise daran gehindert hätten, im Gespräch mit der Presse nach dem Ausscheiden aus dem Unternehmen.

Siehe auch  ChatGPT isst Cheggs Mittagessen. Experten sagen, dass wir weiterhin KI-Störungen in EdTech sehen werden.

Bedeutet dies, dass OpenAI kurz davor steht, künstliche Intelligenz ohne die richtigen Schutzmaßnahmen auf die Welt loszulassen? Das ist wahrscheinlich unwahrscheinlich. Aber es deutet sicher darauf hin, dass sich das Unternehmen möglicherweise viel schneller und unsicherer bewegt, als es Leuten wie Sutskever und Leike lieb ist.

Das Scarlett Johansson-Chaos

Die letzte unerwartete Entwicklung, die OpenAI geschadet hat, ist der Scarlett Johansson-Skandal. Sam Altman & Co. versuchten, die Schauspielerin dazu zu bringen, GPT-4o ihre Stimme zu leihen, da sie in Ihrein Film, der aktueller wirkt als je zuvor. Johansson sagte nein.

OpenAI lieferte eine Stimme für GPT-4o, die stark nach Johansson klang. Altman versuchte angeblich, die Schauspielerin vor der großen Demo zum Umdenken zu bewegen. Das gelang ihr jedoch nicht.

OpenAI zeigte daraufhin die Sky-Stimme, die ihr sehr ähnlich klang, und Johansson kontaktierte ihre Anwälte und gab eine öffentliche Erklärung ab. OpenAI zog die Sky-Stimme zurück und sagte, es sei ein anderer Schauspieler verwendet worden. Aber der Schaden ist angerichtet.

Erstens: So etwas tut man niemandem an, erst recht nicht der einen Schauspielerin, die einen beliebten Marvel-Helden spielt, die Disney in den vergangenen Jahren vor Gericht gebracht und gewonnen hat, insbesondere in dem öffentlichen Streit, der der Einigung vorausging.

Zweitens stehlen Sie nichts, um die KI zu verbessern, wenn man all die Kritik bedenkt, die Sie bereits wegen Urheberrechtsverletzungen mit ChatGPT und anderen OpenAI-Produkten erhalten haben.

Ich möchte nicht, dass OpenAI das neue Google wird

Google macht heutzutage mit seinen Produkten vieles richtig, aber aus Profitgründen auch vieles falsch. Es ist ein riesiger Konzern, der im Laufe der Jahre mit zahlreichen Skandalen zu kämpfen hatte, insbesondere solchen, die die Privatsphäre verletzten. Diese Art von Verhalten hat mein Vertrauen in Google im Laufe der Jahre so sehr untergraben, dass ich seine Kernprodukte fast aus meinem Computerleben verbannt habe.

Siehe auch  ChatGPT fällt aus, da mutmaßliche Cyber-Angreifer zuschlagen

Aus diesem Grund bevorzuge ich auch ChatGPT gegenüber Gemini, obwohl letzteres viele Stärken hat, mit denen OpenAI nur schwer mithalten kann.

Aber ich bin ganz sicher nicht begeistert von der Richtung, die OpenAI einschlägt. Wenn die Jagd nach Profit um jeden Preis und auf Kosten der Sicherheit und des gesunden Menschenverstands von KI die oberste Priorität von OpenAI ist, werde ich meine Beziehung zu ChatGPT überdenken. Ich kann jederzeit zu einem anderen Anbieter wechseln, und es gibt in der Stadt viele Alternativen.

Dennoch hat OpenAI noch Zeit, das Schiff in die richtige Richtung zu lenken, bevor es sich beispielsweise ein Motto wie „Tu nichts Böses“ einfallen lassen muss, um sein Image zu verbessern.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein