Schockwellen gingen durch die gesamte Technologiewelt, als OpenAI – das Unternehmen hinter dem Chatbot chatgpt – am Freitag beschloss, seinen CEO Sam Altman zu entlassen.

Wir wissen nicht genau, was der Grund für die Entlassung war, aber laut dem Vorstand von OpenAI lag der Grund darin, dass Altman nicht „ehrlich in seiner Kommunikation“ war.

Diese Ankündigung hat ein Meer unterschiedlicher Theorien hervorgerufen. Einer der am weitesten verbreiteten handelt von einem internen Konflikt in OpenAI, der entstanden ist, nachdem das Unternehmen seine Technologie der künstlichen Intelligenz der ganzen Welt zugänglich gemacht hat. Das sagt uns Thomas Ploug, Professor für KI und Datenethik am Department of Communication der Universität Aalborg:

– Altman hat auf eine Kapazitätserweiterung gedrängt. Aber einige im Vorstand haben eine Risikoperspektive in Bezug auf KI (künstliche Intelligenz, Anm. d. Red.) und befürchten, dass Altman eine völlig außer Kontrolle geratene Entwicklung vorantreibt.

– Und es hört sich so an, als ob die Vorstandsmitglieder, die diesen Standpunkt vertreten haben, in dieser Angelegenheit eine Rolle gespielt haben. Zumindest darüber werde derzeit spekuliert, so Thomas Ploug weiter.

Sam Altman, Mitbegründer von OpenAI im Jahr 2015, ergatterte schnell eine neue Spitzenposition bei Microsoft. Aber es dauerte nicht lange.

Hören Sie sich DR LYD an15 Folgen

Prompt

Wurde als gefährlich angesehen

Um den internen Konflikt in OpenAI zu verstehen, müssen wir die Zeit ein wenig zurückdrehen.

Das Unternehmen wurde bereits 2015 als gemeinnützige Organisation gegründet, deren Ziel es war, künstliche Intelligenz zu schaffen, die Menschen helfen kann.

Doch im Jahr 2019 wurde OpenAI auch zu einem kommerziellen Unternehmen. Heute besitzt der ursprüngliche Eigentümer, OpenAI Nonprofit, zwei Prozent des Unternehmens, während Microsoft nach mehreren Jahren nicht weniger als 49 Prozent übernommen hat MilliardeninvestitionenR.

– Als Sie den Vorläufer von GPT3 entwickelten, entschieden Sie eigentlich, dass Sie die Technologie nicht öffentlich zugänglich machen wollten. Man hielt es für einfach zu gefährlich, da die Gefahr einer Fehlinformation zu groß sei. Dies habe sich inzwischen mit ChatGPT geändert, das in öffentliches Eigentum übergegangen sei, sagt Thomas Ploug.

– Dies bedeutet jedoch, dass in der DNA von OpenAI die Sorge darüber liegt, wie die Technologie genutzt werden kann. „Und wenn man das weiß, macht es Sinn, dass einige Vorstandsmitglieder sagen, man müsse das Pferd einfach streicheln, wenn es darum geht, diese Anlage einfach ohne Hemmungen zu erweitern“, fährt er fort.

Nicht nur kommerzielle Interessen

Die Entscheidung, Sam Altman zu entlassen, fiel im Zuge der Einführung einer Reihe neuer Tools von OpenAI. Unter anderem muss es nun für jeden einzelnen Benutzer möglich sein, ein eigenes zu erstellen angepasstes ChatGPT.

Laut Thomas Ploug sind es nicht unbedingt nur kommerzielle Interessen, die Sam Altman und die rasante Entwicklung bei OpenAI vorantreiben.

OpenAI schreibt auf X, dass man sich gemeinsam mit Sam Altman darauf geeinigt habe, dass er zu OpenAI zurückkehren wird:

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein