Zwei Leiter für ethische Fragen, darunter der Mitbegründer von chatgpt, verließen diese Woche das Starunternehmen aus dem Silicon Valley, da anhaltende Meinungsverschiedenheiten über die Grenzen bestehen, die einer zukünftigen „Super-KI“ gesetzt werden sollen.

Nach dem Weggang seiner beiden Manager wurde das für die Sicherheit einer potenziellen künstlichen Superintelligenz (KI) zuständige OpenAI-Team (ChatGPT) aufgelöst und seine Mitglieder in andere Forschungsgruppen des Unternehmens integriert. OpenAI bestätigte diese Information am Freitag, dem 17. Mai, gegenüber AFP und gab an, dass die Änderung der Struktur bereits vor mehreren Wochen begonnen habe. Der Erfinder von ChatGPT sorgt dafür, dass Forscher, die für die Sicherheit von KI-Modellen verantwortlich sind, mit den Ingenieuren, die diese Modelle entwickeln, zusammenarbeiten können.

Doch die beiden Manager des ehemaligen Teams haben gerade das Starunternehmen aus dem Silicon Valley verlassen. Jan Leike erklärte am Freitag auf X, ehemals Twitter, dass er wegen grundlegender Meinungsverschiedenheiten mit dem Management über die Prioritäten des Unternehmens zurücktrete: Innovation oder Sicherheit. „Wir haben einen Bruchpunkt erreicht“deutete der Ingenieur an, der das Team leitete, das für „Superalignment“ verantwortlich war, also dafür sorgte, dass eine zukünftige allgemeine KI, so intelligent wie der Mensch, mit unseren Werten im Einklang steht.

„Er hat recht, wir haben noch viel zu tun“

Sam Altman, der Mitbegründer und CEO des in San Francisco ansässigen Unternehmens, sagte „Sehr traurig zu sehen (Jan Leike) verlassen“. „Er hat recht, wir haben noch viel zu tun (für Ausrichtungs- und Sicherheitsforschung)und wir sind entschlossen, es zu tun.“fügte er hinzu und versprach, bald eine längere Nachricht zu senden.

Siehe auch  Die nagenden Zweifel an ChatGPT | Meinung

Das „Superalignment“-Team wurde auch von Ilya Sutskever, Mitbegründer von OpenAI, geleitet, der am Dienstag seinen Rücktritt bekannt gab. Auf X, sagte er sich „Überzeugt, dass OpenAI künstliche allgemeine Intelligenz aufbauen wird, die sowohl sicher als auch nützlich ist.“ Als ehemaliger Chefwissenschaftler des Unternehmens saß er im Vorstand, der im vergangenen November für die Entlassung von Sam Altman stimmte, bevor er einen Rückzieher machte.

„Mit der Schwerkraft handeln“

Mit ChatGPT startete OpenAI die generative KI-Revolution (Erstellung von Inhalten auf einfache Abfrage in Alltagssprache), die das Silicon Valley begeistert, aber auch viele Beobachter und Regulierungsbehörden von Kalifornien bis Washington und Brüssel beunruhigt. Vor allem, wenn Sam Altman davon spricht, eine allgemeine KI zu schaffen, also mit kognitiven Fähigkeiten, die denen des Menschen entsprechen. OpenAI stellte am Montag eine neue Version von ChatGPT vor, die nun mündliche und flüssige Gespräche mit seinen Nutzern führen kann, ein weiterer Schritt hin zu immer persönlicheren und effizienteren KI-Assistenten.

Jan Leike rief am Freitag alle OpenAI-Mitarbeiter dazu auf „Mit der Schwerkraft handeln“ was rechtfertigt, was sie bauen. „Ich denke, wir sollten viel mehr Zeit damit verbringen, uns auf die nächsten Generationen von Modellen vorzubereiten, und zwar auf Sicherheit, Kontrollen, Sicherheit, Cybersicherheit, Ausrichtung auf unsere Werte, Datenschutz, gesellschaftliche Auswirkungen und andere Themen.“», listete er auf.

5/5 - (488 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein