Der Pate der KI und chatgpt-Experten haben gewarnt, dass außer Kontrolle geratene Unternehmen im Bereich der künstlichen Intelligenz zum „Aussterben der Menschheit“ führen könnten.

Geoffrey Hinton und 12 KI-Spezialisten haben einen offenen Brief unterzeichnet, in dem sie eine stärkere staatliche Aufsicht fordern, um uns alle zu retten.

13 Personen, die bei OpenAI, google DeepMind und Anthropic gearbeitet haben, haben einen offenen Brief geschrieben, in dem sie vor den Gefahren fortgeschrittener künstlicher Intelligenz warnen.Bildnachweis: Getty

Der ehemalige Google-Mitarbeiter, der das Unternehmen im vergangenen Jahr verließ, ist einer von 13 Unterzeichnern – sechs von ihnen sind anonym – für den Doomsday-Stil Brief.

„Wir sind aktuelle und ehemalige Mitarbeiter führender KI-Unternehmen und glauben an das Potenzial der KI-Technologie, der Menschheit beispiellose Vorteile zu bringen“, beginnt der Brief.

„Wir sind uns auch der ernsten Risiken bewusst, die diese Technologien bergen.

„Diese Risiken reichen von der weiteren Verschärfung bestehender Ungleichheiten über Manipulation und Fehlinformation bis hin zum Kontrollverlust über autonome KI-Systeme, der möglicherweise zum Aussterben der Menschheit führen könnte.“

„KI-Unternehmen selbst haben diese Risiken erkannt, ebenso wie Regierungen auf der ganzen Welt und andere KI-Experten.“

Atomkatastrophe

Erst letzten Monat warnte der Wirtschaftsmagnat Warren Buffett, die Bedrohung durch künstliche Intelligenz sei mit der durch Atomwaffen vergleichbar.

Und das US-Außenministerium warnte, die zunehmende Geschwindigkeit, mit der künstliche Intelligenz entwickelt wird, könne „katastrophale“ Folgen für die Menschheit haben.

Es besteht ein existenzielles Risiko, da befürchtet wird, dass eine künstliche allgemeine Intelligenz (AGI) entwickelt werden könnte, die die menschliche Intelligenz übertrifft.

Siehe auch  Mutter behauptet, TikTok Blackout Challenge habe zum Tod der Tochter geführt

Derartige hochentwickelte KI-Systeme könnten für die Menschheit verheerende Folgen haben.

Darüber hinaus besteht die Gefahr, dass Waffen durch künstliche Intelligenz gesteuert werden. Experten befürchten, dass künstliche Intelligenz für Kriegszwecke eingesetzt wird und es zu autonomen, von Maschinen gesteuerten Waffen kommen könnte.

GELD IST WICHTIG

In ihrem am 4. Juni veröffentlichten Brief schlugen die KI-Experten vor, dass die Risiken durch die Anleitung der wissenschaftlichen Gemeinschaft, der politischen Entscheidungsträger und der Öffentlichkeit gemindert werden könnten.

„KI-Unternehmen haben jedoch starke finanzielle Anreize, einer wirksamen Aufsicht zu entgehen“, fügten sie hinzu.

Einige von uns fürchten aus gutem Grund verschiedene Formen der Vergeltung.

Unterzeichner des Bedrohungsschreibens zum Aussterben der KI

In dem Brief wurde darauf hingewiesen, dass sich die KI-Unternehmen des Schadens, den sie der Menschheit zufügen können, durchaus bewusst sind.

„Allerdings gibt es derzeit nur schwache Verpflichtungen für sie, einige dieser Informationen an die Regierung weiterzugeben, und überhaupt keine an die Zivilgesellschaft“, heißt es in dem Brief.

„Solange es keine wirksame staatliche Aufsicht über diese Unternehmen gibt, gehören derzeitige und ehemalige Mitarbeiter zu den wenigen Menschen, die sie gegenüber der Öffentlichkeit zur Verantwortung ziehen können.“

„Doch umfassende Vertraulichkeitsvereinbarungen hindern uns daran, unsere Bedenken zu äußern – mit Ausnahme genau jener Unternehmen, die es möglicherweise versäumen, diese Probleme anzugehen.“

„Der gewöhnliche Schutz von Hinweisgebern ist unzureichend, da er sich auf illegale Aktivitäten konzentriert, während viele der Risiken, die uns Sorgen bereiten, noch nicht reguliert sind.

„Einige von uns befürchten berechtigterweise Vergeltungsmaßnahmen jeglicher Art, wenn man die Geschichte solcher Fälle in der gesamten Branche bedenkt.“

Was ist ChatGPT?

ChatGPT ist ein neues Tool für künstliche Intelligenz

Siehe auch  ChatGPT führt eine neue „Archiv“-Funktion ein: Wie funktioniert es?

ChatGPT, das im November 2022 eingeführt wurde, wurde vom in San Francisco ansässigen Startup OpenAI, einem KI-Forschungsunternehmen, entwickelt.

Es ist Teil einer neuen Generation von KI-Systemen.

ChatGPT ist ein Sprachmodell, das Text erzeugen kann.

Die Maschine kann Konversation führen, auf Anfrage lesbaren Text generieren und Bilder und Videos produzieren, und zwar auf Grundlage der Erkenntnisse, die sie aus einer riesigen Datenbank mit digitalen Büchern, Online-Schriften und anderen Medien gewonnen hat.

ChatGPT funktioniert im Wesentlichen wie ein schriftlicher Dialog zwischen dem KI-System und der Person, die ihm Fragen stellt

GPT steht für Generative Pre-Trained Transformer und beschreibt den Modelltyp, der KI-generierte Inhalte erstellen kann.

Wenn Sie ihm beispielsweise eine Aufforderung erteilen, „ein kurzes Gedicht über Blumen zu schreiben“, wird auf Grundlage dieser Aufforderung ein Textblock erstellt.

ChatGPT kann auch Gespräche führen und sogar aus Dingen lernen, die Sie gesagt haben.

Es kann sehr komplizierte Eingabeaufforderungen verarbeiten und wird sogar von Unternehmen als Arbeitshilfe verwendet.

Beachten Sie jedoch, dass möglicherweise nicht immer die Wahrheit gesagt wird.

„ChatGPT ist unglaublich eingeschränkt, aber bei einigen Dingen gut genug, um einen irreführenden Eindruck von Großartigkeit zu erwecken“, sagte Sam Altman, CEO von OpenAI, im Jahr 2022.

Der Brief wurde von Geoffrey Hinton gemeinsam mit dem ehemaligen OpenAI-Ingenieur Daniel Ziegler und dem Mitorganisator Daniel Kokotajlo unterzeichnet, der OpenAI Anfang des Jahres verlassen hat.

Hinton arbeitete mehr als ein Jahrzehnt lang bei Google an seiner KI-Technologie, doch seit er das Unternehmen 2023 verlassen hat, spricht er offen über die Gefahren, die sein Lebenswerk bergen kann.

Weitere Unterzeichner des Briefes waren Ramana Kumar, Ex-Google DeepMind; Neel Nanda, derzeit Google DeepMind, ehemals Anthropic, ein KI-Sicherheits- und Forschungsunternehmen; William Saunders und Carroll Wainwright, beide ehemalige Mitarbeiter von OpenAI.

Siehe auch  ChatGPT 4o: So starten Sie mit der neuesten Version

Angst vor Rache

In dem Brief sind vier Grundsätze aufgeführt, zu deren Einhaltung sich Unternehmen mit fortschrittlicher KI verpflichten müssen, um letztlich die Menschheit zu schützen.

Hierzu gehört der Schutz der freien Meinungsäußerung. Die Unternehmen sollten weder „verunglimpfende“ oder negative Kommentare über sie verbieten, noch sollten sie Vergeltungsmaßnahmen gegen diejenigen ergreifen, die auf risikobezogene Bedenken hinweisen.

Das zweite Prinzip besteht darin, sich für unabhängige Organisationen einzusetzen, an die sich derzeitige und ehemalige Mitarbeiter mit ihren Ängsten wenden können, ohne Angst um ihre Existenz oder Rachegefühle ihrer Chefs haben zu müssen.

Drittens heißt es in dem Brief, es müsse einen Schutz für Whistleblower geben und Unternehmen müssten für Kritik offen sein.

„Das Unternehmen wird keine Vergeltungsmaßnahmen gegen aktuelle und ehemalige Mitarbeiter ergreifen, die vertrauliche Risikoinformationen öffentlich preisgeben, nachdem andere Prozesse fehlgeschlagen sind“, lautete sein viertes Prinzip.

ELON MUSK

Sogar Elon Musk hat Bedenken hinsichtlich der Geschwindigkeit geäußert, mit der KI entwickelt wird, und des Mangels an Sicherheitsvorkehrungen.

Zuvor hatte er einen offenen Brief unterzeichnet, in dem er dazu aufrief, mit der Entwicklung neuer Systeme, die „leistungsstärker“ seien als aktuelle Bots wie ChatGPT, zu warten.

ChatGPT ist ein Chatbot, der wie ein Mensch schnelle und ausführliche Antworten gibt.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein