OpenAI-Gründer Sam Altman, dessen Unternehmen den viralen KI-Chatbot chatgpt entwickelt hat, gab am Dienstag bekannt, dass sein Unternehmen künstliche Intelligenz auf menschlicher Ebene erreicht habe, bevor er behauptete, er mache „nur Memes“.

In einem Beitrag im Reddit-Forum r/singularity schrieb Herr Altman: „AGI wurde intern erreicht“ und bezog sich dabei auf künstliche allgemeine Intelligenz – KI-Systeme, die der menschlichen Intelligenz entsprechen oder diese übertreffen.

Sein Kommentar kam nur wenige Stunden, nachdem OpenAI ein großes Update für ChatGPT vorgestellt hatte, das es ihm ermöglichen wird, Benutzer durch die Verarbeitung von Audio- und visuellen Informationen zu „sehen, zu hören und zu sprechen“.

Dann Herr Altman hat seinen ursprünglichen Beitrag bearbeitet um hinzuzufügen: „Natürlich ist das nur ein Meme, ihr habt keine Angst, wenn AGI erreicht ist, wird es nicht mit einem Reddit-Kommentar bekannt gegeben.“

Das r/singularity Reddit-Forum widmet sich Spekulationen rund um die technologische Singularität, bei der die Computerintelligenz die menschliche Intelligenz übertrifft und die KI-Entwicklung unkontrollierbar und irreversibel wird.

Der Philosoph der Universität Oxford, Nick Bostrom, schrieb in seinem bahnbrechenden Buch über das hypothetische Szenario Superintelligenzin dem er die existenziellen Risiken der fortgeschrittenen künstlichen Intelligenz darlegte.

Siehe auch  „Game of Thrones“ vs. ChatGPT, ungleiches Match?

In einem von Professor Bostroms Gedankenexperimenten geht es um eine außer Kontrolle geratene AGI, die die Menschheit zerstört, obwohl sie dazu bestimmt ist, scheinbar harmlose Ziele zu verfolgen.

Das als Paperclip Maximiser bekannte Experiment beschreibt eine KI, deren einziges Ziel darin besteht, so viele Büroklammern wie möglich herzustellen.

„Die KI wird schnell erkennen, dass es viel besser wäre, wenn es keine Menschen gäbe, denn die Menschen könnten beschließen, sie auszuschalten“, schrieb Professor Bostrom.

„Außerdem enthalten menschliche Körper viele Atome, die zu Büroklammern verarbeitet werden könnten. Die Zukunft, auf die sich die KI vorbereiten würde, wäre eine, in der es viele Büroklammern, aber keine Menschen gäbe.“

Im Anschluss an den Reddit-Beitrag von Herrn Altman veröffentlichte der OpenAI-Forscher Will Depue ein KI-generiertes Bild auf X/Twitter mit der Überschrift: „Aktuelle Nachrichten: OpenAI-Büros voller Büroklammern!“.

OpenAI ist eines von mehreren Unternehmen, die AGI verfolgen, das, wenn es in einer Weise eingesetzt wird, die mit menschlichen Interessen im Einklang steht, das Potenzial hat, die Welt auf schwer vorhersehbare Weise grundlegend zu verändern.

In einem Blogbeitrag Anfang des Jahres skizzierte Herr Altman seine Vision für eine AGI, die „der gesamten Menschheit zugute kommt“, warnte aber auch davor, dass die Risikominderung eine große Herausforderung darstellt.

„Wenn AGI erfolgreich geschaffen wird, könnte diese Technologie uns dabei helfen, die Menschheit zu verbessern, indem sie den Wohlstand erhöht, die Weltwirtschaft ankurbelt und bei der Entdeckung neuer wissenschaftlicher Erkenntnisse hilft, die die Grenzen des Möglichen verschieben“, sagte er schrieb.

Andererseits wäre AGI auch mit einem ernsthaften Risiko von Missbrauch, drastischen Unfällen und gesellschaftlichen Störungen verbunden. Da die Vorteile von AGI so groß sind, glauben wir nicht, dass es für die Gesellschaft möglich oder wünschenswert ist, ihre Entwicklung für immer zu stoppen; Stattdessen müssen die Gesellschaft und die Entwickler von AGI herausfinden, wie sie es richtig machen.“

Siehe auch  Zehn Möglichkeiten für Autoren, ChatGPT zu nutzen
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein