Openai-Chef Sam Altman

OpenAI-Chef Sam Altman hatte beim World Economic Forum nicht alle Antworten parat, aber er treibt die Entwicklung künstlicher allgemeiner Intelligenz trotzdem voran – trotz eines möglichen „Hiroshima-Moments“. Stefan Wermuth – Bloomberg über Getty Images

„Was ist die Kernkompetenz des Menschen?“ Fareed Zakarias brutal einfache Frage an OpenAI-Chef Sam Altman brachte eine einstündige Diskussion über die Zukunft der Technologie auf den Punkt: Was kann die Menschheit in einer Welt, die um die Entwicklung der ersten künstlichen allgemeinen Intelligenz kämpft, noch immer übertreffen, wenn eine Maschine auf den Markt kommt? ist effektiv in jeder Hinsicht intelligenter?

Niemand im Panel des Weltwirtschaftsforums, Altman eingeschlossen, hatte eine überzeugende Antwort für den CNN-Journalisten, der das Panel am Donnerstag in Davos moderierte.

„Ich gebe zu, dass es sich dieses Mal anders anfühlt. „Allzweckkognition kommt dem, was wir alle an der Menschheit schätzen, so nahe, dass es sich tatsächlich anders anfühlt“, räumte der CEO des Unternehmens hinter chatgpt ein, bevor er eine Vorhersage wagte.

“Wir [humans] wird Entscheidungen darüber treffen, was in der Welt passieren soll“, sagte Altman.

Das lag nicht unbedingt daran, dass wir es tun sollten – zum Beispiel weil Menschen oder AGI zu dem Schluss kommen, dass unser Urteilsvermögen von Natur aus besser ist –, sondern daran, dass Menschen immer noch eher bereit sind, Fehler an sich selbst und anderen zu akzeptieren, bevor sie es einer Maschine tun.

Technologie In Einer Turbulenten Welt |  Davos 2024 |  Weltwirtschaftsforum

„Menschen sind ziemlich nachsichtig, wenn andere Menschen Fehler machen, aber sie verzeihen überhaupt nicht, wenn Computer Fehler machen“, betonte Altman.

Als Paradebeispiel nannte er das autonome Fahren. Wir akzeptieren, dass Taxifahrer einen Fehler machen, den wir bei selbstfahrenden Autos nicht tun würden.

Siehe auch  „Ich wünschte, ich könnte ChatGPT sagen“: OpenAI-CEO Sam Altman enthüllt seine am häufigsten verwendete App im Podcast von Bill Gates

Altman schlug außerdem vor, dass die Menschen sehr gut wissen, was andere Menschen interessiert. Doch selbst dort erhielt er keine moralische Unterstützung vom anderen Tech-Gründer und CEO im Gremium, Marc Benioff.

Der Salesforce-Chef, dessen Einstein-KI die von WEF-Besuchern verwendete App unterstützt, schlug vor, dass Davos in nicht allzu ferner Zukunft möglicherweise nicht einmal einen Moderator wie Zakaria benötigen würde, um die für sein Publikum relevantesten Fragen zu stellen.

„Vielleicht werden wir schon bald, in ein paar Jahren, einen digitalen WEF-Moderator haben, der auf diesem Stuhl sitzt und dieses Panel moderiert“, sagte Benioff, „und vielleicht einen ziemlich guten Job macht, weil es Zugang zu vielen haben wird.“ die Informationen, die wir haben.“

Warum schließlich nicht? Bereits Anfang 2015 kamen Forscher zu dem Schluss, dass die von Facebook eingesetzten maschinellen Lernalgorithmen besser einschätzen können, was einer Person gefällt, als sie selbst eigener Ehegatte.

Marc Benioff ist besorgt über den „Hiroshima-Moment“

Glücklicherweise ist generative KI zwar weit fortgeschritten, aber noch weit davon entfernt, als echte AGI zu gelten, und zumindest solange dies so bleibt, wird es immer noch Argumente dafür geben, dass Menschen benötigt werden.

„Heute ist die KI wirklich nicht an einem Punkt angelangt, an dem wir Menschen ersetzen, sondern an einem Punkt, an dem wir sie erweitern“, sagte Benioff. „Wir stehen kurz vor dem Durchbruch und werden sagen: ‚Wow, es ist fast wie ein digitaler Mensch.‘ Und wenn wir an diesem Punkt angelangt sind, werden wir uns fragen: Vertrauen wir ihm?“

Altman prognostizierte, je näher die Forscher der Entwicklung einer hoffentlich sicheren und verantwortungsvollen AGI kommen, desto mehr Stress und Spannung werde die Gesellschaft erleben.

Siehe auch  ChatGPT darf für militärische Zwecke verwendet werden | Wissenschaft und Technologie | MIGnews - MIGnews.ua

Er erläuterte die bizarren Ereignisse, die sich in der Woche ereigneten, als er kurzzeitig aus der Kontrolle über OpenAI gedrängt wurde, und gab einen Einblick in den drohenden Stress, der damit zu rechnen ist.

„Mit jedem Schritt, den wir einer sehr leistungsstarken KI näherkommen, erhält jeder Charakter etwa +10 verrückte Punkte“, sagte er. „Es ist eine sehr stressige Sache – und das sollte es auch sein, denn wir versuchen, mit sehr hohen Einsätzen verantwortungsbewusst umzugehen.“

Benioff zog es vor, dieses Anliegen in ein viel lebendigeres Bild zu bringen.

„Wir wollen nur sicherstellen, dass Menschen nicht verletzt werden. Wir wollen nicht, dass etwas wirklich schief geht“, sagte er. „Wir wollen keinen Hiroshima-Moment erleben.“

5/5 - (328 votes)
Anzeige