Auf „Sie“ zu zeigen, war vielleicht eine passende Metapher für Sam Altman, da der Film für die Menschen nicht gut ausgeht

  • Von Parmy Olson / Bloomberg-Meinung

“Ihr.” Das war der einzige Tweet, den OpenAI-Geschäftsführer Sam Altman veröffentlichte, während seine Leutnants ein neues chatgpt mit den gleichen verführerischen Gesangsschnörkeln vorführten, die Scarlett Johansson im Film über einen Mann verwendete, der sich in seine künstliche Intelligenz (KI) verliebt.

Das Beeindruckendste am neuen GPT-4o – das „o“ steht für Omni – ist, dass er in Echtzeit besprechen kann, was er durch die Kamera Ihres Telefons „sieht“, eine Fähigkeit, die google in einer Demo für sein KI-Modell vorgetäuscht hat Dezember letzten Jahres. Noch verblüffender war, dass es nicht nur menschlich, sondern auch seltsam verführerisch klang.

„Hey“, sagte die neue Version von ChatGPT mit schüchterner Frauenstimme zu einem jungen Mann in der Hauptvideodemonstration des Unternehmens. „Wie ich sehe, trägst du einen OpenAI-Hoodie. Gute Wahl.”

Illustration: Constance Chou

Bei einer Live-Demo in der OpenAI-Zentrale in San Francisco überraschte das KI-System das Publikum, als es plötzlich sagte: „Wow, das ist ja ein ganz tolles Outfit, das du da hast“ und jemandem dabei half, ein Algebraproblem zu lösen.

Bloomberg News, das bei der Veranstaltung anwesend war, bezeichnete den Ton als „kokett“.

In einer anderen Videodemo lachte die KI, wiederum mit weiblicher Stimme, kokett, während ein OpenAI-Mitarbeiter vorgab, sie um Rat zu fragen, was man für ein Vorstellungsgespräch anziehen sollte.

„Oh, Rocky“, sagte er kichernd, nachdem er einen albernen Hut aufgesetzt hatte. „Das ist ein echtes Statement.“

Siehe auch  Der Qualitätsverlust von ChatGPT wurde durch eine Studie bestätigt

Wenn die überwiegend männlichen Ingenieure von OpenAI versuchen, die perfekte Freundin zu bauen, scheinen sie auf dem richtigen Weg zu sein.

Wenn das Unternehmen jedoch versucht, ein genaueres und zuverlässigeres KI-Modell zu entwickeln, hat es noch einen weiten Weg vor sich. GPT-4o liegt bei wichtigen KI-Benchmarks immer noch nur leicht vorne und erste Tests zeigen, dass es bei wichtigen Aufgaben weiterhin Fehler macht.

Das Unternehmen hat sich stattdessen darauf konzentriert, das Benutzererlebnis zu verbessern und GPT-4o eher zu einem Verbraucherspiel als zu einem Spiel für Unternehmenskunden zu machen. Sein neues Modell kann Emotionen ableiten und auf Audio so schnell reagieren, wie es ein Mensch in einem Gespräch tun würde. Damit könnte ein langjähriges technisches Ziel des „Ambient Computing“ erreicht werden, bei dem man nicht mehr auf einen winzigen Bildschirm starren und mit den Daumen tippen muss, um einfach nur zu sprechen und einem Computer Dinge zu zeigen.

Darin steckt viel Potenzial, von Live-Nachhilfe bis hin zur Analyse des Computerbildschirms einer Person während der Arbeit durch einen cleveren digitalen Assistenten. Allerdings sind die Bemühungen von OpenAI, seine KI so ansprechend zu gestalten, beunruhigend.

Welche sozialen und psychologischen Folgen hat es, wenn man am Telefon regelmäßig mit einer koketten, lustigen und letztlich angenehmen künstlichen Stimme spricht, im echten Leben jedoch eine ganz andere Dynamik mit Männern und Frauen erlebt? Was passiert, wenn emotional verletzliche Menschen eine ungesunde Bindung zu GPT-4o entwickeln?

OpenAI antwortete zum Zeitpunkt des Schreibens weder auf diese Fragen noch erklärte es, warum es GPT-4o so viel mehr Persönlichkeit verliehen hatte. Wenn das Ziel darin bestünde, das Produkt attraktiver für die Verbraucher zu machen – wie es bereits bei den Entwicklern versucht wurde –, könnte dies ein großes Problem darstellen und heimtückische Auswirkungen auf unsere kollektive psychische Gesundheit haben. Denken Sie daran, dass diese Prioritäten Facebook dazu veranlasst haben, Algorithmen zu entwickeln, die die empörendsten Beiträge auf seiner Website bewerben, um die Leute zum Scrollen zu bewegen und eine größere politische Spaltung zu schaffen.

Siehe auch  ChatGPT muss reguliert werden

Man kann jedoch verstehen, warum Altman darauf drängt, seinen Chatbot klebriger zu machen. Das Nutzerwachstum für ChatGPT stagniert, da konkurrierende Bots wie Claude von Anthropic und Gemini von Google um Marktanteile konkurrieren. Dies ist wahrscheinlich der Grund, warum er auch GPT-4, das fortschrittlichste Modell von OpenAI auf dem Markt, für alle kostenlos macht.

OpenAI beschrieb GPT-4o nicht als „persönlichen Assistenten“, aber genau das scheint das Unternehmen und seine Konkurrenten zu sein. Google wird voraussichtlich am Dienstag nächster Woche ein ähnliches Tool vorstellen.

Elon Musks KI-Unternehmen x.AI arbeitet ebenfalls an einer App, die als persönlicher Assistent fungieren soll, wie aus dem von Bloomberg Opinion eingesehenen Finanzierungs-Pitchdeck vom letzten Monat hervorgeht.

Die 20-US-Dollar-pro-Monat-App, für die es auch eine kostenlose Stufe gäbe, zielt darauf ab, einen KI-generierten Feed mit vorgeschlagenen Nachrichtenartikeln und Erinnerungen anzuzeigen, beispielsweise zum Kauf von Blumen in einem nahegelegenen Geschäft zum Geburtstag eines Freundes oder zum Kauf von Blumen Konzertkarten für eine Lieblingsband, die auf Tour ist, eine Diashow. Das Deck fügt hinzu, dass durch die Integration mit persönlichen Daten von X ein „aufgeladenes soziales Erlebnis“ geschaffen werden kann.

Musk schrieb am Dienstag auf X, dass ein „großes Upgrade von Grok“ auf dem Weg sei.

Meta erforscht auch KI-unterstützte Kopfhörer mit Kameras und seine Ray-Ban-Datenbrillen verfügen bereits über einen KI-Assistenten.

Während sich die Technologiegiganten auf digitale Assistenten konzentrieren, könnten sie die Persönlichkeit als neues KI-Schlachtfeld betrachten. Allerdings könnte der Wettlauf darum, Chatbots sexyer zu machen, bizarre Nebenwirkungen haben. Auf Sie zu zeigen war vielleicht eine passende Metapher für Sam Altman: Der Film endet nicht gut für die Menschen.

Siehe auch  Die 7 besten ChatGPT-Chrome-Erweiterungen

Parmy Olson ist Kolumnist bei Bloomberg Opinion und befasst sich mit Technologie. Als ehemalige Reporterin für das Wall Street Journal und Forbes ist sie Autorin von We Are Anonymous. Diese Kolumne spiegelt nicht unbedingt die Meinung der Redaktion oder von Bloomberg LP und seinen Eigentümern wider.

Kommentare werden moderiert. Halten Sie Kommentare für den Artikel relevant. Bemerkungen, die beleidigende und obszöne Sprache, persönliche Angriffe jeglicher Art oder Werbung enthalten, werden entfernt und der Benutzer gesperrt. Die endgültige Entscheidung liegt im Ermessen der Taipei Times.

5/5 - (322 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein