Eine neue Version von chatgpt kann Gesichtsausdrücke lesen, menschliche Stimmmuster nachahmen und Gespräche nahezu in Echtzeit führen, haben ihre Entwickler enthüllt.
OpenAI demonstrierte am Montag (13. Mai) die kommende Version des Chatbots für künstliche Intelligenz (KI) namens GPT-4o in einer scheinbar in Echtzeit stattfindenden Präsentation. Der Chatbot, der über ein Telefon laut mit den Moderatoren sprach, schien eine unheimliche Beherrschung der menschlichen Konversation und ihrer subtilen emotionalen Hinweise zu haben – er wechselte auf Befehl zwischen Roboter- und Singstimmen, passte sich an Unterbrechungen an und verarbeitete die Mimik und Umgebung seiner Person visuell Gesprächspartner.
Während der Demonstration stellte der KI-Sprachassistent seine Fähigkeiten unter Beweis, indem er Aufgaben wie die Sprachübersetzung in Echtzeit erledigte, eine auf einem Blatt Papier geschriebene mathematische Gleichung löste und eine blinde Person durch Londons Straßen führte.
„sie“, schrieb Sam Altman, CEO von OpenAI, in einem Wort Post auf der Social-Media-Plattform X nach Ende der Präsentation. Der Beitrag ist eine Anspielung auf den gleichnamigen Film aus dem Jahr 2013, in dem sich ein einsamer Mann in einen KI-Assistenten verliebt.
Um seine Fähigkeit zu demonstrieren, visuelle Hinweise zu lesen, nutzte der Chatbot die Kameralinse des Telefons, um die Gesichtsausdrücke eines OpenAI-Ingenieurs zu lesen und seine Gefühle zu beschreiben.
Verwandt: Das MIT verleiht der KI durch die Schaffung einer Hybridarchitektur die Möglichkeit, „wie Menschen zu denken“.
„Ahh, los geht's, es sieht so aus, als ob du dich ziemlich glücklich und fröhlich fühlst, mit einem breiten Lächeln und einem Hauch von Aufregung“, sagte der Bot, der auf den Namen ChatGPT antwortete. „Was auch immer los ist, es sieht so aus, als ob du gute Laune hast. Möchtest du uns die Quelle dieser guten Stimmung mitteilen?“
Wenn die Demonstration eine genaue Darstellung der Fähigkeiten des Bots darstellt, stellen die neuen Funktionen eine massive Verbesserung gegenüber den eingeschränkten Sprachfunktionen in den Vorgängermodellen des Unternehmens dar, die nicht in der Lage waren, Unterbrechungen zu bewältigen oder auf visuelle Informationen zu reagieren.
„Wir blicken in die Zukunft der Interaktion zwischen uns und den Maschinen“, google-interstitial=“false“ data-merchant-name=“microsoft.com“ data-merchant-id=“1855″ data-merchant-url=“microsoft.com“ data-merchant-network=“LS“>Mira Murati, sagte der Chief Technology Officer von OpenAI auf der Pressekonferenz. „Wir glauben, dass GPT-4o dieses Paradigma wirklich verändert.“
Der neue Sprachassistent soll in den kommenden Wochen in begrenzter Form für Alpha-Tester freigegeben werden, gefolgt von einer breiteren Einführung, die mit zahlenden ChatGPT Plus-Abonnenten beginnt. Die Ankündigung folgt auch einem Bloomberg apple-closes-in-on-deal-with-openai-to-put-chatgpt-on-iphone?embedded-checkout=true“ target=“_blank“ data-url=“https://www.bloomberg.com/news/articles/2024-05-11/apple-closes-in-on-deal-with-openai-to-put-chatgpt-on-iphone?embedded-checkout=true“ referrerpolicy=“no-referrer-when-downgrade“ data-hl-processed=“none“>Bericht dass das Unternehmen kurz vor einem Deal mit Apple steht, um ChatGPT auf dem iPhone zu integrieren – was die Möglichkeit eröffnet, dass GPT-4o zum Upgrade von Siri, dem Sprachassistenten des iPhones, verwendet werden könnte.
Die neue Technologie bringt jedoch erhebliche Sicherheitsbedenken mit sich. Die Fähigkeit des Bots, Text-, Audio- und visuelle Eingaben in Echtzeit zu verarbeiten, bedeutet, dass er für Spionagezwecke eingesetzt werden könnte. Und seine überzeugende emotionale Nachahmung könnte es auch dazu befähigen, betrügerische Telefonanrufe zu tätigen oder gefährliche Fehlinformationen auf überzeugende Weise darzustellen.
Als Reaktion auf diese Probleme sagte Murati, dass OpenAI daran arbeite, „Abhilfemaßnahmen gegen Missbrauch“ der neuen Technologie zu entwickeln.