OpenAI hat ein bedeutendes Update seiner beliebten chatgpt-Plattform angekündigt. Dieses Update führt GPT-4o ein, ein leistungsstarkes neues KI-Modell, das „GPT-4-Klassen-Chat“ in die App bringt. Chief Technology Officer Mira Murati und OpenAI-Mitarbeiter stellten ihr neuestes Flaggschiffmodell vor, das verbale Gespräche in Echtzeit mit einem freundlichen KI-Chatbot ermöglicht, der wie ein Mensch sprechen kann. Die Ankündigung von OpenAI erfolgt nur einen Tag vor der jährlichen Entwicklerkonferenz von google – Google I/O, die am 14. Mai beginnt. „GPT-4o bietet Informationen auf GPT-4-Niveau, ist aber viel schneller“, sagte Murati auf der Bühne. „Wir glauben, dass GPT-4o dieses Paradigma wirklich in die Zukunft der Zusammenarbeit verschiebt, wo diese Interaktion viel natürlicher und viel einfacher wird.“ Was ist „o“ in GPT-4o? In GPT-4o – das „o“ steht für Omni – werden Sprache, Text und Bild in einem einzigen Modell kombiniert, wodurch es schneller als sein Vorgänger ist. Nach Angaben des Unternehmens sei das neue Modell doppelt so schnell und deutlich effizienter. GPT-4o-Preise und Verfügbarkeit Das sagte Mira Murati, CTO von OpenAI, am Montag in einer Livestream-Ankündigung. Es wird für alle Benutzer kostenlos sein, und kostenpflichtige Benutzer werden weiterhin „bis zum Fünffachen der Kapazitätsgrenzen“ der kostenlosen Benutzer haben, fügte Murati bei der Einführungsveranstaltung in San Francisco hinzu. Das Update bringt eine Reihe von Funktionen für kostenlose Benutzer, die bisher auf diejenigen mit einem kostenpflichtigen Abonnement von ChatGPT beschränkt waren. Dazu gehört die Möglichkeit, das Internet nach Antworten auf Anfragen zu durchsuchen, mit dem Chatbot zu sprechen und Antworten in verschiedenen Stimmen zu hören und ihm zu befehlen, Details zu speichern, die der Chatbot in Zukunft abrufen kann. OpenAI beginnt heute mit der Einführung der neuen Text- und Bildfunktionen von GPT-4o für einige zahlende ChatGPT Plus- und Team-Benutzer und bietet diese Funktionen bald auch Unternehmensbenutzern an. Das Unternehmen wird in den kommenden Wochen den Nutzern von ChatGPT Plus die neue Version seines „Sprachmodus“-Assistenten zur Verfügung stellen. Die wichtigsten Funktionen von GPT-4o GPT-4o geht über die traditionelle textbasierte Kommunikation hinaus und kann nun die Welt um sich herum durch visuelle Fähigkeiten „sehen“. Zu diesen Funktionen gehören: * Desktop-Screenshots: GPT-4o kann direkt auf Ihrem Mac aufgenommene Screenshots analysieren. * Integration einer mobilen App: Eine iphone-App (und bald auch eine Windows-App) ermöglicht das Hochladen von Videos und Screenshots für die Verarbeitung durch GPT-4o. Wie GPT-4o „menschlicher denn je“ ist Bei der OpenAI-Demo stellten vor allem Mitarbeiter des Unternehmens Fragen an den stimmgewaltigen ChatGPT, der mit Witzen und menschenähnlichem Geplänkel reagierte. * Interaktion in Echtzeit: Im Gegensatz zu früheren Modellen ermöglicht GPT-4o ein Hin- und Hergespräch, ohne darauf warten zu müssen, dass das Modell seine Aussage beendet. * Harmonisierte Sprachsynthese: GPT-4o kann verschiedene Stimmen erzeugen und diese sogar harmonisieren, um ein natürlicheres Dialogerlebnis zu ermöglichen. * Anspruchsvolle Konversationen: GPT-4o bietet „normale“ Gesprächsinteraktionen, Übersetzungen und mehr, alles mit der Raffinesse, die man von GPT-4-Technologie erwartet.
Siehe auch  Hat ChatGPT Enterprise Sicherheits- und Datenschutzbedenken ausgeräumt?, ET CIO
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein