Das Hauptmerkmal von GPT-4o besteht darin, dass das neuronale Netzwerk per Video, mit menschlicher Stimme und ohne zu zögern kommuniziert. KI ist unter anderem in der Lage, einem Blinden zu helfen – indem sie ihm alles erzählt, was er durch die Telefonkamera sieht.
Amerikanisches Unternehmen OpenAI vorgeführt GPT-4o-Modell, das Ton, Bilder und Text in Echtzeit analysieren kann. Die Entwickler behaupten, dass das Neuron intelligenter sei als alle Vorgängermodelle, wie aus der offiziellen Stellungnahme hervorgeht.
Das neue Modell GPT-4o, auch bekannt als GPT-4 Omni, kann für blinde Menschen eine echte Rettung sein – es kann beispielsweise alles erzählen, was sie durch die Smartphone-Kamera sehen, und ihnen so die Orientierung auf der Straße erleichtern. Darüber hinaus beherrscht das neuronale Netzwerk fünfzig Sprachen und kann in Echtzeit übersetzen.
GPT-4o wurde darauf trainiert, Fragen mit Sarkasmus und Emotionen zu beantworten. Das neuronale Netz ist unter anderem in der Lage, Schülern komplexe Themen der Mathematik anschaulich zu erklären oder beispielsweise Code in Sekundenschnelle zu schreiben.
Das neuronale Netzwerk wurde zudem direkt in die Zoom-Anwendung integriert, sodass sich Mitarbeiter bei Videokonferenzen direkt an es wenden können, um Ratschläge zu erhalten. GPT-4o funktioniert direkt über den PC.
Die neue Version von chatgpt mit GPT-4o ist sowohl für kostenpflichtige als auch für kostenlose Benutzer verfügbar. Benutzer der kostenlosen Version haben jetzt auch Zugriff auf die Suche im Internet nach Informationen, die Erstellung von Diagrammen, die Analyse von Daten, die Arbeit mit Dateien und Bildern sowie die Möglichkeit, einen Verlauf ihrer vorherigen Interaktionen mit dem System zu speichern.