Die reale Welt war bisher chaotisch und für Maschinen völlig unverständlich. In Moss hat ein Reinigungsroboter die nächste Ausgabe von chatgpt im Gehirn.
Die Kurzversion
- Eine neue Engine in ChatGPT namens GPT-4V kann jetzt Bilder verstehen. Dadurch erhält die Maschine die Fähigkeit, visuelle Reize zu interpretieren und darauf zu reagieren. Es kann Essensrezepte vorschlagen, die auf Bildern vom Inhalt eines Kühlschranks basieren.
- Das norwegische Unternehmen 1X Technologies produziert humanoide Roboter und hat GPT-4V integriert, um das Verständnis der Roboter für ihre Umgebung zu verbessern. Ihr neuester Roboter NEO, der in einigen Monaten vorgestellt wird, wird fortschrittlicher sein und unter anderem auf zwei Beinen laufen können.
Die Zusammenfassung wird mit Hilfe künstlicher Intelligenz (KI) erstellt und von den Journalisten von Aftenposten qualitätsgesichert.
Bisher war ChatGPT nur in der Lage, Texte zu verstehen und zu schreiben. In diesen Tagen ist das Modul GPT-4V erschienen, wobei V für „Vision“ steht. Es ermöglicht der Maschine, zu verstehen Bilder. Aftenposten hat seit einigen Tagen einen frühen Zugriff.
Als erstes haben wir versucht, den Inhalt des Kühlschranks und des Schranks zu fotografieren. Diese Bilder reichten ChatGPT aus, um aus den gesehenen Zutaten ein Abendessen vorzuschlagen und ein Rezept zu formulieren.
Lesen Sie die ganze Geschichte mit einem Abonnement