Der Bereich der generativen künstlichen Intelligenz (KI) wird immer heißer, da OpenAI GPT-4V, ein visionsfähiges Modell, und multimodale Konversationsmodi für sein chatgpt-System vorgestellt hat.
Mit den neuen Upgrades, die am 25. September angekündigt wurden, können ChatGPT-Benutzer den Chatbot in Gespräche einbinden. Die ChatGPT-Modelle GPT-3.5 und GPT-4 können jetzt gesprochene Anfragen in Klartext verstehen und mit einer von fünf verschiedenen Stimmen antworten.
ChatGPT kann jetzt sehen, hören und sprechen. Mit der Einführung in den nächsten zwei Wochen können Plus-Benutzer Sprachgespräche mit ChatGPT (iOS und Android) führen und Bilder in Gespräche einbinden (alle Plattformen). https://t.co/uNZjgbR5Bm pic.twitter.com/paG0hMshXb
— OpenAI (@OpenAI) 25. September 2023
Laut einem Blogbeitrag von OpenAI wird diese neue multimodale Schnittstelle Benutzern dies ermöglichen interagieren mit ChatGPT auf neuartige Weise:
„Machen Sie während der Reise ein Foto von einem Wahrzeichen und führen Sie ein Live-Gespräch darüber, was daran interessant ist. Wenn Sie zu Hause sind, machen Sie Fotos von Ihrem Kühlschrank und Ihrer Speisekammer, um herauszufinden, was es zum Abendessen gibt (und stellen Sie weitere Fragen für ein Schritt-für-Schritt-Rezept). Helfen Sie Ihrem Kind nach dem Abendessen bei einer Matheaufgabe, indem Sie ein Foto machen, die Aufgabenstellung einkreisen und Hinweise mit Ihnen beiden teilen lassen.“
Die aktualisierte Version von ChatGPT wird in den nächsten zwei Wochen für Plus- und Enterprise-Benutzer auf mobilen Plattformen eingeführt, mit anschließendem Zugriff für Entwickler und andere Benutzer „bald danach“.
Das multimodale Upgrade von ChatGPT folgt unmittelbar auf die Einführung von DALL-E 3, dem fortschrittlichsten Bildgenerierungssystem von OpenAI.
Laut OpenAI auch DALL-E 3 integriert Verarbeitung natürlicher Sprache. Dadurch können Benutzer mit dem Modell sprechen, um die Ergebnisse zu verfeinern, und ChatGPT integrieren, um Hilfe bei der Erstellung von Bildaufforderungen zu erhalten.
In anderen KI-Nachrichten kündigte der OpenAI-Konkurrent Anthropic am 25. September eine Partnerschaft mit Amazon an. Wie Cointelegraph berichtete, wird Amazon bis zu 4 Milliarden US-Dollar investieren, um Cloud-Dienste und Hardware-Zugriff anzubieten. Im Gegenzug sagte Anthropic, dass es eine verbesserte Unterstützung für Amazons grundlegendes KI-Modell Bedrock sowie „sichere Modellanpassung und Feinabstimmung für Unternehmen“ bieten werde.
Verwandt: Coinbase-CEO warnt vor KI-Regulierung und fordert Dezentralisierung