OpenAI kündigte neue chatgpt-Funktionen an: „sehen“, „hören“ und „sprechen“

Erfahren Sie, welche neuen Funktionen ChatGPT erhalten hat.

OpenAI angekündigt über die neuen Funktionen seines Chatbots ChatGPT, der nun „sehen, hören und sprechen“, also gesprochene Worte verstehen, mit synthetischer Stimme antworten und Bilder verarbeiten kann. Dies ist das größte Update seit der Einführung von GPT-4.

Benutzer können in der mobilen ChatGPT-App zu Sprachgesprächen wechseln und aus fünf verschiedenen synthetischen Stimmen wählen, auf die der Bot reagieren soll. Außerdem können sie Bilder mit ChatGPT teilen und Bereiche zur Analyse hervorheben, indem sie beispielsweise die Frage stellen: „Welche Wolken sind das?“

Die neuen Funktionen werden in den nächsten zwei Wochen für zahlende Benutzer verfügbar sein. Die Sprachfunktionalität wird nur in iOS- und Android-Apps verfügbar sein, während die Bildverarbeitung auf allen Plattformen verfügbar sein wird.

Dieses Update erfolgt inmitten des zunehmenden Wettbewerbs im Bereich der künstlichen Intelligenz zwischen Marktführern wie OpenAI, Microsoft, google und Anthropic. Technologieriesen wollen nicht nur neue Chatbots, sondern auch neue Funktionen auf den Markt bringen.

Anfang des Jahres erhöhte Microsoft seine Investition in OpenAI um weitere 10 Milliarden US-Dollar und markierte damit den größten KI-Investitionsvertrag seit einem Jahr. Im April schloss das Startup einen Aktienverkauf im Wert von 300 Millionen US-Dollar ab, wodurch das Unternehmen einen Wert zwischen 27 und 29 Milliarden US-Dollar erhielt.

Experten haben jedoch Bedenken hinsichtlich KI-gestützter synthetischer Stimmen geäußert, die zur Erstellung überzeugender „Deepfakes“ verwendet werden könnten. OpenAI erkannte diese Bedenken an und sagte, dass die synthetischen Stimmen mit Schauspielern erstellt wurden, mit denen das Unternehmen direkt zusammenarbeitete, und nicht von zufälligen Personen gesammelt wurden.

Siehe auch  Mercedes-Benz leistet Pionierarbeit bei der Integration von ChatGPT in seine Autos

Auch darüber, wie OpenAI die Spracheingaben der Nutzer nutzt und wie das Unternehmen die Sicherheit dieser Daten gewährleistet, gab es in der Pressemitteilung kaum Informationen. OpenAI hat jedoch bestätigt, dass es keine Audioaufzeichnungen speichert oder zur Verbesserung von Modellen verwendet, sondern Transkriptionen als Eingabe behandelt werden und zur Verbesserung großer Sprachmodelle verwendet werden können.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein