Diese erweiterte Version wurde von einer kleinen Gruppe von Menschen getestet und kann Blinden helfen. Das Unternehmen ist jedoch besorgt über seine Fähigkeit, die Gesichter bestimmter Personen zu erkennen.
chatgpt kann mehr als nur mit Worten antworten. Eine weiterentwickelte Version des berühmten Gesprächsroboters ist tatsächlich in der Lage, Bilder zu analysieren, deren Inhalt zu beschreiben, Fragen dazu zu beantworten und sogar die Gesichter bestimmter Personen zu erkennen. Zur Erinnerung: OpenAI stellte letzten März GPT-4 vor und kündigte an, dass dieses Sprachmodell multimodal sei. Mit anderen Worten: Es ist in der Lage, Texte und Bilder zu verarbeiten.
Während die meisten Benutzer keinen Zugriff darauf haben, haben einige dank des Startups Be My Eyes, das blinden und sehbehinderten Menschen hilft, indem es sie mit sehenden Freiwilligen zusammenbringt, frühzeitig Zugriff auf diese erweiterte Version erhalten. Berichten zufolge hat das Unternehmen in diesem Jahr eine Partnerschaft mit OpenAI geschlossen, um die „Sicht“ des Chatbots zu testen, bevor die Funktion offiziell eingeführt wird Die New York Times.
Eine Technologie, die Blinden helfen kann
Der blinde Geschäftsführer einer Arbeitsvermittlung Jonathan Mosen gehört dank der Partnerschaft zwischen Be My Eyes und OpenAI zu der ausgewählten Gruppe von Menschen, die seit einigen Monaten die erweiterte Version von ChatGPT testen. Auf einer kürzlichen Reise nutzte er die visuelle Analysefunktion des Chatbots, um festzustellen, welche Flaschen im Badezimmer eines Hotelzimmers Shampoo, Spülung und Duschgel enthielten. .
Das erzielte Ergebnis übertraf die Leistung der zuvor von Jonathan Mosen verwendeten Bildanalysesoftware deutlich. „Er nannte mir das Fassungsvermögen jeder Flasche in Millilitern. Er erzählte mir von den Fliesen in der Dusche.“erklärte er. „Er beschrieb alles so, dass ein Blinder es hören muss. Und mit nur einem Foto hatte ich genau die Antworten, die ich brauchte.“fügte der Geschäftsführer hinzu.
Eine problematische Technologie
Mit dieser erweiterten Version von ChatGPT kann Jonathan Mosen „Bilder befragen“. Während ein Bild in sozialen Netzwerken konkret so beschrieben wurde, dass es eine „Frau mit blonden Haaren, die glücklich aussieht“, zeigte, ging der Chatbot noch weiter, indem er es analysierte und darauf hinwies, dass es sich um eine Frau handelte, die ein dunkelblaues Hemd trug und ein Selfie vor einem machte Wandspiegel. Jonathan Mosen konnte ihr auch Anschlussfragen stellen, etwa welche Art von Schuhen die Frau trug.
Der Chatbot gab jedoch kürzlich keine Informationen mehr über die Gesichter der Personen heraus und gab an, diese seien aus Datenschutzgründen maskiert worden. Diese Änderung hängt mit den Bedenken von OpenAI zusammen, das nicht möchte, dass ChatGPT zu einer Gesichtserkennungs-Engine wird. Laut Sandhini Agarwal, einem Politikforscher des Startups, ist seine Technologie in der Lage, Persönlichkeiten des öffentlichen Lebens zu identifizieren, beispielsweise Personen mit einer Wikipedia-Seite. Allerdings funktioniert es nicht so umfassend wie andere Tools zur Gesichtserkennung im Internet, etwa Clearview AI und PimEyes.
Die Technologie schafft es beispielsweise, auf Fotos den CEO von OpenAI, Sam Altman, zu erkennen, die anderen im Unternehmen arbeitenden Personen jedoch nicht. Die Veröffentlichung dieser Funktion würde in mehreren Ländern, darunter auch in Europa, wahrscheinlich zu rechtlichen Problemen für OpenAI führen, da Unternehmen die Zustimmung der Bürger einholen müssen, um ihre biometrischen Informationen, einschließlich eines Gesichtsabdrucks, zu verwenden.
Das Startup befürchtet auch, dass sein Tool Dinge über die Gesichter von Menschen sagt, die es nicht sagen sollte, indem es ihren emotionalen Zustand oder sogar ihr Geschlecht analysiert. Ein weiteres Problem: Die Funktion könnte Halluzinationen hervorrufen oder Informationen erfinden, was ChatGPT bereits mit Textaufforderungen getan hat. Das Tool beschrieb Jonathan Mosen beispielsweise fälschlicherweise eine Fernbedienung und behauptete, sie verfüge über bestimmte Tasten, obwohl dies nicht der Fall war. Er könnte sich auch bei der Identifizierung einer Person irren. OpenAI versucht daher unter anderem, diese Sicherheitsprobleme zu lösen, bevor diese Funktion der Öffentlichkeit zugänglich gemacht wird.