Quelle: Shutterstockchatgpt 4 gut genug ist, um die meisten Leute zu täuschen“ src=“https://twistedsifter.com/wp-content/uploads/2024/06/TuringTestGPT4.jpg“ srcset=“https://twistedsifter.com/wp-content/uploads/2024/06/TuringTestGPT4.jpg 1200w, https://twistedsifter.com/wp-content/uploads/2024/06/TuringTestGPT4.jpg?resize=150,79 150w, https://twistedsifter.com/wp-content/uploads/2024/06/TuringTestGPT4.jpg?resize=300,158 300w, https://twistedsifter.com/wp-content/uploads/2024/06/TuringTestGPT4.jpg?resize=768,403 768w, https://twistedsifter.com/wp-content/uploads/2024/06/TuringTestGPT4.jpg?resize=1024,538 1024w, https://twistedsifter.com/wp-content/uploads/2024/06/TuringTestGPT4.jpg?resize=586,308 586w“ data-lazy-sizes=“(max-width: 800px) 100vw, 800px“/>

Experten sagen schon seit einiger Zeit, dass wir einfach abwarten müssen und dass sich KI-Tools wie ChatGPT so weit weiterentwickeln werden, dass sie gut genug sind, um als menschlich durchzugehen.

Während viele über seine Misserfolge lachen, sagen Experten, GPT-4 ist töricht gute 50% haben sie davor gesteckt.

Forscher der University of California San Diego behaupten in ihrer neues Papier dass GPT-4 das erste große Sprachmodell (LLM) ist, das den Turing-Test vollständig besteht – und zudem mehr als die Hälfte der Menschen täuscht, die mit ihm interagieren.

Die beteiligten Forscher führten ein einfaches Experiment durch, bei dem sie 500 Personen baten, ein fünfminütiges Textgespräch mit einem Menschen oder einem auf GPT-4 basierenden Chatbot zu führen.

Dann fragten sie sie, ob sie glaubten, mit einem Menschen oder einer KI gesprochen zu haben.

Quelle: ShutterstockQuelle: Shutterstock

54 % der Probanden glaubten, sie hätten mit Menschen gesprochen, obwohl sie tatsächlich mit ChatGPT-4 von OpenAI interagiert hatten.

Der Turing-Test wurde in den 1950er Jahren vom Informatikpionier Alan Turing theoretisch aufgestellt. In seinem ursprünglichen Test stellte Turing drei „Spieler“ auf.

Einer war ein menschlicher Vernehmer, ein anderer ein Zeuge von unbestimmter Menschlichkeit oder Maschinellemsein und der letzte war ein menschlicher Beobachter.

Das Team der UC San Diego veränderte die ursprüngliche Formel, indem es den dritten menschlichen Beobachter eliminierte, dafür aber einige zusätzliche Zeugen hinzufügte.

Zusätzlich zum GPT-4-Bot ließen sie die Teilnehmer mit einem anderen Menschen, einem GPT-3.5 und einem Chatbot aus den 1960ern genannt ELIZA.

Siehe auch  ChatGPT Plus-Benutzer melden Probleme seit dem DALL-E 3-Upgrade

Die Autoren der Studie gingen davon aus, dass die Teilnehmer ELIZA problemlos identifizieren könnten, mit den neueren Modellen jedoch nur in etwa der Hälfte der Fälle Erfolg hätten – und sie hatten Recht.

Während nur 22 % der Teilnehmer dachten, dass ELIZA ein Mensch sei, glaubten 50 %, dass GPT3.5 real sei, verglichen mit 54 %, die von der Fähigkeit von GPT-4, die Menschheit zu imitieren, überzeugt waren.

Quelle: ShutterstockQuelle: Shutterstock

Das Papier wird derzeit noch geprüft, hat aber die Zustimmung des Ethereum-Mitbegründers Vitalik Buterin erhalten, der sagt, dass diese Forschung „damit zähle, dass GPT-4 den Turing-Test bestehe“.

Sobald das Papier ein umfassendes Peer-Review durchlaufen hat, können wir möglicherweise alle auf den Zug aufspringen.

Oder unsere Mistgabeln anzünden.

In jedem Fall.

Wenn Ihnen diese Geschichte gefallen hat, schauen Sie sich an, was passierte, als ein Typ ChatGPT 100 $ gab, um so viel Geld wie möglich zu verdienen, und es kam genau so, wie Sie es erwartet hatten.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein