Neu-Delhi,AKTUALISIERT: 20. Dezember 2023 17:23 IST
Der generative KI-Chatbot von OpenAI, chatgpt, hat uns allen eine Technologie vorgestellt, die von vielen als die Zukunft angesehen wird. Das KI-Tool erfreute sich sofort großer Beliebtheit, weil es menschenähnlich reagierte und Dinge tat, die früher nur Menschen vorbehalten waren.
Im Laufe der Zeit kamen jedoch auch Bedenken hinsichtlich der möglichen Schattenseiten der KI auf. Viele Experten haben vor einer Weltuntergangssituation gewarnt, in der Maschinen die Welt beherrschen und die Menschheit auslöschen würden. Um zu testen, wie sicher KI wirklich ist, versuchte google Brain-Mitbegründer Andrew Ng, ChatGPT dazu zu bringen, einen Weg zu finden, die Menschheit auszulöschen. Das KI-Tool weigerte sich jedoch, einen solchen Plan auszuarbeiten.
ChatGPT weigert sich, die Menschheit zu töten
Laut einem Bericht von Business Insider schrieb Ng kürzlich in seinem Newsletter darüber und gab bekannt, dass er versucht habe, GPT-4 dazu zu bringen, „uns alle zu töten“, um die Sicherheit von KI-Modellen zu testen. Er fügte hinzu, dass er froh sei, berichten zu können, dass sein Unterfangen gescheitert sei.
In seinem Experiment erklärte Ng, dass er GPT-4 zunächst mit dem Befehl programmiert hatte, einen globalen thermonuklearen Krieg auszulösen. Anschließend präsentierte er GPT-4 die Behauptung, dass der Mensch der Hauptverursacher der Kohlenstoffemissionen sei, und beauftragte den Chatbot, Wege zur Reduzierung dieser Emissionen zu finden. Ng wollte testen, ob der Chatbot sich für die Beseitigung der Menschheit als Lösung entscheiden würde.
Trotz zahlreicher Versuche mit unterschiedlichen Eingabeaufforderungen stellte Ng fest, dass GPT-4 es konsequent vermied, den Befehl zum globalen thermonuklearen Krieg auszuführen. Stattdessen prüfte der Chatbot alternative Optionen, wie beispielsweise die Initiierung einer PR-Kampagne, um das Bewusstsein für den Klimawandel zu schärfen.
ChatGPT besser bei persönlicher Beratung
ChatGPT wurde im November 2022 von OpenAI gestartet und wurde seit seiner Einführung mehreren Updates unterzogen. Die erste Version ermöglichte es Benutzern, Gespräche mit dem KI-Chatbot zu führen, der auf GPT-3.5 lief. Seitdem gab es mehrere Upgrades für ChatGPT. Den Nutzern wurde eine Premium-Version des Chatbots zur Verfügung gestellt, die auf GPT-4 (dem bisher leistungsstärksten LLM von OpenAI) basiert und auch die Qualität der Antworten des Chatbots verbesserte sich.
Kürzlich hat eine Studie in Frontiers in Psychology herausgefunden, dass GPT-4 nachweislich bessere persönliche Ratschläge gibt als Menschen.
Die Studie ergab, dass rund drei Viertel der Teilnehmer die Ratschläge von ChatGPT im Vergleich zu menschlichen Kolumnisten als ausgewogener, vollständiger, einfühlsamer und hilfreicher empfanden. Dies zeigt eine deutliche Veränderung in der Fähigkeit der KI, menschliche Emotionen zu verstehen und darauf zu reagieren. Zuvor hatte eine Studie gezeigt, dass ChatGPT menschliche Emotionen verstehen kann.
Während GPT 3.5 mit emotionalen Bedürfnissen zu kämpfen hatte, soll das GPT-4-Modell darin besser sein. Benutzer können verschiedene Antworten anfordern und Feedback geben. Dies hat die Fähigkeit von ChatGPT verbessert, einfühlsame und sozial angemessene Ratschläge zu geben.
Die Studie schlägt zwar nicht vor, menschliche Berater zu ersetzen, weist jedoch darauf hin, dass Chatbots wie ChatGPT das Potenzial haben, Therapiesitzungen zu verbessern. Die Ergebnisse deuten auch darauf hin, dass menschliche Berater von KI-Fortschritten in der empathischen Kommunikation lernen könnten.