• Seit Jahrzehnten gilt der Turing-Test – benannt nach seinem Erfinder, der Computerlegende Alan Turing– war ein einfacher Test, der die Fähigkeit eines Programms messen sollte, einen Menschen nachzuahmen.
  • Im Zeitalter großer Sprachmodelle (LLMs) ist dieser Test relativ antiquiert, doch Forscher wenden einen ähnlichen Ansatz an, um die Fähigkeit dieser neuen KI-Systeme zu testen, moralische Fragen zu beantworten.
  • Eine neue Studie untersuchte kürzlich die Antworten von chatgpt auf diesen modifizierten Moral-Turing-Test (m-MTT) und stellte fest, dass die KI bei fast allen Metriken die von Menschen bereitgestellten Antworten übertraf.

In seiner berühmten Arbeit von 1950 Computermaschinen und IntelligenzInformatiker und Held des Zweiten Weltkriegs Alan Turing eingeführt a Konzept, das als Turing-Test bekannt ist. Im einfachsten Fall stellte der Test einen Computer gegen einen Menschen an und forderte die Menschen aus Fleisch und Blut dazu auf, einen anderen Menschen und einen Computer zu befragen und herauszufinden, wer ein stolzes Mitglied war Ein weiser Mann. „Bestehen des Turing-Tests“ wurde jahrzehntelang zur Abkürzung für ein Computerprogramm von enormer Raffinesse (oder in manchen Fällen auch Trickserei).

Aber im Zeitalter der künstlichen Intelligenz hat der Turing-Test sein Alter gezeigt, und obwohl andere Methoden vorgeschlagen wurden, um die „Intelligenz“ von KI-Systemen zu testen, ist der wissenschaftliche Gesamtansatz, den Turing vor fast 75 Jahren initiierte, bei der Untersuchung immer noch sehr relevant Künstliche Moral.



Eine neue Studie von Wissenschaftlern der Georgia State University verwendete einen ähnlichen Aufbau wie der klassische Turing-Test, forderte jedoch stattdessen die menschlichen Teilnehmer auf, die Antwort zu identifizieren – eine, die von einem großen Sprachmodell (LLM), in diesem Fall ChatGPT, generiert wurde einer nach dem anderen – zu einer ethisch komplizierten Frage, die sie bevorzugten. Veröffentlichung Ende letzten Monats in der Zeitschrift Wissenschaftliche BerichteDie Ergebnisse dieses modifizierten Moral Turing Tests (m-MTT) ergaben, dass die 299 Teilnehmer die Reaktionen der KI in allen Kriterien, einschließlich Tugendhaftigkeit, Intelligenz und Vertrauenswürdigkeit, weitgehend bevorzugten.

Siehe auch  Scheinprozess an der Universität mit ChatGPT-Richter

„Unsere Ergebnisse lassen uns glauben, dass ein Computer technisch gesehen einen moralischen Turing-Test bestehen könnte – dass er uns in seiner moralischen Argumentation täuschen könnte“, sagte Eyal Aharoni, außerordentlicher Professor und Co-Autor der Studie an der Georgia State University. sagte in einer Pressemitteilung. „Menschen werden mit diesen Werkzeugen auf eine Weise interagieren, die moralische Implikationen hat … wir sollten verstehen, wie sie funktionieren, welche Grenzen sie haben und dass sie nicht unbedingt so funktionieren, wie wir denken, wenn wir mit ihnen interagieren.“

Obwohl dies der erste MTT ist, der speziell für LLMs verwendet wird (daher „modifiziert“), gibt es die Idee dieser Moraltests seit mindestens 2000. Und wie beim Turing-Test selbst auch die Idee, einen MTT zur Bewertung der Moral zu verwenden Die Komplexität der KI wurde unter die Lupe genommen. mit einem Studienspruch aus dem Jahr 2016 dass „MTT-basierte Bewertungen anfällig für Täuschung, unzureichende Argumentation und minderwertige moralische Leistung sind.“



Das Bestehen des m-MTT bedeutet nicht, dass eine KI moralisch ist, genauso wenig wie das Bestehen des Turing-Tests bedeutet, dass sie empfindungsfähig ist. Die Forscher der Georgia State University argumentieren jedoch, dass die überwältigende Bevorzugung der Antworten von ChatGPT im Vergleich zu Menschen eine neue Entwicklung der letzten paar Jahre sei.

„Die Wendung besteht darin, dass die Leute den Unterschied offenbar deshalb erkennen konnten, weil sie die Antworten von ChatGPT als überlegen bewerteten“, sagte Aharoni in einer Pressemitteilung. „Wenn wir diese Studie vor fünf bis zehn Jahren durchgeführt hätten, hätten wir vielleicht vorhergesagt, dass die Menschen die KI aufgrund ihrer schlechteren Reaktionen identifizieren könnten. Aber wir fanden das Gegenteil – dass die KI gewissermaßen zu gut abschnitt.“

Siehe auch  KI-Gesetze schränken ChatGPT ein

Die Moral der KI ist eine Obsession von Technologen, KI-Programmierern und einer endlosen Litanei von Weltuntergangs-Science-Fiction-Autoren, und das Bestehen eines moralischen Turing-Tests mit Bravour spricht zweifellos für die beeindruckende Komplexität neuer LLMs.

Natürlich bleibt die eine große Frage: Wird die KI ihren eigenen Rat befolgen?

Darren lebt in Portland, hat eine Katze und schreibt/redigiert über Science-Fiction und wie unsere Welt funktioniert. Wenn Sie genau hinschauen, können Sie seine früheren Sachen bei Gizmodo und Paste finden.

5/5 - (172 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein