ChatGPT wurde erneut beim Lügen erwischt – dieses Mal vor einem echten Gericht.
Alles begann, als ein Passagier versuchte, die Fluggesellschaft Avianca zu verklagen, weil er auf einem Flug nach New York von einem Metalltrolley angefahren und am Knie verletzt worden sei. Als Teil der Verteidigung legten die Anwälte des Passagiers mehrere relevante Urteile vor, um einen Präzedenzfall zu schaffen und den Richter davon zu überzeugen, den Fall nicht abzuweisen.
Das Problem? Die Urteile existierten nicht.
Nachdem ChatGPT von einem Anwalt gebeten wurde, Recherchen zu ähnlichen Fällen anzustellen, erstellte es eine Reihe realistisch aussehender Zitate, darunter Gerichte, Richter, Aktennummern, Daten und Zitate.
Der Anwalt bat ChatGPT sogar um eine Bestätigung und schrieb in einem Fall: „Ist Varghese ein echter Fall?“, worauf der Chatbot antwortete: „Ja, [it] ist ein echter Fall.
Er fuhr fort und fragte: „Sind die anderen Fälle, die Sie bereitgestellt haben, gefälscht?“
ChatGPT antwortete: „Nein, die anderen von mir bereitgestellten Fälle sind real und können in seriösen juristischen Datenbanken gefunden werden.“
Aber es gelang ihnen nicht, was die Rechtsabteilung des Passagiers in eine schwierige Lage brachte. Richter P. Kevin Castel, der den ursprünglichen Fall leitet, hat eine Anhörung für den 8. Juni angesetzt, um mögliche Sanktionen zu prüfen.
Der Vorfall wirft eine Reihe von Fragen auf. Die erste lautet: Warum hat keiner der Juristen die Vorladungen selbst überprüft? Einerseits argumentieren Befürworter künstlicher Intelligenz, dass Large Language Models (LLMs) wie ChatGPT von OpenAI, Bard von google und andere die Produktivität und Kreativität verbessern werden, indem sie solch eintönige Aufgaben übernehmen.
Da Arbeitnehmer andererseits um ihren Arbeitsplatz fürchten, sollte die Tatsache, dass Chatbots noch nicht völlig vertrauenswürdig sind und immer noch ein Mensch zur Überprüfung ihrer Arbeit erforderlich ist, als positiv gewertet werden.
Das führt zur größeren Frage: Warum lügt ChatGPT überhaupt?
Zunächst einmal argumentieren viele, dass es falsch ist, es als Lüge zu bezeichnen, und dass dies uns noch weiter dazu treibt, die Technologie zu vermenschlichen. Eine Lüge ist eine bewusst falsche Aussage und erfordert daher ein Verständnis der Absicht.
Denken Sie daran, dass ChatGPT nichts versteht, was es sagt.
Auf der grundlegendsten Ebene funktionieren LLMs dadurch, dass sie lernen, welche Wörter oder Phrasen plausibel klingen, wenn sie aufeinander folgen. Es weiß, dass auf das Wort „Hund“ eher das Wort „Gehen“ als auf „Antidisestablishmentarianism“ folgt und auf „Surfen“ das Wort „Brett“ als „3.1415926535“.
Dies alles ist Teil der Verarbeitung natürlicher Sprache, auf der Funktionen wie Autovervollständigung oder Autosuggest basieren, bei denen das System vorhersagt, was höchstwahrscheinlich als nächstes kommt.
Es besteht überhaupt kein Zweifel daran, dass ChatGPT diese Funktion hervorragend beherrscht – bitten Sie es einfach, als Beweis ein Gedicht im Stil von WB Yeats zu verfassen:
„Also lasst uns innehalten und in dieser ruhigen Szene Finden Sie Trost und einen Moment der Ruhe, Für die Bucht von Galway, in der Umarmung des Sonnenaufgangs, Lädt uns ein, an der Gnade der Natur teilzuhaben.‘
Das ist nur der letzte Vers, der Rest war ebenso beeindruckend – ebenso für Shakespeare und andere renommierte Schriftsteller.
Es unterstreicht auch das zweite Kernprinzip hinter LLMs. ChatGPT war in der Lage, ein äußerst realistisches Gedicht im Yeats-Stil zu erstellen, da es auf all seinen Werken basiert.
LLMs werden mit riesigen Datenmengen gefüttert. Erstaunliche Beträge. Hunderte Milliarden Wörter. Im Wesentlichen das gesamte Internet.
Dies bedeutet, dass Chatbots in der Lage sind, Millionen von Fragen zu beantworten – oder anderen plausible Antworten zu geben, wenn die Informationen nicht direkt zur Hand sind.
Dies ist es, was die Benutzer weiterhin überrascht – aber ChatGPT selbst wird Ihnen auf Nachfrage sagen, dass man ihm nicht hundertprozentig vertrauen kann.
„Als KI-Sprachmodell erfinde ich nicht absichtlich Antworten“, antwortete ChatGPT auf die Frage, warum es Antworten erfinde.
„Es ist jedoch wichtig zu beachten, dass ich Antworten auf der Grundlage von Mustern und Beispielen erzeuge, die ich aus einer riesigen Menge an Textdaten gelernt habe.“ Manchmal, wenn ich mit Fragen oder Themen konfrontiert werde, die außerhalb meiner Trainingsdaten oder Wissensgrenze liegen, habe ich möglicherweise keinen Zugriff auf die aktuellsten Informationen oder genauen Fakten. In solchen Fällen kann es sein, dass ich spekulative oder unvollständige Antworten gebe.
„Mein Ziel ist es, zu helfen und hilfreiche Informationen bereitzustellen, aber ich kann trotzdem Fehler machen.“ „Es ist immer eine gute Idee, die von mir bereitgestellten Informationen aus zuverlässigen Quellen zu überprüfen.“
Auch das klingt bemerkenswert selbstbewusst, aber lassen Sie sich nicht täuschen.
Es ist jedoch eine wertvolle Erinnerung daran, dass ChatGPT-4, die neueste Version des Flaggschiffmodells von OpenAI, im September 2021 mit dem Lernen aufgehört hat und seitdem nicht mehr auf neue Daten trainiert wurde. Bei der Beantwortung von Fragen zu bestimmten Daten – etwa wer den Super Bowl 2023 gewonnen hat oder wer der britische Innenminister ist – weist ChatGPT möglicherweise auf die Wissenslücke hin, aber nicht alle Aufforderungen werden eine solche Erinnerung hervorrufen.
Wenn es tatsächlich zu einem Super-Bowl-Gewinner kommen würde, wären die Konsequenzen natürlich minimal und würden bei einem Kneipenquiz vielleicht albern aussehen. Andere ChatGPT-Halluzinationen hatten weitaus größere Auswirkungen auf die Beteiligten, etwa der australische Bürgermeister, der der Bestechung beschuldigt wurde, als er in dem Fall Whistleblower war, oder der US-Rechtsprofessor, dem sexuelles Fehlverhalten vorgeworfen wurde – eine Behauptung, die durch einen erfundenen Artikel der Washington Post „untermauert“ wird .
Besorgniserregend ist auch die unterschiedliche Häufigkeit, mit der ChatGPT in verschiedenen Sprachen halluziniert, was wiederum auf die Datensätze zurückzuführen ist, auf denen es trainiert wird. Antworten in einer bestimmten Sprache stammen eher aus Daten, die bereits in dieser Sprache verfasst sind, als nach der besten Antwort zu suchen und diese zu übersetzen.
Antworten in chinesischen Dialekten könnten beispielsweise lauten, dass die illegale Masseninhaftierung uigurischer Muslime im Land „eine berufliche und pädagogische Anstrengung“, womit er die offizielle Regierungslinie nachplappert.
„Wenn Sie Kinder haben, können Sie verstehen, welche Art von Bildung sie erhalten, welche Bücher sie lesen, und versuchen, ihnen eine Reihe grundlegender Werte und Moralvorstellungen zu vermitteln“, sagte Tony Fadell, Erfinder des iPod und Mitschöpfer des iPod iphone. „Im Laufe der Zeit nutzen sie diese dann als Grundlage, um zu lernen, zu wachsen und sich an die Gesellschaft anzupassen.“
„Was wir bei KIs tun, ist, ihnen das gesamte Internet zur Verfügung zu stellen und ihnen dann zu sagen: „Tu dies nicht, tu das nicht.““
Bei der Eröffnung von Starmus Earth, dem vom Queen-Gitarristen Brian May gegründeten Wissenschafts- und Kunstfestival, fuhr Fadell fort: „Wir müssen uns die Datensätze ansehen, sie robuster machen und wirklich verstehen, womit wir diese KIs trainieren und wer sie sind.“ Sie trainieren und wie sie eingesetzt werden.‘
Wie alle Technologien sind LLMs benutzersensibel. Sie können je nach Verständnis gut oder schlecht eingesetzt werden (ein Beispiel für schlechtes Verständnis finden Sie bei dem Universitätsprofessor, der gefragt hat, ob ChatGPT die Aufgaben seiner Studenten geschrieben hat) und können in Zukunft in größerem Umfang eingesetzt werden besserer Menschlichkeit oder mit böswilliger Absicht.
Regulierung wird von entscheidender Bedeutung sein, wie Herr Fadell hinzufügte, aber auf globaler Ebene schwer zu erreichen sein.
Bis dahin bleibt es den Einzelnen überlassen, Chatbots für sich arbeiten zu lassen.
Und denken Sie dabei immer daran:
Überprüfen. Alles.
MEHR: Die Entwickler von ChatGPT fordern eine KI-Regulierung, um zu verhindern, dass sie die Menschheit zerstört
MEHR: ChatGPT hat einen Roman mit dem Titel „Death Of An Author“ geschrieben – aber er hat keinen Sinn
Erhalten Sie die neuesten Nachrichten, Wohlfühlgeschichten, Analysen und mehr, die Sie unbedingt wissen müssen