Die Diskussionen über künstliche Intelligenz und insbesondere chatgpt, reichen von „Es ist die Antwort auf alles“ bis „Die Maschinen werden uns alle töten.“ Bei meinen begrenzten Tests seiner Wirksamkeit habe ich herausgefunden, dass es sich im Vergleich zur manuellen Suche um eine effiziente Methode zum Sammeln von Informationen handelt und dass es gute Zusammenfassungen zu langen Textblöcken schreiben kann. Ich habe mit anderen Leuten gesprochen, die es verwendet haben, um Code zu schreiben oder zu debuggen, Rezepte mit bestimmten Zutaten zu finden, komplizierte mathematische Probleme zu lösen und komplexe Konzepte zu erklären, indem sie ihrer Abfrage „Erkläre, als wäre ich 5“ hinzugefügt haben.

Ich habe festgestellt, dass es sich beim besten Willen nicht um einen eloquenten Autor handelt. Die wenigen Tests, die ich durchgeführt habe, erforderten viel Bearbeitung, um den Inhalt interessant zu lesen und den Leser durch die Geschichte zu fesseln. Aber soweit ich das beurteilen kann, sind die Informationen korrekt. Ich kann Fälle vorhersehen, in denen es Inhalte findet, die veraltet oder auf den ersten Blick falsch sind, und „unwissentlich“ falsche Daten zurückgibt. Aber das gilt auch für jede Suchmaschine, die Sie verwenden.

Deshalb a Geschichte der New York Times Ein Freund, den ich kürzlich geschickt habe, hat mich aufgehalten. Zusammenfassend lässt sich sagen, dass ein Anwalt namens Steven Schwartz ChatGPT nutzte, um einen juristischen Schriftsatz für einen Fall zu verfassen, den er vor einem Bundesbezirksgericht eingereicht hatte. Sein Mandant Roberto Mata verklagte Avianca Airlines wegen Verletzungen, die er sich zugezogen hatte, als ein Servierwagen aus Metall auf einem Flug von El Salvador nach New York im Jahr 2019 sein Knie traf. Die Fluggesellschaft beantragte beim Gericht die Abweisung der Klage, weil die Verjährungsfrist abgelaufen sei, doch Schwartz entgegnete mit dem oben genannten Schriftsatz und zitierte mehrere Gerichtsurteile, die ihr Argument untermauerten, dass die Klage noch gültig sei.

Siehe auch  Mit ChatGPT-Eingabeaufforderungen können Sie jetzt kostenlose Windows 11-Schlüssel generieren

Dies ist bisher eine ziemlich normale Vorgehensweise für einen eher banalen Rechtsstreit. Doch als die Anwälte der Fluggesellschaft begannen, sich mit dem zehnseitigen Schriftsatz auseinanderzusetzen, konnten sie die genannten Fälle nicht finden, weshalb der Richter Schwartz anwies, Kopien bereitzustellen. Er kehrte zu ChatGPT zurück, forderte die Entscheidungen an und schickte seine Antwort an das Gericht.

Hier wird es sehr seltsam. Es stellte sich heraus, dass keiner der Fälle real war; Sie wurden vollständig von ChatGPT hergestellt. Die genannten Fälle, darunter Martinez gegen Delta Air Lines, Zicherman gegen Korean Air Lines und Varghese gegen China Southern Airlines, existierten einfach nicht und waren voller juristischem Unsinn. ChatGPT generierte nicht nur gefälschte Fallnamen, sondern auch die Details jedes Falles.

Mit diesem Inhalt in meiner Gesäßtasche beschloss ich, ChatGPT zu fragen: „Können Sie lügen?“

Die Antwort lautete: „Als KI-Sprachmodell habe ich keine Absichten oder Emotionen, daher bin ich nicht in der Lage zu lügen oder die Wahrheit zu sagen. Meine Antworten werden auf der Grundlage von Mustern in den Daten generiert, anhand derer ich trainiert wurde. Wann.“ Ich erkläre, dass ich nicht in der Lage bin zu lügen. Das bedeutet, dass ich weder eine persönliche Agenda noch die Fähigkeit habe, absichtlich zu täuschen. Allerdings kann ich als KI immer noch falsche oder irreführende Antworten geben, wenn die Informationen in meinem Trainingsdaten fehlerhaft sind oder wenn ich den Kontext der Frage falsch verstehe. Es ist wichtig zu verstehen, dass KI-Sprachmodelle wie ich zwar darauf abzielen, so hilfreich und genau wie möglich zu sein, wir jedoch nicht unfehlbar sind und möglicherweise nicht immer perfekte Antworten liefern. Benutzer sollten dies immer tun Überprüfen Sie kritische Informationen aus zuverlässigen Quellen und üben Sie ihr Urteilsvermögen aus, wenn Sie Informationen aus KI-Modellen verwenden.“

Siehe auch  Warum Googles neue Suche im ChatGPT-Stil die Websites zerstören könnte, die sie versorgen

Dies ist sinnvoll, da auf verfügbare Daten zurückgegriffen wird, die möglicherweise falsch sind. Es erklärt jedoch nicht, wie daraus eine Reihe von Rechtsfällen entstanden sind. Erwirbt die KI in ihren Bemühungen, zu „lernen“ und ein nützlicheres Werkzeug zu werden, die Fähigkeit zu lügen?

google-KI-Forscher haben gesagt, dass große Sprachmodelle wie ChatGPT halluzinieren können, was bedeutet, dass sie Inhalte zurückgeben können, die Fehler enthalten, die plausibel, aber falsch oder unsinnig sind. Programmierer scheinen jedoch zuversichtlich zu sein, dass sie diese Halluzinationen überwinden können, indem sie das neuronale Netzwerk besser programmieren und aktualisieren, um gute Antworten sofort zu belohnen und falsche Antworten zurückzugeben. Aber werden diese Änderungen bestehen bleiben? Oder wird die KI einfach eine neue Art lernen, menschliches Verhalten nachzuahmen und kreativere Arten zu lügen?

Denken Sie daran, dass ChatGPT erst im November 2022 öffentlich eingeführt wurde, wir also noch nicht einmal ein ganzes Jahr in der Nutzung sind. Aber eine Sache, die wir aus Mata gegen Avianca Airlines mitnehmen sollten, ist, dass wir nicht einfach darauf vertrauen können, dass ChatGPT immer korrekt ist.

Unternehmen, einschließlich Wirtschaftsprüfungsgesellschaften, möchten möglicherweise einige Regeln für die Verwendung festlegen und von ihren Mitarbeitern verlangen, alle Daten, die als Antwort auf eine Anfrage zurückgegeben werden, noch einmal zu überprüfen. Es ist nicht von Natur aus gut oder schlecht, sondern ein Werkzeug, das wir richtig nutzen müssen … das heißt, bis die Maschinen tatsächlich die Kontrolle übernehmen.

(Weitere Informationen zum Schutz Ihres Unternehmens vor der „Halluzinationsfähigkeit“ von ChatGPT finden Sie unter „Seien Sie kein Opfer von KI-Halluzinationen.„)

Siehe auch  ChatGPT wird die Art und Weise, wie wir Bücher wertschätzen, nicht ändern
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein