Das Management hat uns gesagt, dass wir KI am Arbeitsplatz nutzen sollten, um „die Effizienz zu verbessern“. Anfangs war ich zurückhaltend, aber ein Freund sagte mir, ich wäre überrascht, wie nützlich Chatbots bei bestimmten Aufgaben sein könnten, also beschloss ich, es auszuprobieren.

Zunächst war ich beeindruckt. Dann stellte ich eine Frage, die sich auf etwas ganz Besonderes für meinen Job und mein Fachgebiet bezog. Die Antwort enthielt mehrere patentrechtliche Ungenauigkeiten. Ich habe im Chat darauf hingewiesen, und dann kam es zu einer bizarren Unterhaltung. Die KI leugnete, dass sie sich geirrt hatte, und als ich ihren Fehler höflich erklärte, versuchte sie, mich unter Druck zu setzen. Wurde ich gerade von einem KI-Sprachmodell belogen?

KI-Chatbots mögen hochentwickelt und geschickt sein, aber sie sind alles andere als eine Quelle zuverlässiger Informationen.Kredit: AP

Ich denke, was Sie erlebt haben, ist ziemlich häufig. Nicht nur der positive erste Eindruck, gefolgt von der Erkenntnis, dass die überragende Geläufigkeit und Reaktionsfähigkeit manchmal über große Schwächen hinwegtäuscht, sondern auch die Konfrontation mit scheinbarer Täuschung.

Ich habe Dr. Lingqiao Liu, außerordentlicher Professor an der School of Computer Science der University of Adelaide und akademisches Mitglied des Australian Institute for Machine Learning, gefragt, wie diese Fehler auftreten.

„Große Sprachmodelle [LLMs] sind leistungsstarke Werkzeuge, die bemerkenswerte Fähigkeiten bei der Erstellung menschenähnlicher Texte bewiesen haben. Allerdings unterliegen sie, wie alle KI-Technologien, Einschränkungen. Eine Herausforderung bei LLMs besteht darin, die sachliche Genauigkeit sicherzustellen“, sagt er.

Wird geladen

„Von Natur aus handelt es sich bei diesen Modellen nicht um Wahrheitsspeicher, sondern vielmehr um Mustererkennungssysteme, die Antworten auf der Grundlage von Wahrscheinlichkeiten generieren, die aus riesigen Datensätzen abgeleitet werden. Sie können zwar den Stil und die Struktur eines sachlichen Diskurses nachahmen, der generierte Inhalt ist jedoch von Natur aus probabilistisch und nicht garantiert wahr. In der Forschungsgemeinschaft werden sachlich falsche oder unsinnige Antworten eines LLM oft als „Halluzinationen“ bezeichnet.“

Siehe auch  Ich habe ChatGPT gefragt, ob PEPE die Spitze der Memecoins anführen kann, die Antwort war faszinierend

Liu sagt, dass Entwickler und Forscher an Methoden arbeiten, um die Richtigkeit der von LLMs bereitgestellten Informationen zu verbessern. „Dazu gehört die Verfeinerung von Trainingsdatensätzen, die Implementierung von Mechanismen zur Faktenprüfung und die Entwicklung von Protokollen, die es Modellen ermöglichen, aktuelle und zuverlässige Informationen zu beziehen und zu zitieren.“

Aus eigener Erfahrung habe ich herausgefunden, dass einige der auf diesen LLMs basierenden Assistenten sehr nützlich bei der Beantwortung von Fragen sind, die mehrere oder sogar Dutzende herkömmliche Browsersuchen erfordern könnten. Aber genau wie Sie sind mir Ungenauigkeiten aufgefallen, denen oft seltsame Ausflüchte folgten.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein