KI-Chatbots wie chatgpt generieren Antworten, indem sie großen Textmengen analysieren. Das bedeutet aber nicht, dass sie immer richtig liegen.
ChatGPT und andere KI-Chatbots können fließend sprechen und grammatikalisch korrekte Sätze bilden, die sogar einen natürlichen Sprachrhythmus haben. Ihr solltet euch aber nicht dazu verleiten lassen, diese smarte Ausgabe von Wörtern mit Gedanken, Emotionen oder Absichten zu verwechseln, sagen Experten.
Ein Chatbot ist im Grunde nicht mehr als eine Maschine, die mathematische Berechnungen und statistische Analysen durchführt, um die richtigen Worte und Sätze zu finden. Das Training von Chatbots wie ChatGPT erfolgt über große Textmengen, was es ihnen ermöglicht, auf natürliche Weise mit menschlichen Nutzern zu interagieren.
OpenAI, das Unternehmen hinter ChatGPT, gibt auf seiner Website an, dass seine Modelle auf Informationen aus verschiedenen Quellen beruhen, einschließlich Daten, die vom Nutzer kommen, oder von lizenzierten Inhalten.
So funktionieren KI-Chatbots
KI-Chatbots wie ChatGPT von OpenAI basieren auf großen Sprachmodellen, sogenannten LLMs, die auf riesigen Textdaten trainiert wurden. Diese Daten stammen aus öffentlichen Texten und sonstigen Informationen und wurden in der Regel von Menschen produziert.
Die Systeme werden auf Wortreihen trainiert und lernen die Bedeutung von Wörtern in diesen Reihen, sagen Experten. Das Wissen trainiert nicht nur große Sprachmodelle auf sachliche Informationen, sondern hilft ihnen auch dabei, Sprachmuster und die typische Verwendung und Gruppierung von Wörtern zu erkennen.
Chatbots werden zudem von Menschen darauf trainiert, angemessene Antworten zu geben und die Anzahl von schädlichen Nachrichten zu begrenzen.
Diese Daten-Trainer arbeiten für Firmen, die beispielsweise von OpenAI beauftragt werden, ihre Modelle zu verfeinern. Ein Beispiel dafür ist das Unternehmen Invisible Technologies. Die Mitarbeiter untersuchen faktische Ungenauigkeiten, Rechtschreib- und Grammatikfehler sowie Belästigungen durch den Bot bei bestimmten Eingaben.
„Man kann sagen: ,Das ist giftig, das ist zu politisch, das ist eine Meinung‘, und es so formulieren, dass der Bot diese Dinge nicht mehr so generiert“, sagt Kristian Hammond, Professor für Informatik an der Northwestern University, sowie Direktor des Center of Advancing Safety of Machine Intelligence.
Wenn ihr einen Chatbot bittet, eine einfache Frage zu beantworten, kann das so ablaufen: Er setzt eine Reihe von Algorithmen ein, um den wahrscheinlichsten Satz zur gestellten Frage auszuwählen. Der Bot wählt die bestmöglichen Antworten innerhalb von Millisekunden aus und präsentiert davon eine zufällig. Das ist der Grund, warum die KI leicht unterschiedliche Antworten generieren kann, wenn ihr dieselbe Frage wiederholt stellt.
Chatbots können Fragen auch in mehrere Teile splitten und jeden Teil für sich beantworten. Angenommen, ihr bittet den Chatbot, einen US-Präsidenten zu nennen, der den gleichen Vornamen hat wie der männliche Hauptdarsteller des Films „Camelot“. Dann würde der Bot zuerst antworten, dass der Schauspieler Richard Harris heißt. Anschließend verwendet der Chatbot diese Antwort, um Richard Nixon als Antwort auf die ursprüngliche Frage zu geben, so Hammond.
Chatbots sind nicht perfekt – sie können Fehler machen
KI-Chatbots geraten in die größten Schwierigkeiten, wenn sie Fragen gestellt bekommen, auf die sie keine Antwort haben. Sie wissen nicht, was sie nicht wissen, und geben ein geratenes Ergebnis aus, basierend auf dem, was sie wissen.
Das Problem ist, dass die Chatbots euch nicht verraten, wenn eine Antwort nur geraten ist. Wenn ein Chatbot Informationen erfindet und sie dem Benutzer als Tatsache präsentiert, wird dies als „Halluzination“ bezeichnet.
Diese Halluzinationen sind einer der Gründe, warum einige Technik-Experten vor der Nutzung warnen. Eine kürzlich veröffentlichten Studie der Boston Consulting Group ergab, dass Personen, die ChatGPT bei der Arbeit verwenden, bei bestimmten Aufgaben tatsächlich schlechter abschneiden können, wenn sie die Ausgaben des Chatbots für bare Münze nehmen und sie nicht auf Fehler überprüfen.
„Das nennen wir Wissen über Wissen – oder Metakognition“, sagt William Wang, Associate Professor für Informatik an der University of California, Santa Barbara, sowie Co-Director der Natural Language Processing Group der Universität. „Das Modell versteht die bekannten Unbekannten nicht sehr gut“, sagt er.
Dieser Text wurde aus dem Englischen übersetzt. Das Original findet ihr hier.