David Bau weiß nur zu gut, dass Computersysteme so kompliziert werden, dass es schwierig ist, ihre Funktionsweise zu verstehen. „Als Softwareentwickler habe ich zwanzig Jahre lang an wirklich komplexen Systemen gearbeitet. Und ich habe immer noch dieses Problem.“ vertraut dieser Informatiker heute an der Northeastern University in Boston (Massachusetts).

Bei herkömmlicher Software kann ein Insider in der Regel die Logik des Algorithmus nachvollziehen. Wenn beispielsweise eine Website in den Rankings der google-Suchergebnisse abrutscht, weiß jemand bei Google – wo David Bau ein Dutzend Jahre lang gearbeitet hat – sicherlich, warum. Ganz anders sieht es jedoch bei der neuen Generation der Künstlichen Intelligenz (KI) aus. „Und genau das macht mir wirklich Angst, er addiert. „Niemand versteht mehr, was los ist.“ nicht einmal die Designer des Systems.

Die neueste Welle der künstlichen Intelligenz basiert stark auf maschinellem Lernen, das es der Software ermöglicht, selbst Muster in Daten zu erkennen, ohne vorher festgelegte Regeln zum Organisieren oder Klassifizieren der Informationen bereitstellen zu müssen. Für den Menschen sind diese Muster möglicherweise unverständlich.

Die fortschrittlichsten Methoden des maschinellen Lernens nutzen neuronale Netze: Systeme, die von der Struktur des Gehirns inspiriert sind. Sie simulieren Schichten von Neuronen, die Informationen verarbeiten, während sie von einer Schicht zur anderen übertragen werden. Wie im menschlichen Gehirn stärken und schwächen diese Netzwerke beim Lernen neuronale Verbindungen. Es ist jedoch unklar, warum einige Verbindungen aktiviert werden und nicht andere. Deshalb sprechen Forscher oft darüber „Black Boxes“ um KI-Systeme zu bezeichnen, deren interne Funktionsweise ein Rätsel bleibt.

Siehe auch  wie OpenAI KI demokratisieren will

Angesichts dieser Schwierigkeit haben sich Forscher der erklärbaren künstlichen Intelligenz (XAI) zugewandt, die ihren Bestand an Strategien und Werkzeugen für das Reverse Engineering von KI-Systemen erweitert. Klassische Methoden bestehen beispielsweise darin, die Elemente eines Bildes hervorzuheben, die einen Algorithmus zur Identifizierung einer Katze veranlasst haben, oder darin, eine Software zu bitten, einen einfachen Entscheidungsbaum zu erstellen, der das Verhalten einer KI annähert. Dies hilft zu zeigen, warum die KI beispielsweise die Bewährung eines Gefangenen empfohlen oder eine bestimmte medizinische Diagnose gestellt hat.

Diese Bemühungen, in die Blackbox vorzudringen, hatten einige Erfolge, aber die XAI entwickelt sich noch weiter. Besonders heikel ist das Problem bei Large Language Models (LLMs), den maschinellen Lernprogrammen, auf denen Chatbots wie chatgpt basieren.

Riesige Datenmengen

Diese sogenannten generativen KIs erweisen sich als besonders undurchsichtig, unter anderem aufgrund der gigantischen Datenmengen, die bei ihrem Training berücksichtigt werden. LLMs können über Hunderte Milliarden Parameter verfügen, also die Variablen, die die KI intern verarbeitet, um Entscheidungen zu treffen. Erklärbare künstliche Intelligenz „hat in den letzten Jahren eine rasante Entwicklung erlebt, insbesondere seit dem Aufkommen von LLMs“, erinnert sich Mor Geva, Informatiker an der Universität Tel Aviv (Israel).

Diese unverständlichen Modelle erfüllen heute sensible Aufgaben. Menschen nutzen LLMs, um medizinischen Rat einzuholen, Computercodes zu schreiben, aktuelle Ereignisse zusammenzufassen, wissenschaftliche Artikel zu schreiben und vieles mehr. Allerdings weiß jeder, dass diese Modelle ungenaue Informationen generieren, soziale Stereotypen aufrechterhalten und private Daten preisgeben können.

Es gibt so viele Gründe, die zur Entwicklung von XAI-Tools zur Untersuchung der internen Funktionsweise von LLMs führten. Forscher brauchen Erklärungen, damit sie eine sicherere, effizientere und genauere KI entwickeln können. Benutzer benötigen Erklärungen dazu, wie sehr sie den Ergebnissen eines Chatbots vertrauen können. Und die Regulierungsbehörden benötigen Erklärungen, um zu wissen, welche Sicherheitsmaßnahmen sie ergreifen müssen, um die Risiken der KI zu mindern.

Siehe auch  ChatGPT übertrifft Bing bei der Bereitstellung von Informationen zur Behandlung von Bluthochdruck zu Hause

Martin Wattenberg, Informatiker an der Harvard University in Cambridge, Massachusetts, glaubt, dass das Verständnis des Verhaltens von LLMs uns sogar helfen könnte, besser zu verstehen, was in unseren eigenen Köpfen vorgeht.

Lustiges Verhalten

Einige Forscher bezeichnen LLMs als „stochastische Papageien“, Denn um Texte zu generieren, assoziieren sie einfach Modelle, denen sie bereits begegnet sind, indem sie sich auf Wahrscheinlichkeiten berufen, ohne den Inhalt dessen zu verstehen, was sie schreiben. Andere glauben jedoch, dass sie viel komplexere Mechanismen implementieren, angefangen beim logischen Denken und anderen Fähigkeiten, die denen des Menschen überraschend ähnlich sind. Tatsache ist, dass LLMs unvorhersehbares Verhalten zeigen können. Im vergangenen Jahr zeichnete sich der in Microsofts Suchtool Bing integrierte Chatbot dadurch aus, dass er seine Liebe zum Tech-Kolumnisten Kevin Roose erklärte und versuchte, seine Beziehung zu zerstören.

Ein Team des generativen KI-Start-ups Anthropic mit Sitz in San Francisco (Kalifornien) [qui a mis au point le chatbot Claude]hob die Denkfähigkeiten der KI hervor in einer Studie aus dem Jahr 2023 Wir streben danach, den Prozess zu entschlüsseln, der den Worten eines Chatbots zugrunde liegt. Anthropic-Forscher verfolgten einen traditionellen Ansatz, um ein LLM mit 52 Milliarden Parametern zu untersuchen, um herauszufinden, welche Trainingsdatensätze zur Beantwortung von Fragen verwendet wurden. Wenn sie es getan haben

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein