Aktuelle Tools der künstlichen Intelligenz, die auf großen Sprachmodellen basieren, wie etwa chatgpt, sind besser in der Empathie als in präzisen Sachinformationen. Dies liegt daran, dass die Designer der flüssigen Sprache Vorrang vor der Präzision einräumten. In Verbindung mit der großen Menge emotionaler Informationen in der Trainingsdatenbank ist der Wettbewerb um die Einbettung großer Sprachmodelle in Suchmaschinen bedeutungslos.

Arvind Narayanan, Professor für Informatik an der Princeton University, hat zuvor eine ChatGPT-basierte Sprachschnittstelle für seine vierjährige Tochter entwickelt. Dies ist nicht nur ein Experiment, sondern auch, weil er glaubt, dass Roboter mit künstlicher Intelligenz eines Tages ein wichtiger Teil des Lebens seiner Tochter werden werden.

KI könnte eines Tages Ihr Lebenspartner sein

Narayanans Tochter war von Natur aus neugierig und stellte ihm oft Fragen über Tiere, Pflanzen und den menschlichen Körper. Er glaubt, dass das von OpenAI entwickelte ChatGPT nützliche Antworten liefern könnte. Zu seinem Erstaunen zeigte der Chatbot tadelloses Einfühlungsvermögen, als er dem System mitteilte, dass er mit einem Kind spreche.

Narayanans Tochter fragte: „Was passiert, wenn das Licht ausgeht?“

„Wenn das Licht ausgeht, ist es dunkel, was ein wenig beängstigend sein kann“, antwortete ChatGPT mit synthetischer Stimme. „Aber keine Sorge! Es gibt viele Dinge, die Sie tun können, damit Sie sich im Dunkeln sicher und wohl fühlen.“

ChatGPT machte dann einige Vorschläge für die Verwendung von Nachtlichtern und erinnerte schließlich daran: „Es ist normal, im Dunkeln ein wenig Angst zu haben.“

Siehe auch  ChatGPT liefert ungenaue Antworten auf Fragen zu Arzneimittelinformationen

Die Erklärung beruhigte offenbar Narayanans Tochter.

Microsoft und google drängen darauf, ihre Suchmaschinen mit der Technologie großer Sprachmodelle zu betreiben. Es gibt aber gute Gründe zu der Annahme, dass diese Technologie als emotionaler Begleiter besser geeignet ist als sachliche Informationen.

So seltsam es auch klingen mag. Aber ob Googles Bard oder Microsofts neues Bing: Diese Art von künstlicher Intelligenz hat bei der Suche nach Informationen eine Reihe peinlicher sachlicher Fehler gemacht. Bard gab bei seiner ersten öffentlichen Demonstration falsche Informationen über das James-Webb-Weltraumteleskop preis, und der neue Bing machte eine ganze Reihe falscher Finanzberichte.

Sachliche Fehler sind kostspielig, wenn KI-Chatbots für die Suche eingesetzt werden. Replika ist eine App für künstliche Intelligenz, die mehr als 5 Millionen Mal heruntergeladen wurde. Eugenia Kuyda, die Gründerin der App, sagte, wenn KI als Begleiter konzipiert sei, seien die Kosten für Fehler viel geringer. „Im Gegensatz zur Suche, bei der kleine Fehler das Vertrauen der Benutzer in das Produkt zerstören können, hat es keinen Einfluss auf die Benutzererfahrung“, sagte sie.

Die ehemalige Google-KI-Forscherin Margaret Mitchell ist Mitautorin eines Artikels über die Risiken großer Sprachmodelle. Große Sprachmodelle seien für Suchmaschinen einfach „nicht geeignet“, sagte sie. Diese großen Sprachmodelle machen Fehler, weil die zu ihrem Training verwendeten Daten oft falsche Informationen enthalten und die Modelle nicht über die Grundwahrheit verfügen, um zu validieren, was sie generieren. Darüber hinaus legen Designer großer Sprachmodelle möglicherweise der Fließfähigkeit der generierten Inhalte Vorrang vor der Genauigkeit.

Dies ist einer der Gründe, warum diese Tools besonders gut auf ihre Benutzer eingehen. Schließlich werden große Sprachmodelle derzeit trainiert, indem Text aus dem Internet abgerufen wird, darunter emotionale Inhalte, die auf Social-Media-Plattformen wie Twitter und Facebook gepostet werden, sowie persönliche psychologische Beratungsinhalte in Foren wie Reddit und Quora. Zeilen aus Filmen und Fernsehsendungen, Dialoge aus Romanen und Forschungsarbeiten zur emotionalen Intelligenz wurden in die Trainingsdatenbank aufgenommen, wodurch die Tools einfühlsamer werden.

Siehe auch  Celonis lässt euch ChatGPT nutzen, um Prozesse zu verstehen

Berichten zufolge haben einige Leute ChatGPT als Robotertherapeuten verwendet. Einer von ihnen sagte, sie hätten es getan, um anderen nicht zur Last zu fallen.

Die Leistung des ChatGPT-Tests zur emotionalen Intelligenz ist besser als die einer durchschnittlichen Person

Um die Empathiefähigkeit künstlicher Intelligenz zu testen, führten Menschen auf ChatGPT einen Online-Test zur emotionalen Intelligenz durch. Es schnitt gut ab und erzielte perfekte Noten für soziales Bewusstsein, Beziehungsmanagement und Selbstmanagement, während es bei der Selbstwahrnehmung nur geringfügig zurückblieb.

ChatGPT schnitt teilweise besser ab als einige Leute im Test.

Auch wenn es ein wenig unwirklich erscheint, dass eine Maschine den Menschen Empathie vermitteln kann, steckt doch ein Körnchen Wahrheit darin. Menschen haben ein angeborenes Bedürfnis nach sozialer Verbindung, und die Fähigkeit des menschlichen Gehirns, die Gefühle anderer widerzuspiegeln, bedeutet, dass wir ein Gefühl des Verständnisses entwickeln können, selbst wenn die andere Person nicht wirklich „fühlt“, was wir denken. Spiegelneuronen im menschlichen Gehirn feuern, wenn wir Mitgefühl von anderen spüren, und geben uns ein Gefühl der Verbundenheit.

Natürlich ist Empathie ein vielschichtiges Konzept, und um es wirklich zu erleben, müssen Menschen immer noch mit echten Menschen in Kontakt treten.

Thomas Ward, ein klinischer Psychologe am King’s College London, der die Rolle von Software in der Psychotherapie untersucht hat, warnt davor, anzunehmen, dass künstliche Intelligenz die Bedürfnisse von Menschen, insbesondere bei schweren psychischen Problemen, in Bezug auf die psychische Gesundheit angemessen befriedigen kann. Beispielsweise sind Chatbots möglicherweise nicht in der Lage, die emotionale Komplexität des Menschen zu verstehen. Mit anderen Worten: ChatGPT sagt selten „Ich weiß nicht“, da sein Design sichere statt vorsichtige Antworten bevorzugt.

Siehe auch  Hoppla! Elon Musks Grok AI wurde beim Plagiieren von OpenAIs ChatGPT erwischt

Auch sollten Menschen Chatbots nicht als gewohnheitsmäßiges Ventil für ihre Emotionen nutzen. „In einer Welt, in der KI-Chatbots ein Mittel zur Beendigung der Einsamkeit sind, könnten sensible menschliche Verbindungen, wie Händchenhalten oder das Wissen, wann man spricht und wann man zuhört, verschwinden“, sagte Ward.

Dies kann letztendlich zu weiteren Problemen führen. Aber vorerst sind künstliche Intelligenzen zumindest in ihren emotionalen Fähigkeiten zuverlässiger als in ihren Fakten.

4.9/5 - (231 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein