Eine neue Studie der Carnegie Mellon University zeigt, dass viele Menschen mit Autismus chatgpt und ähnliche künstliche Intelligenz-Tools nutzen, um Hilfe und Rat zu erhalten, wenn sie an ihrem Arbeitsplatz auf Probleme stoßen.
Aber das Forschungsteam unter der Leitung der School of Computer Science Andrew Begelstellte auch fest, dass solche Systeme manchmal fragwürdige Ratschläge geben. Und innerhalb der Autismus-Community ist nach wie vor umstritten, ob der Einsatz von Chatbots überhaupt eine gute Idee ist.
„Wir haben festgestellt, dass es Menschen mit Autismus gibt, die ChatGPT bereits verwenden, um Fragen zu stellen, für die ChatGPT unserer Meinung nach teilweise gut und teilweise schlecht geeignet ist“, sagte Begel, außerordentlicher Professor an der Abteilung für Software und gesellschaftliche Systeme und das Institut für Mensch-Computer-Interaktion. „Sie könnten zum Beispiel fragen: ‚Wie finde ich Freunde bei der Arbeit?‘“
Begel leitet die VariAbility-Labordas sich zum Ziel gesetzt hat, Arbeitsplätze zu schaffen, an denen alle Menschen, auch Menschen mit Behinderungen und Neurodiversität, erfolgreich zusammenarbeiten können. Arbeitslosigkeit und Unterbeschäftigung sind für bis zu neun von zehn Erwachsenen mit Autismus ein Problem, und viele Arbeitsplätze verfügen nicht über die Ressourcen, um Mitarbeitern mit Autismus und ihren Kollegen bei der Überwindung sozialer oder kommunikativer Probleme zu helfen, wenn diese auftreten.
Um besser zu verstehen, wie sich dieses Manko mithilfe großer Sprachmodelle (LLMs) beheben lässt, rekrutierten Begel und sein Team elf Menschen mit Autismus, um Online-Ratschläge aus zwei Quellen zu testen – einen Chatbot auf Basis von GPT-4 von OpenAI und etwas, das für die Teilnehmer wie ein zweiter Chatbot aussah, in Wirklichkeit aber ein menschlicher Berufsberater war.
Etwas überraschend war, dass die Nutzer den echten Chatbot dem getarnten Berater bei weitem vorzogen. Es liege nicht daran, dass der Chatbot bessere Ratschläge gebe, sagte Begel, sondern an der Art und Weise, wie er diese Ratschläge erteile.
„Für die Teilnehmer war es wichtig, schnelle und leicht verständliche Antworten zu erhalten“, sagte Begel.
Der Chatbot lieferte klare Antworten, ohne viel Feingefühl und meist in Form von Stichpunkten. Der Berater hingegen stellte oft Fragen dazu, was der Benutzer tun wollte oder warum er es tun wollte. Die meisten Benutzer wollten sich nicht auf ein solches Hin und Her einlassen, sagte Begel.
Den Teilnehmern gefiel das Konzept eines Chatbots. Einer erklärte: „Ich glaube, ehrlich gesagt, an meinem Arbeitsplatz … ist es das Einzige, dem ich vertraue, denn nicht jedes Unternehmen oder Geschäft ist inklusiv.“
Als jedoch eine Expertin, die sich auf die Unterstützung von Arbeitssuchenden mit Autismus spezialisiert hat, die Antworten auswertete, stellte sie fest, dass einige der Antworten des LLM nicht hilfreich waren. Als ein Benutzer beispielsweise um Rat fragte, wie man Freunde findet, schlug der Chatbot dem Benutzer vor, einfach auf die Leute zuzugehen und mit ihnen zu reden. Das Problem ist natürlich, dass sich eine Person mit Autismus dabei normalerweise nicht wohl fühlt, sagte Begel.
Ergebnisse aus dem Experiment wurden vom Erstautor und HCII-Doktoranden vorgestellt Ji Woong (Joon) Jang Bei der Konferenz der Association for Computing Machinery zum Thema „Humane Faktoren in Computersystemen“ (CHI 2024) letzten Monat in Honolulu. Zu den Co-Autoren gehören neben Begel und Jang auch der HCII-Doktorand Sanika Moharana Und Patrick Carringtonein Assistenzprofessor im HCII.
Es ist möglich, dass ein Chatbot, der speziell auf die Probleme von Autisten trainiert ist, es vermeiden kann, schlechte Ratschläge zu erteilen, aber nicht jeder in der Autismus-Community wird das annehmen, sagt Begel. Während einige ihn als praktisches Werkzeug zur Unterstützung autistischer Mitarbeiter betrachten, sehen andere darin nur ein weiteres Beispiel dafür, dass von Menschen, deren Gehirne etwas anders funktionieren als die der meisten Menschen, erwartet wird, dass sie auf alle anderen eingehen.
„Es gibt diese große Debatte darüber, wessen Perspektiven wir bevorzugen, wenn wir Technologie entwickeln, ohne mit den Menschen zu sprechen. Bevorzugen wir damit die neurotypische Perspektive: ‚So möchte ich, dass sich Menschen mit Autismus mir gegenüber verhalten?‘ Oder bevorzugen wir die Wünsche der Person mit Autismus: ‚Ich möchte mich so verhalten, wie ich bin‘ oder ‚Ich möchte mich vertragen und sicherstellen, dass andere mich mögen und mich nicht hassen?‘“
Im Kern geht es darum, ob Menschen mit Autismus ein Mitspracherecht bei der Forschung haben, die ihnen helfen soll. Es ist auch ein Thema untersucht in einem anderen CHI-Artikel, Begel ist Co-Autor der Studie zusammen mit Naba Rizvi und anderen Forschern der University of California, San Diego. In dieser Studie analysierten die Forscher 142 zwischen 2016 und 2020 veröffentlichte Artikel über die Entwicklung von Robotern zur Unterstützung von Menschen mit Autismus. Sie fanden heraus, dass 90 % dieser Forschung zur Mensch-Roboter-Interaktion die Perspektiven von Menschen mit Autismus nicht berücksichtigten. Ein Ergebnis, so Begel, sei die Entwicklung vieler unterstützender Technologien, die Menschen mit Autismus nicht unbedingt wollten, während einige ihrer Bedürfnisse unberücksichtigt blieben.
„Uns fiel beispielsweise auf, dass die meisten interaktiven Roboter, die für Autisten entwickelt wurden, nicht menschlich waren, etwa Dinosaurier oder Hunde“, sagte Begel. „Ist Autisten ihre eigene Menschlichkeit so sehr abhandengekommen, dass sie keine humanoiden Roboter verdienen?“
Technologie kann sicherlich zu einem besseren Verständnis der Interaktion zwischen Menschen mit und ohne Autismus beitragen. So arbeitet Begel beispielsweise mit Kollegen der University of Maryland an einem Projekt, bei dem KI zur Analyse von Gesprächen zwischen diesen beiden Gruppen eingesetzt wird. Die KI kann dabei helfen, Verständnislücken bei einem oder beiden Sprechern zu identifizieren, die dazu führen können, dass Witze nicht ankommen oder der Eindruck entsteht, dass jemand unehrlich ist. Technologie könnte Sprechern auch dabei helfen, diese Gesprächsprobleme zu vermeiden oder zu beheben, sagte Begel, und die Forscher suchen nach Input von einer großen Gruppe von Menschen mit Autismus, um ihre Meinung zu der Art von Hilfe zu erfahren, die sie gerne sehen würden.
„Wir haben ein Videoanruf-Tool entwickelt, an das wir diese KI angeschlossen haben“, sagte Begel, der auch einen Autismus-Beirat ins Leben gerufen hat, um sicherzustellen, dass Menschen mit Autismus bei der Frage mitreden können, welche Projekte sein Labor verfolgen soll. „Eine mögliche Intervention könnte ein Button auf diesem Tool sein, der sagt: ‚Entschuldigung, ich habe Sie nicht gehört. Können Sie Ihre Frage bitte wiederholen?‘, wenn ich das nicht laut sagen möchte. Oder vielleicht gibt es einen Button mit der Aufschrift ‚Ich verstehe nicht.‘ Oder sogar ein Tool, das die Tagesordnung des Meetings zusammenfassen könnte, damit Sie Ihren Teamkollegen helfen können, sich zu orientieren, wenn Sie sagen: ‚Ich möchte zum ersten Thema zurückkehren, über das wir gesprochen haben.‘“
/Öffentliche Veröffentlichung. Dieses Material der ursprünglichen Organisation/Autoren kann zeitpunktbezogener Natur sein und wurde hinsichtlich Klarheit, Stil und Länge bearbeitet. Mirage.News vertritt keine institutionellen Positionen oder Partei, und alle hierin geäußerten Ansichten, Positionen und Schlussfolgerungen sind ausschließlich die der Autoren. Vollständigen Inhalt hier anzeigen.