chatgpt and similar AI tools for help and advice as they confront problems in their workplaces. But does that use of AI make sense? Credit: JiWoong Jang and Sanika Moharana, both Ph.D. students in the Human-Computer Interaction Institute.“>

Eine neue Studie zeigt, dass viele Menschen mit Autismus ChatGPT und ähnliche KI-Tools nutzen, um Hilfe und Rat zu erhalten, wenn sie an ihrem Arbeitsplatz auf Probleme stoßen. Aber ist dieser Einsatz von KI sinnvoll? Bildnachweis: JiWoong Jang und Sanika Moharana, beide Doktoranden am Human-Computer Interaction Institute.

Eine neue Studie der Carnegie Mellon University zeigt, dass viele Menschen mit Autismus ChatGPT und ähnliche künstliche Intelligenz-Tools nutzen, um Hilfe und Rat zu erhalten, wenn sie an ihrem Arbeitsplatz auf Probleme stoßen.

Das Forschungsteam unter der Leitung von Andrew Begel von der School of Computer Science stellte jedoch auch fest, dass solche Systeme manchmal fragwürdige Ratschläge geben. Und in der Autismus-Community herrscht weiterhin Uneinigkeit darüber, ob der Einsatz von Chatbots überhaupt eine gute Idee ist.

„Wir haben festgestellt, dass es Menschen mit Autismus gibt, die ChatGPT bereits verwenden, um Fragen zu stellen, für die ChatGPT unserer Meinung nach teilweise gut und teilweise schlecht geeignet ist“, sagte Begel, außerordentlicher Professor in der Abteilung für Software und Gesellschaftssysteme und am Institut für Mensch-Computer-Interaktion. „Sie könnten zum Beispiel fragen: ‚Wie finde ich Freunde bei der Arbeit?‘“

Begel leitet das VariAbility Lab, das Arbeitsplätze schaffen will, an denen alle Menschen, auch Menschen mit Behinderungen und Neurodiversität, erfolgreich zusammenarbeiten können. Arbeitslosigkeit und Unterbeschäftigung sind für bis zu neun von zehn Erwachsenen mit Autismus ein Problem, und viele Arbeitsplätze verfügen nicht über die Ressourcen, um Mitarbeitern mit Autismus und ihren Kollegen bei der Überwindung sozialer oder kommunikativer Probleme zu helfen, wenn diese auftreten.

Um besser zu verstehen, wie sich dieser Mangel mithilfe großer Sprachmodelle (LLMs) beheben lässt, rekrutierten Begel und sein Team elf Menschen mit Autismus, um Online-Ratschläge aus zwei Quellen zu testen – einem Chatbot auf Basis von GPT-4 von OpenAI und etwas, das für die Teilnehmer wie ein zweiter Chatbot aussah, in Wirklichkeit aber ein menschlicher Berufsberater war.

Siehe auch  Eine Studie zeigt, dass ChatGPT Krankenaktennotizen zehnmal schneller als Ärzte erstellen kann, ohne dass die Qualität darunter leidet

Etwas überraschend war, dass die Nutzer den echten Chatbot dem getarnten Berater bei weitem vorzogen. Es liege nicht daran, dass der Chatbot bessere Ratschläge gebe, sagte Begel, sondern an der Art und Weise, wie er diese Ratschläge erteile.

„Für die Teilnehmer war es wichtig, schnelle und leicht verständliche Antworten zu erhalten“, sagte Begel.

Der Chatbot lieferte klare Antworten, ohne viel Feingefühl und meist in Form von Stichpunkten. Der Berater hingegen stellte oft Fragen dazu, was der Benutzer tun wollte oder warum er es tun wollte. Die meisten Benutzer wollten sich nicht auf ein solches Hin und Her einlassen, sagte Begel.

Den Teilnehmern gefiel das Konzept eines Chatbots. Einer erklärte: „Ich glaube, ehrlich gesagt, an meinem Arbeitsplatz … ist es das Einzige, dem ich vertraue, denn nicht jedes Unternehmen oder Geschäft ist inklusiv.“

Als jedoch eine Expertin, die sich auf die Unterstützung von Arbeitssuchenden mit Autismus spezialisiert hat, die Antworten auswertete, stellte sie fest, dass einige der Antworten des LLM nicht hilfreich waren. Als ein Benutzer beispielsweise um Rat fragte, wie man Freunde findet, schlug der Chatbot dem Benutzer vor, einfach auf die Leute zuzugehen und mit ihnen zu reden. Das Problem ist natürlich, dass sich eine Person mit Autismus dabei normalerweise nicht wohl fühlt, sagte Begel.

Ergebnisse aus dem Experiment wurden vom Erstautor und HCII-Doktoranden JiWoong (Joon) Jang vorgestellt bei der Konferenz der Association for Computing Machinery zum Thema „Humane Faktoren in Computersystemen“ (CHI 2024) in Honolulu. Zu den Co-Autoren gehören neben Begel und Jang auch die HCII-Doktorandin Sanika Moharana und Patrick Carrington, ein Assistenzprofessor am HCII.

Siehe auch  Lernen Sie PolkaBot AI kennen: Polkadots ChatGPT Challenger

Es ist möglich, dass ein Chatbot, der speziell auf die Probleme von Autisten trainiert ist, es vermeiden kann, schlechte Ratschläge zu erteilen, aber nicht jeder in der Autismus-Community wird das annehmen, sagt Begel. Während einige ihn als praktisches Werkzeug zur Unterstützung autistischer Mitarbeiter betrachten, sehen andere darin nur ein weiteres Beispiel dafür, dass von Menschen, deren Gehirne etwas anders funktionieren als die der meisten Menschen, erwartet wird, dass sie auf alle anderen eingehen.

„Es gibt diese große Debatte darüber, wessen Perspektiven wir bevorzugen, wenn wir Technologie entwickeln, ohne mit den Menschen zu sprechen. Bevorzugen wir damit die neurotypische Perspektive: ‚So möchte ich, dass sich Menschen mit Autismus mir gegenüber verhalten?‘ Oder bevorzugen wir die Wünsche der Person mit Autismus: ‚Ich möchte mich so verhalten, wie ich bin‘ oder ‚Ich möchte mit anderen auskommen und sicherstellen, dass andere mich mögen und mich nicht hassen?‘“

Im Kern geht es darum, ob Menschen mit Autismus ein Mitspracherecht bei der Forschung haben, die ihnen helfen soll. Es ist auch ein Thema untersucht in einem anderen CHI-Artikel Begel ist gemeinsam mit Naba Rizvi und anderen Forschern der University of California, San Diego, Co-Autor dieses Buches.

In dieser Studie analysierten die Forscher 142 zwischen 2016 und 2020 veröffentlichte Artikel über die Entwicklung von Robotern zur Unterstützung von Menschen mit Autismus. Sie fanden heraus, dass 90 % dieser Forschung zur Mensch-Roboter-Interaktion die Perspektiven von Menschen mit Autismus nicht berücksichtigten. Ein Ergebnis, so Begel, sei die Entwicklung vieler unterstützender Technologien, die Menschen mit Autismus nicht unbedingt wollten, während einige ihrer Bedürfnisse unberücksichtigt blieben.

„Uns fiel beispielsweise auf, dass die meisten interaktiven Roboter, die für Autisten entwickelt wurden, nicht menschlich waren, etwa Dinosaurier oder Hunde“, sagte Begel. „Ist Autisten ihre eigene Menschlichkeit so sehr abhandengekommen, dass sie keine humanoiden Roboter verdienen?“

Siehe auch  ChatGPT: OpenAI entfernt Scarlett Johansson-ähnliche Stimme

Technologie kann sicherlich zu einem besseren Verständnis der Interaktion zwischen Menschen mit und ohne Autismus beitragen. So arbeitet Begel beispielsweise mit Kollegen der University of Maryland an einem Projekt, bei dem KI zur Analyse von Gesprächen zwischen diesen beiden Gruppen eingesetzt wird.

Die KI kann dabei helfen, Verständnislücken bei einem oder beiden Sprechern zu erkennen, die dazu führen können, dass Witze nicht rüberkommen oder der Eindruck entsteht, dass jemand unehrlich ist. Technologie könnte Sprechern auch dabei helfen, diese Gesprächsprobleme zu verhindern oder zu beheben, sagte Begel, und die Forscher suchen nach Input von einer großen Gruppe von Menschen mit Autismus, um ihre Meinung darüber zu erfahren, welche Art von Hilfe sie gerne sehen würden.

„Wir haben ein Videoanruf-Tool entwickelt, an das wir diese KI angeschlossen haben“, sagte Begel, der auch einen Autismus-Beirat ins Leben gerufen hat, um sicherzustellen, dass Menschen mit Autismus ein Mitspracherecht bei der Auswahl der Projekte haben, die sein Labor verfolgen soll.

„Eine mögliche Intervention könnte ein Button auf diesem Tool sein, der besagt: ‚Entschuldigen Sie, ich habe Sie nicht verstanden. Können Sie Ihre Frage bitte wiederholen?‘, wenn ich das nicht laut sagen möchte. Oder vielleicht gibt es einen Button mit der Aufschrift ‚Ich verstehe nicht.‘ Oder sogar ein Tool, das die Tagesordnung des Meetings zusammenfassen könnte, damit Sie Ihren Teamkollegen bei der Orientierung helfen können, wenn Sie sagen: ‚Ich möchte zum ersten Thema zurückkehren, über das wir gesprochen haben.‘“

Mehr Informationen: JiWoong Jang et al., „Es ist das Einzige, dem ich vertrauen kann“: Vorstellung der Verwendung großer Sprachmodelle durch autistische Arbeitnehmer zur Unterstützung der Kommunikation, Proceedings der CHI-Konferenz zu menschlichen Faktoren in Computersystemen (2024). DOI: 10.1145/3613904.3642894

Zur Verfügung gestellt von der Carnegie Mellon University

Zitat: Menschen mit Autismus wenden sich an ChatGPT, um Ratschläge zu Problemen am Arbeitsplatz zu erhalten (9. Juni 2024), abgerufen am 9. Juni 2024 von https://medicalxpress.com/news/2024-06-people-autism-chatgpt-advice-workplace.html

Dieses Dokument unterliegt dem Urheberrecht. Außer für Zwecke des privaten Studiums oder der Forschung darf kein Teil davon ohne schriftliche Genehmigung reproduziert werden. Der Inhalt dient ausschließlich zu Informationszwecken.

5/5 - (372 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein