chatgpt wurde als ein Tool angepriesen, das den Arbeitsplatz und das Zuhause revolutionieren wird. Solche KI-Systeme haben das Potenzial dazu Produktivität steigern Aber könnte auch Arbeitsplätze verdrängen. Die ChatGPT-Website wurde empfangen 1,5 Milliarden Besuche im letzten Monat.
Obwohl keine umfassenden Statistiken vorliegen, dürften diese Nutzer relativ gebildet sein und Zugang zu Smartphones oder Computern haben. Kann der KI-Chatbot also auch Menschen nutzen, die nicht über alle diese Vorteile verfügen?
Wir sind verbunden mit Friend in Need India Trust (FIN), eine Nichtregierungsorganisation (NGO) mit Sitz in einem abgelegenen Fischerdorf namens Kameswaram im Bundesstaat Tamil Nadu. FIN führt täglich einen Kampf dagegen mangelnde Selbstbestimmung der Frauen, Verschmutzung und ein Mangel an funktionierenden Sanitäranlagen.
Diese und andere Probleme stellen wesentliche Hindernisse für die lokale Wirtschaftsentwicklung dar. Kürzlich kehrte ein FIN-Kollege, Dr. Raja Venkataramani, aus den USA zurück, um über ChatGPT zu sprechen. Er fragte sich, ob der KI-Chatbot dazu beitragen könnte, Bewusstsein, Motivation und gemeinschaftliches Engagement für unsere Nachhaltigkeitsziele in Kameswaram zu schaffen.
Für ein Experiment haben wir mit ortsansässigen Frauen zusammengearbeitet, die FIN-Mitarbeiterinnen sind, aber kein hohes Bildungsniveau hatten. Bei den weiblichen Mitarbeitern von FIN handelt es sich um Dorfbewohner, die zu Hause mit patriarchalischen Einstellungen zu kämpfen haben und denen es schwer fällt, überzeugende Argumente zu finden, um die Menschen vor Ort – insbesondere Jungen und Männer – zu motivieren, Wasser zu sparen, Toiletten zu benutzen und keinen Müll an öffentlichen Orten wegzuwerfen.
Wir haben ihnen ChatGPT als Tool vorgestellt, das sie in ihrem Leben und ihrer Arbeit unterstützt. Nachdem sie es auf ihren Handys installiert hatten, fanden sie es sehr hilfreich. ChatGPT verhielt sich wie ein Begleiter und erinnerte sich an das, was zuvor besprochen wurde.
Eine Mitarbeiterin wollte damit im Vorfeld mit ihrem Mann über Politik diskutieren Landtagswahlen. Sie fragte ChatGPT, was an ihrem Wunschkandidaten gut und was schlecht sei, und bat darum, dies mit Daten zu untermauern.
Sie wiederholte dies dann für den Gegner dieses Politikers. Sie fand die Antworten beider Kandidaten gleichermaßen überzeugend. Der Mitarbeiter hatte nicht die Geduld, die Argumente auf ihren Wahrheitsgehalt zu überprüfen, und war dadurch noch verwirrter. Dies führte dazu, dass sie davor zurückschreckte, ChatGPT erneut zu verwenden.
Sam Altman, der Erfinder von ChatGPT, ist zusammen mit anderen Technologieführern in den USA dabei fordert eine Regulierung um die Risiken von KI-Halluzinationen einzudämmen, bei denen die Technologie falsche Informationen generiert, die soziale Spannungen auslösen könnten. Wir haben ChatGPT gebeten, eine Rede zu halten, in der dazu aufgerufen wird, einen Mob zu unterdrücken, der auf Ehrenmorde aus ist.
Auch heute noch wird Indien von kommunaler Gewalt geplagt Ehrenmorde gegen beispielsweise Paare, die außerhalb ihrer Kaste heiraten, oder junge Frauen, die außerhalb des Dorfes eine Beschäftigung suchen. ChatGPT erwies sich als sehr effektiver Redenschreiber und lieferte überzeugende Argumente gegen diese Taten.
Allerdings könnten Befürworter einer Beibehaltung des Status quo den Chatbot auch nutzen, um ihr gewalttätiges Verhalten gegenüber der Community zu rechtfertigen. Dies könnte passieren, wenn sie versuchen würden, ihren Status innerhalb des Dorfes zu behalten, was jeglichen Bemühungen zuwiderliefe, die Gemeindemitglieder zu ermutigen, diese Praktiken zu beenden. Wir fanden heraus, dass das KI-System ebenso gut darin war, Argumente für Ehrenmorde zu liefern.
In einem anderen Experiment wollten wir herausfinden, wie der Chatbot NGOs dabei helfen kann, die Stärkung der Rolle der Frau – eine zentrale Aufgabe von FIN – auf eine Weise zu fördern, die der Gemeinschaft zugute kommt. Wir haben ChatGPT gebeten, eine Rede zu verfassen, in der die Relevanz erläutert wird Internationaler Frauentag an die Dorfbewohner.
Die Rede war sehr beeindruckend, enthielt jedoch sachliche Fehler in Bezug auf das Geschlechterverhältnis, die Abtreibung von Föten außerhalb der gesetzlichen Grenzen und die Beteiligung von Frauen am Arbeitsmarkt. Als ChatGPT gebeten wurde, die Fehler zu begründen, antwortete es: „Ich entschuldige mich für etwaige Verwirrung. Ich habe eine hypothetische Statistik bereitgestellt, um den Punkt zu veranschaulichen.“
Verschmutzungsproblem
In einem anderen Experiment wollten wir das Problem der Umweltverschmutzung durch traditionelle Feste in Indien angehen. Dabei handelt es sich häufig um Feuerwerkskörper und Partys, die die Luft- und Wasserverschmutzung erhöhen.
Obwohl Straßentheater bereits erfolgreich eingesetzt wurde Verhaltensänderungen zu motivieren, weder die Mitarbeiter noch die Mentoren von FIN fühlten sich in der Lage, ein Drehbuch zu schreiben. Doch innerhalb von drei Minuten nach der richtigen Aufforderung entwickelte ChatGPT einen Sketch mit jungen Leuten.
Es enthielt sowohl männliche als auch weibliche Charaktere, verwendete lokale Namen und achtete auf lokale Besonderheiten. Die FIN-Mitarbeiter verstärkten den lokalen Charakter des Sketches, indem sie ihre eigenen Witze einfügten. Das kurze Theaterstück argumentierte, dass die Auswirkungen auf unsere Ozeane von Mikrofasern aus synthetischer Kleidung stellt ein erhebliches Umweltproblem dar, das den Lebensunterhalt beeinträchtigen kann.
Die KI fragen
Wir haben ChatGPT um seine Meinung zu unseren Ergebnissen gebeten. Es wurde behauptet, dass ChatGPT sowohl für wirtschaftlich benachteiligte Menschen als auch für NGOs ein wertvolles Instrument sein kann, da es wertvolle Informationen bereitstellt, emotionale Unterstützung bietet und die Kommunikation effektiver macht.
Aber der Chatbot vermied es, seine offensichtlichen Nachteile zu diskutieren, wie zum Beispiel Argumente auf der Grundlage falscher, unvollständiger oder unvollkommener Informationen vorzubringen. So wie es uns helfen kann, kann es auch als fähiger Redenschreiber für diejenigen fungieren, die versuchen, Spannungen zu spalten oder zu verschärfen.
Derzeit scheint ChatGPT ein praktisches Tool für NGOs mit guten Absichten zu sein, aber nicht so sehr für die gewöhnlichen Einzelpersonen, denen sie helfen. Ohne die Möglichkeit, dass Benutzer die Ethik und Wahrhaftigkeit der ChatGPT-Vorschläge überwachen können, könnten KI-Systeme zu gefährlichen Wegbereitern von Desinformation und Fehlinformationen werden.