Dieser Artikel wurde von Science X überprüft redaktionellen Prozess Und Richtlinien. Herausgeber haben die folgenden Attribute hervorgehoben und gleichzeitig die Glaubwürdigkeit des Inhalts sichergestellt:

faktengeprüft

vertrauenswürdige Quelle

Korrekturlesen

chatgpt-has-read-al.jpg“ srcset=“https://scx1.b-cdn.net/csz/news/800w/2024/qa-chatgpt-has-read-al.jpg?f=webp 800w“ layout=“responsive“ width=“1280″ height=“641″ alt=“Q&A: ChatGPT has read almost the whole internet. That hasn’t solved its diversity issues“>
Aufmerksamkeitsanalyse von Common-Sense-Schlussfolgerungen, die von COMET und GD-COMET zum Testen von Proben in GD-VCR generiert wurden. Kredit: Tagungsband der Konferenz 2023 über empirische Methoden in der Verarbeitung natürlicher Sprache (2023). DOI: 10.18653/v1/2023.emnlp-main.496

× schließen

Aufmerksamkeitsanalyse von Common-Sense-Schlussfolgerungen, die von COMET und GD-COMET zum Testen von Proben in GD-VCR generiert wurden. Kredit: Tagungsband der Konferenz 2023 über empirische Methoden in der Verarbeitung natürlicher Sprache (2023). DOI: 10.18653/v1/2023.emnlp-main.496

KI-Sprachmodelle boomen. Der aktuelle Spitzenreiter ist ChatGPT, das alles kann, von der Ablegung einer Anwaltsprüfung über die Erstellung einer Personalrichtlinie bis hin zum Schreiben eines Drehbuchs.

Aber es und andere Modelle können immer noch nicht wie ein Mensch denken. In dieser Frage-und-Antwort-Runde erklären Dr. Vered Shwartz, Assistenzprofessor an der UBC-Abteilung für Informatik, und der Masterstudent Mehar Bhatia, warum Argumentation der nächste Schritt in der KI sein könnte – und warum es wichtig ist, diese Modelle anhand verschiedener Datensätze aus verschiedenen Kulturen zu trainieren.

Was ist „Begründung“ für KI?

Shwartz: Große Sprachmodelle wie ChatGPT lernen, indem sie Millionen von Dokumenten, im Wesentlichen das gesamte Internet, lesen und Muster erkennen, um Informationen zu produzieren. Das heißt, sie können nur Auskunft über Dinge geben, die im Internet dokumentiert sind. Menschen hingegen sind in der Lage, vernünftig zu denken. Wir verwenden Logik und gesunden Menschenverstand, um die Bedeutung herauszufinden, die über das explizit Gesagte hinausgeht.

Bhatia: Denkfähigkeiten erlernen wir von Geburt an. Wir wissen zum Beispiel, dass wir den Mixer nicht um 2 Uhr morgens einschalten dürfen, weil sonst alle aufwachen. Das wird uns nicht beigebracht, aber es ist etwas, das Sie basierend auf der Situation, Ihrer Umgebung und Ihrer Umgebung verstehen. In naher Zukunft werden KI-Modelle viele unserer Aufgaben übernehmen. Wir können nicht jede einzelne Regel des gesunden Menschenverstands fest in diese Roboter programmieren, deshalb möchten wir, dass sie verstehen, was in einem bestimmten Kontext richtig zu tun ist.

Siehe auch  Laut Bericht gibt ChatGPT Passwörter von Benutzern preis | Der tägliche Kurier

Shwartz: Die Verknüpfung von vernünftigem Denken mit aktuellen Modellen wie ChatGPT würde ihnen helfen, genauere Antworten zu liefern und so leistungsfähigere Werkzeuge für den Menschen zu schaffen. Aktuelle KI-Modelle haben eine Art vernünftiges Denken gezeigt. Wenn Sie beispielsweise die neueste Version von ChatGPT nach dem Schlammkuchen eines Kindes und eines Erwachsenen fragen, kann sie anhand des Kontexts korrekt zwischen einem Dessert und einem Gesicht voller Schmutz unterscheiden.

Wo versagen KI-Sprachmodelle?

Shwartz: Das vernünftige Denken in KI-Modellen ist alles andere als perfekt. Wir kommen nur so weit, wenn wir mit riesigen Datenmengen trainieren. Der Mensch muss weiterhin eingreifen und die Modelle trainieren, unter anderem durch die Bereitstellung der richtigen Daten.

Wir wissen zum Beispiel, dass englischer Text im Internet größtenteils aus Nordamerika stammt, sodass die am häufigsten verwendeten englischen Sprachmodelle tendenziell eine nordamerikanische Ausrichtung haben und das Risiko besteht, dass sie Konzepte aus anderen Kulturen entweder nicht kennen oder nicht der Aufrechterhaltung von Stereotypen.

In einem Aktuelles Papier (veröffentlicht in Tagungsband der Konferenz 2023 über empirische Methoden in der Verarbeitung natürlicher Sprache) stellten wir fest, dass das Trainieren eines Modells des gesunden Menschenverstandes auf der Grundlage von Daten aus verschiedenen Kulturen, darunter Indien, Nigeria und Südkorea, zu genaueren, kulturell fundierten Antworten führte.

Bhatia: Ein Beispiel war, dem Model das Bild einer Frau in Somalia zu zeigen, die sich ein Henna-Tattoo stechen lässt, und zu fragen, warum sie das haben möchte. Beim Training mit kulturell unterschiedlichen Daten deutete das Modell richtigerweise an, dass sie bald heiraten würde, während vorher gesagt worden war, sie wolle Henna kaufen.

Siehe auch  Dies ist das geheime ChatGPT-Projekt, das den Big Boss gefeuert hat

Shwartz: Wir haben auch Beispiele dafür gefunden, dass es ChatGPT an kulturellem Bewusstsein mangelt. In einer hypothetischen Situation, in der ein Paar in einem Restaurant in Spanien vier Prozent Trinkgeld gab, deutete das Model an, dass es möglicherweise mit dem Service unzufrieden war. Dabei wird davon ausgegangen, dass in Spanien die nordamerikanische Trinkgeldkultur gilt, obwohl Trinkgeld im Land eigentlich nicht üblich ist und ein Trinkgeld von vier Prozent wahrscheinlich einen außergewöhnlichen Service bedeutet.

Warum müssen wir sicherstellen, dass KI integrativer ist?

Shwartz: Sprachmodelle sind allgegenwärtig. Wenn diese Modelle die mit der westlichen oder nordamerikanischen Kultur verbundenen Werte und Normen annehmen, könnten ihre Informationen für und über Menschen aus anderen Kulturen ungenau und diskriminierend sein. Eine weitere Sorge besteht darin, dass Menschen mit unterschiedlichem Hintergrund, die Produkte verwenden, die auf englischen Modellen basieren, ihre Eingaben an nordamerikanische Normen anpassen müssten, da sie andernfalls möglicherweise eine suboptimale Leistung erzielen würden.

Bhatia: Wir möchten, dass diese Tools von allen da draußen genutzt werden können, nicht nur von einer Gruppe von Menschen. Kanada ist ein kulturell vielfältiges Land und wir müssen sicherstellen, dass die KI-Tools, die unser Leben bestimmen, nicht nur eine Kultur und ihre Normen widerspiegeln. Unsere laufende Forschung zielt darauf ab, Inklusivität, Vielfalt und kulturelle Sensibilität bei der Entwicklung und dem Einsatz von KI-Technologien zu fördern.

Mehr Informationen: Mehar Bhatia et al., GD-COMET: Ein geo-diverses Commonsense-Inferenzmodell, Tagungsband der Konferenz 2023 über empirische Methoden in der Verarbeitung natürlicher Sprache (2023). DOI: 10.18653/v1/2023.emnlp-main.496

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.