KI-Sprachmodelle boomen. Der aktuelle Spitzenreiter ist chatgpt, das alles kann, von der Ablegung einer Anwaltsprüfung über die Erstellung einer Personalrichtlinie bis hin zum Schreiben eines Filmdrehbuchs.

Aber es und andere Modelle können immer noch nicht wie ein Mensch denken. In dieser Frage-und-Antwort-Runde erklären Dr. Vered Shwartz (sie/sie), Assistenzprofessorin an der UBC-Abteilung für Informatik, und der Masterstudent Mehar Bhatia (sie/sie), warum logisches Denken der nächste Schritt in der KI sein könnte – und warum dies wichtig ist Trainieren Sie diese Modelle mithilfe verschiedener Datensätze aus verschiedenen Kulturen.

Was ist „Begründung“ für KI?

Shwartz: Große Sprachmodelle wie ChatGPT lernen, indem sie Millionen von Dokumenten, im Wesentlichen das gesamte Internet, lesen und Muster erkennen, um Informationen zu produzieren. Das heißt, sie können nur Auskunft über Dinge geben, die im Internet dokumentiert sind. Menschen hingegen sind in der Lage, vernünftig zu denken. Wir verwenden Logik und gesunden Menschenverstand, um die Bedeutung herauszufinden, die über das explizit Gesagte hinausgeht.

Bhatia: Denkfähigkeiten erlernen wir von Geburt an. Wir wissen zum Beispiel, dass wir den Mixer nicht um 2 Uhr morgens einschalten dürfen, weil sonst alle aufwachen. Das wird uns nicht beigebracht, aber es ist etwas, das Sie basierend auf der Situation, Ihrer Umgebung und Ihrer Umgebung verstehen. In naher Zukunft werden KI-Modelle viele unserer Aufgaben übernehmen. Wir können nicht jede einzelne Regel des gesunden Menschenverstands fest in diese Roboter programmieren, deshalb möchten wir, dass sie verstehen, was in einem bestimmten Kontext richtig zu tun ist.

Siehe auch  ChatGPT hat eine Warnung von der japanischen Kommission zum Schutz personenbezogener Daten erhalten

Shwartz: Die Verknüpfung von vernünftigem Denken mit aktuellen Modellen wie ChatGPT würde ihnen helfen, genauere Antworten zu liefern und so leistungsfähigere Werkzeuge für den Menschen zu schaffen. Aktuelle KI-Modelle haben eine Art vernünftiges Denken gezeigt. Wenn Sie beispielsweise die neueste Version von ChatGPT nach dem Schlammkuchen eines Kindes und eines Erwachsenen fragen, kann sie anhand des Kontexts korrekt zwischen einem Dessert und einem Gesicht voller Schmutz unterscheiden.

Wo versagen KI-Sprachmodelle?

Shwartz: Das vernünftige Denken in KI-Modellen ist alles andere als perfekt. Wir kommen nur so weit, wenn wir mit riesigen Datenmengen trainieren. Der Mensch muss weiterhin eingreifen und die Modelle trainieren, unter anderem durch die Bereitstellung der richtigen Daten.

Wir wissen zum Beispiel, dass englischer Text im Internet größtenteils aus Nordamerika stammt, sodass die am häufigsten verwendeten englischen Sprachmodelle tendenziell eine nordamerikanische Ausrichtung haben und das Risiko besteht, dass sie Konzepte aus anderen Kulturen entweder nicht kennen oder nicht der Aufrechterhaltung von Stereotypen. In einem Aktuelles Papier Wir fanden heraus, dass das Trainieren eines Modells des gesunden Menschenverstandes anhand von Daten aus verschiedenen Kulturen, darunter Indien, Nigeria und Südkorea, zu genaueren, kulturell fundierten Antworten führte.

Bhatia: Ein Beispiel war, dem Model das Bild einer Frau in Somalia zu zeigen, die sich ein Henna-Tattoo stechen lässt, und zu fragen, warum sie das haben möchte. Beim Training mit kulturell unterschiedlichen Daten deutete das Modell richtigerweise an, dass sie bald heiraten würde, während vorher gesagt worden war, sie wolle Henna kaufen.

Shwartz: Wir haben auch Beispiele dafür gefunden, dass es ChatGPT an kulturellem Bewusstsein mangelt. In einer hypothetischen Situation, in der ein Paar in einem Restaurant in Spanien vier Prozent Trinkgeld gab, deutete das Model an, dass es möglicherweise mit dem Service unzufrieden war. Dies geht davon aus, dass in Spanien die nordamerikanische Trinkgeldkultur gilt, obwohl Trinkgeld im Land eigentlich nicht üblich ist und ein Trinkgeld von vier Prozent wahrscheinlich einen außergewöhnlichen Service bedeutet.

Siehe auch  Steigern Sie Ihren Gewinn, indem Sie lernen, wie Sie ChatGPT für nur 20 US-Dollar nutzen

Warum müssen wir sicherstellen, dass KI integrativer ist?

Shwartz: Sprachmodelle sind allgegenwärtig. Wenn diese Modelle Werte und Normen übernehmen, die mit der westlichen oder nordamerikanischen Kultur verbunden sind, könnten ihre Informationen für und über Menschen aus anderen Kulturen ungenau und diskriminierend sein. Eine weitere Sorge besteht darin, dass Menschen mit unterschiedlichem Hintergrund, die Produkte verwenden, die auf englischen Modellen basieren, ihre Eingaben an nordamerikanische Normen anpassen müssten, da sie andernfalls möglicherweise eine suboptimale Leistung erzielen würden.

Bhatia: Wir möchten, dass diese Tools von allen da draußen genutzt werden können, nicht nur von einer Gruppe von Menschen. Kanada ist ein kulturell vielfältiges Land und wir müssen sicherstellen, dass die KI-Tools, die unser Leben bestimmen, nicht nur eine Kultur und ihre Normen widerspiegeln. Unsere laufende Forschung zielt darauf ab, Inklusivität, Vielfalt und kulturelle Sensibilität bei der Entwicklung und dem Einsatz von KI-Technologien zu fördern.

Interviewsprache(n): Englisch (Bhatia, Shwartz), Hebräisch (Shwartz), Hindi (Bhatia)

/Öffentliche Freigabe. Dieses Material der ursprünglichen Organisation/des/der ursprünglichen Autor(en) kann zeitpunktbezogenes Material sein und im Hinblick auf Klarheit, Stil und Länge bearbeitet werden. Mirage.News vertritt keine institutionellen Positionen oder Partei und alle hier geäußerten Ansichten, Positionen und Schlussfolgerungen sind ausschließlich die des Autors/der Autoren. Vollständig hier ansehen.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.