Generative Sprachmodelle, insbesondere chatgpt, sind seit der Veröffentlichung der ersten Version von OpenAI vor etwas mehr als einem Jahr in aller Munde und sorgen für viele Schlagzeilen. Eines der Hauptdiskussionsthemen war, wie Bildungseinrichtungen an Prüfungen herangehen, wenn ChatGPT scheinbar in der Lage ist, alles für Sie zu beantworten. Das Hauptthema war „Betrug“ und die schnelle Lösung war ein Verbot.

Ist es Betrug?

Als Bildungsforscherin beantworte ich diese Frage klar mit „Nein“. Wenn unser Bildungssystem Kindern und Jugendlichen nicht beibringen soll, die Werkzeuge zu verstehen, die ihnen in ihrem zukünftigen Privat- und Berufsleben zur Verfügung stehen, wer sonst sollte das tun? Dennoch stimme ich zu, dass Tests und Prüfungen häufig so gestaltet sind, dass das Kopieren und Einfügen aus einem generativen Sprachmodell möglich ist, was offensichtlich nicht von Vorteil ist – schon gar nicht für die Kinder und Jugendlichen. Dies ist also eine gute Gelegenheit, veraltete Prüfungsformulare zu ändern. Ich bin auf jeden Fall der Meinung, dass Kinder und Jugendliche verstehen lernen sollten, wie generative Sprachmodelle aufgebaut sind und was das bedeutet, was sie können und was nicht. Prüfungen sollten reale Projekte, Probleme und Lösungen widerspiegeln, mit denen die Studierenden in ihrem zukünftigen Privat- oder Berufsleben konfrontiert sein könnten. Die Tatsache, dass es meiner Meinung nach überhaupt keine generativen Sprachmodelle geben sollte, ist eine andere Sache. Meiner Ansicht nach gibt es sie tatsächlich, sie sind vermutlich legal und werden von vielen Menschen genutzt.

Kopierschutz Probleme

Ein weiteres ernstes Problem besteht darin, dass generative Sprachmodelle in ihrer aktuellen Form möglicherweise auf Inhalten trainiert werden, zu deren Nutzung den dahinterstehenden Technologieunternehmen keine Erlaubnis erteilt wurde. In anderen Kontexten müssen Sie die Urheberschaft angeben, und in einigen Kontexten ist die Verwendung bestimmter Inhalte überhaupt nicht gestattet. Aber in diesem Fall ist es offenbar – vorerst – völlig in Ordnung, alle möglichen verfügbaren Inhalte zu sammeln, sie in die Maschine zu stopfen und sie dann „magisch“ in eine andere Form umzuwandeln. Paradoxerweise müssen Benutzer anschließend ChatGPT – oder welches andere Sprachmodell auch immer sie verwenden – angeben. Meiner Meinung nach ist dies ein klares ethisches Problem und eine Verletzung unserer Rechte, über unsere eigenen Werke zu entscheiden, sowohl berufliche als auch private.

Siehe auch  Exclusive-OpenAI plant große Updates, um Entwickler mit niedrigeren Kostenquellen anzulocken

Simulation von Menschen

Da ich mich mit dem Verständnis digitaler Technologien bei Kindern und Jugendlichen befasse, finde ich es äußerst schädlich, dass viele digitale Technologien heutzutage darauf ausgelegt sind, Menschen zu simulieren. Es macht es sicherlich nicht einfacher zu verstehen, dass Sie es mit einer Maschine zu tun haben, wenn sie Sie in höflichen Phrasen und unter Verwendung personalisierter Pronomen wie „Sie“ und „Ich“ bedient und mit Ihnen spricht. Einige digitale Technologien sind auch darauf ausgelegt, Menschen physisch zu simulieren, worüber ich bereits hier und mit einem Kollegen hier geschrieben habe. Ein schreckliches Beispiel unter vielen: Die vielen Kinder und Jugendlichen, die Snapchat nutzen, werden nun unfreiwillig mit My AI ausgestattet. Nur als Snapchat+-Abonnent können sie den unmenschlichen Chatbot entfernen. Lasst uns lieber (digitale) Technologien so gestalten stimululieren den Menschen – und zwar in dem Maße, dass wir dafür tatsächlich Technologien brauchen.

Mehr vom Gleichen vom Gleichen vom Gleichen …

Wie bei vielen anderen digitalen Technologien, die versuchen, das menschliche Bewusstsein zu simulieren, besteht das Risiko – oder vielmehr die Garantie – der Voreingenommenheit. Das dänische Wörterbuch beschreibt Bias als „falsche Darstellung von Umfrageergebnissen, messbaren Größen oder Ähnlichem, insbesondere aufgrund methodischer Fehler oder unbewusster Präferenzen“ (übersetzt). Mein Einwand dagegen basiert auf der Tatsache, dass die von der Firma OpenAI (im Fall von ChatGPT) gesammelten Inhalte möglicherweise auf einseitigen und zensierten Inhalten basieren – insbesondere auf lange Sicht, da Inhalte einfach endlos reproduziert werden. Wenn wir alle beginnen, ChatGPT als „Inspirationsquelle“ zu nutzen, wenn wir uns auf die eine oder andere Weise in dem einen oder anderen Kontext ausdrücken, werden wir immer wieder neue, „kreative“ Wege finden. Auf diese Weise können Einstellungen verloren gehen und wir vergessen möglicherweise, bestimmte Aspekte von Problemen zu berücksichtigen. Eine ähnliche Situation wie bei unseren engstirnigen Newsfeeds in den sozialen Medien. Wir bekommen mehr vom Gleichen und das kommt mir dumm vor.

Siehe auch  Chatgpt erstellt GitHub. Foto von Jonathan Kemper auf Unsplash | von Vikram Gounder | Februar 2024

Werte sind wild geworden

Wenn Sprachmodelle Inhalte nur mit Erlaubnis verwenden würden, nicht versuchen würden, wie Menschen zu kommunizieren und (utopisch) ein vielfältiges Weltbild repräsentierten, würde ich sie trotzdem nicht verwenden. Mein größtes Problem dabei ist, dass ich nicht weiß, woher und wie die Inhalte generiert werden. Es könnte zum Beispiel von jemandem stammen, mit dem ich sehr wenig Mitgefühl habe. Denn wenn ich selbst nach Wissen oder Inspiration suche, nutze ich meine eigenen Erfahrungen, Einstellungen und Werte, um meine Antworten zu konstruieren, und als quellenkritischer Mensch weiß ich, wer die Dinge gesagt hat, die ich verwende. Bei ChatGPT scheint es leicht zu sein, sich in der Faszination darüber zu verlieren, wie großartig die Ausgabe klingt, sei es eine „lustige Rede zum Geburtstag meiner Mutter“ oder eine „leicht verständliche Erklärung des Periodensystems für Schulkinder“. . Selbst als kritischer Benutzer kann es schwierig sein, sich nicht ein wenig (in die Irre) führen zu lassen, indem man sich von Inhalt, Stil usw. beeinflussen lässt. Auf mich wirkt es verhaltensmanipulierend, entmächtigend und weit entfernt von meinen persönlichen Werten. Ich verstehe, dass ich auf diese Weise mehr Zeit damit verbringen muss, diese Rede für meine Mutter zu schreiben oder einer Gruppe von Schulkindern das Periodensystem zu erklären, aber im Gegenzug weiß ich, dass ich für das Ergebnis bürgen kann.

Vielleicht tauchen Argumente auf, über die ich noch nicht nachgedacht habe, oder ich kann Dinge lernen, die ich über die Modelle noch nicht wusste. Manche mögen auch argumentieren, dass es durchaus möglich sei, die Inhalte, die uns präsentiert werden, kritisch zu bewerten. Im Moment habe ich jedoch nur Abneigung und Einwände gegen diese Art der Verwendung mechanisch generierter Sätze, die auf Statistiken basieren.

Siehe auch  Kann generative KI die elektronische Patientenakte revolutionieren? Antwort von ChatGPT im Vergleich zu IT-Leitern im Krankenhaus

Foto von Kari Shea An Unsplash

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein