Dieser Artikel wurde von Science X überprüft redaktionellen Prozess Und Richtlinien. Herausgeber haben die folgenden Attribute hervorgehoben und gleichzeitig die Glaubwürdigkeit des Inhalts sichergestellt:

faktengeprüft

vertrauenswürdige Quelle

Korrekturlesen

Bildnachweis: Sanket Mishra von Pexels

× schließen

Bildnachweis: Sanket Mishra von Pexels

Viele Menschen nutzen chatgpt: Computerprogrammierer schreiben damit Code, Schüler machen damit ihre Hausaufgaben und Lehrer planen ihren Unterricht damit. Und doch hat der Aufstieg des Open AI-Chatbots auch viele ethische Bedenken hervorgerufen.

Um mehr zu erfahren, haben wir mit Marc-Antoine Dilhac gesprochen, einem Philosophieprofessor an der Fakultät für Künste und Wissenschaften der Université de Montréal, der beim Verfassen des Buches mitgeholfen hat Montréal-Erklärung für eine verantwortungsvolle Entwicklung künstlicher Intelligenz.

Verstärkt ChatGPT die Diskriminierung?

Diskriminierung ist ein Thema für künstliche Intelligenz im Allgemeinen. Es ist nicht auf ChatGPT beschränkt. Die in ChatGPT beobachtete geschlechtsspezifische Verzerrung ähnelt dem, was wir bereits bei der traditionellen Verarbeitung natürlicher Sprache und den Autovervollständigungsvorhersagen von google gesehen haben. Beispielsweise neigen KIs bei maschinellen Übersetzungen dazu, für bestimmte Berufe das Maskulinum und für andere das Femininum zu verwenden, sodass Ärzte automatisch als „er“ und Krankenschwestern als „sie“ bezeichnet werden können.

ChatGPT reproduziert die geschlechtsspezifische Voreingenommenheit in den bereits vorhandenen Tests, auf denen es trainiert, da diese größtenteils auf sozialen Normen basieren. Wenn wir wollen, dass sich das ändert, müssen wir als Menschen unsere gewohnte Denkweise ändern. Wenn ChatGPT Ärzte als „er“ bezeichnet, sollte dies als eine Widerspiegelung dessen verstanden werden, was wir selbst sagen. Hoffentlich könnte uns das dazu bringen, etwas zu tun, um diese Vorurteile abzubauen. Indem ChatGPT diese Vorurteile aufdeckt, tut es uns tatsächlich einen Gefallen: Es spiegelt unsere eigenen Vorurteile wider und lässt uns wissen, dass wir sie überhaupt haben.

Siehe auch  Kunlun Tech wird noch in diesem Jahr ein KI-Tool ähnlich ChatGPT herausbringen – ezone.hk – Technology Focus – Tech Cars

Was sind die größten ethischen Herausforderungen, die ChatGPT für die Gesellschaft mit sich bringt?

Ich sehe drei große Herausforderungen.

Der erste ist pädagogischer Natur und darüber hat die Université de Montréal bereits begonnen, darüber nachzudenken. Dies betrifft die Zukunft des Lernens in einer Umgebung, in der Studierende ChatGPT nutzen können, um Texte zu schreiben und für sie bestimmte Informationen zu sammeln. Lehrer könnten ChatGPT auch verwenden, um Aufgaben automatisch zu korrigieren, was Bildungseinrichtungen möglicherweise fördern, um den Zeitaufwand für Korrekturen zu reduzieren. Dies wirft jedoch die Frage nach der Verantwortung für die Bewertung studentischer Arbeiten auf. Wie passt Feedback dazu? Welche Art von Schüler-Lehrer-Beziehung wollen wir aufbauen?

Die zweite Herausforderung betrifft das Risiko für geistiges Eigentum. ChatGPT und andere generative KIs werden an Originalwerken wie Texten und Bildern (einschließlich Fotos und Gemälden) trainiert, um synthetische Inhalte zu erstellen, für die die Ersteller dieser Originalwerke keine Vergütung erhalten. Dieses Problem hat reale rechtliche und wirtschaftliche Auswirkungen, die möglicherweise nicht nur Menschen davon abhalten, künstlerische Arbeiten zu produzieren, sondern auch Institutionen wie Universitäten davon abhalten könnten, Wissen zu produzieren.

Schließlich hängt die dritte Herausforderung, die durch ChatGPT verschärft werden könnte, mit der Demokratie und der Wahlintegrität zusammen. Dies hängt mit der Möglichkeit zusammen, Texte zu produzieren, die darauf abzielen, dass Einzelpersonen ihre politischen Überzeugungen beeinflussen oder manipulieren. Ich bin nicht ganz davon überzeugt, dass dies ein großes Risiko darstellt, da ich glaube, dass sich Menschen leichter von der Meinung anderer Menschen überzeugen lassen als von der Meinung einer Maschine.

Es stimmt jedoch, dass wir die Quelle von Internetinhalten nicht immer identifizieren können und es immer einfacher wird, Artikel in Massen zu produzieren. Internetnutzer könnten mit Informationen überschwemmt werden, was letztendlich ihre Denkweise beeinflussen könnte. Riesige Mengen an Text könnten produziert und verwendet werden, um Einzelpersonen auf eine viel präzisere Weise als in der Vergangenheit anzusprechen.

Siehe auch  Algorand Explorer Powered by ChatGPT gestartet. Wird ALGO Gnade vor aggressiven Verkäufern finden?

Sie waren an der Ausarbeitung der Montrealer Erklärung beteiligt. Wie könnten seine Prinzipien zur ethischen Nutzung von ChatGPT führen?

Es gibt mindestens drei Grundsätze, die befolgt werden können, um sicherzustellen, dass ChatGPT ethisch und verantwortungsvoll genutzt wird.

Das erste zu berücksichtigende Grundprinzip ist die Achtung der Autonomie. Dieses Prinzip kann an unterschiedliche Ebenen der KI-Nutzung angepasst werden. Wenn beispielsweise Menschen wie Studenten, Lehrer, Journalisten oder Anwälte ChatGPT für ihre Arbeit nutzen, gefährden sie ihre eigene Autonomie. Das Problem dabei ist, dass Menschen ihre Aufgaben delegieren, was dazu führen könnte, dass sie ihre Autonomie verlieren. Wenn wir aufhören, bestimmte Dinge selbst zu tun, und diese von anderen Menschen oder Technologien erledigen lassen, werden wir von der Arbeit der anderen Partei abhängig, in diesem Fall der KI.

Der Einsatz von ChatGPT im Bildungswesen wirft Fragen zur Fähigkeit der Schüler auf, selbstständig und in der Lehrerausbildung kritisch zu denken, da Lehrer möglicherweise weniger wahrscheinlich Quellen selbst prüfen oder verstehen, wenn sie sich auf die von ChatGPT bereitgestellten Zusammenfassungen verlassen können. Einige Anwendungen von ChatGPT könnten unsere kognitiven Fähigkeiten und damit unsere Autonomie gefährden.

Das zweite Prinzip ist Solidarität. Wie in der Montrealer Erklärung festgelegt, besagt dieser Grundsatz, dass wir ständig daran arbeiten müssen, hochwertige menschliche Beziehungen aufrechtzuerhalten, und dass KI nur zu deren Entwicklung eingesetzt werden sollte. Das bedeutet, dass wir mit der KI arbeiten müssen, anstatt ihr Aufgaben zu delegieren. Wir müssen auch sinnvolle zwischenmenschliche Beziehungen pflegen, die manchmal für bestimmte Rollen notwendig sind, beispielsweise für Pflegeberufe.

Man könnte meinen, dass die Bereitstellung von psychiatrischen Diensten über ChatGPT dem Solidaritätsprinzip zuwiderläuft. Aber ChatGPT wird bereits auf diese Weise genutzt. Dies stellt ein echtes Problem dar, da dabei offensichtlich der Überblick über eine therapeutische Beziehung verloren geht. Unkontrollierte kommerzielle Anwendungen könnten katastrophale Folgen haben, da sie ohne Verständnis der ethischen Grundsätze einer verantwortungsvollen KI-Entwicklung erstellt werden. In diesem Fall geht es bei dem fraglichen Prinzip darum, wie eine therapeutische Beziehung und im weiteren Sinne eine hochwertige menschliche Beziehung aussieht.

Siehe auch  Sam Altman und Mitbegründer von OpenAI, Greg Brockman, wurden wegen Google Meet-Anrufs entlassen

Das dritte Prinzip ist die demokratische Beteiligung. Wenn wir nicht verstehen, wie KI funktioniert, wenn wir keine Kontrolle über die Produktion von Inhalten haben und wenn die produzierten Inhalte die Interaktionen zwischen Menschen stören und die Qualität des Diskurses beeinträchtigen, dann untergraben wir eine der Grundlagen der Demokratie: die Fähigkeit, fundierte Entscheidungen auf der Grundlage einer vernünftigen Debatte mit unseren Mitbürgern zu treffen.

Dabei kommt es entscheidend darauf an, wie das Prinzip der demokratischen Beteiligung umgesetzt wird. Damit der Mensch die Kontrolle über die KI behält, ist ein gewisses Maß an Transparenz erforderlich und die Nutzung der Technologie durch die Öffentlichkeit sollte begrenzt sein. Anwendungsprogrammierschnittstellen (APIs), die die Verwendung von Programmen wie ChatGPT durch eine Drittanbieteranwendung (z. B. Apps für psychische Gesundheitsberatung) ermöglichen, sollten einer strengen Kontrolle unterliegen.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein