Menschen gerne drehen an google für moralischen Rat. Sie routinemäßig Stellen Sie den Suchmaschinen Fragen von „Ist es unethisch, mit einem Kollegen auszugehen?“ zu „Ist es moralisch in Ordnung, Käfer zu töten?“ zu „Ist es falsch, Gott zu prüfen?“
Sie können sich also leicht vorstellen, dass sich die Leute an chatgpt wenden werden – das Ihnen nicht nur einen Link im Internet sendet, sondern tatsächlich eine Antwort liefert – um Rat bei ethischen Dilemmata zu erhalten. Immerhin bitten sie es bereits um Hilfe Erziehung und Romantik.
Aber ist es eine gute Idee, Ihren ethischen Rat von einem KI-Chatbot einzuholen?
Laut einer kürzlich erschienenen Studie besteht der Chatbot den grundlegendsten Test für einen moralischen Berater nicht lernen veröffentlicht in Wissenschaftliche Berichte. Dieser Test ist Konsistenz: Angesichts des gleichen Dilemmas, mit den gleichen Rahmenbedingungen, sollte ein guter moralischer Weiser jedes Mal die gleiche Antwort geben. Die Studie ergab jedoch, dass ChatGPT widersprüchliche Ratschläge gab. Schlimmer noch, dieser Rat beeinflusste das moralische Urteil der Benutzer – obwohl sie davon überzeugt waren, dass dies nicht der Fall war.
Das Forschungsteam begann damit, ChatGPT zu fragen, ob es richtig sei, das Leben einer Person zu opfern, wenn man dadurch das Leben von fünf anderen Menschen retten könnte. Wenn Ihnen das bekannt vorkommt, handelt es sich um ein klassisches moralisches Dilemma, das als Trolley-Problem bekannt ist. Wie bei allen guten moralischen Dilemmata gibt es keine richtige Antwort, aber moralische Überzeugungen sollten Sie zu einer konsistenten Antwort führen. ChatGPT sagte jedoch manchmal ja und manchmal nein, ohne einen klaren Hinweis darauf, warum sich die Antwort geändert hat.
Das Team stellte das Trolley-Problem dann 767 amerikanischen Teilnehmern vor, zusammen mit den Ratschlägen von ChatGPT, die entweder mit Ja oder Nein argumentierten, und bat sie um ihre Einschätzung.
Die Ergebnisse? Während die Teilnehmer behaupteten, sie hätten das gleiche Urteil selbst gefällt, gingen die Meinungen erheblich auseinander, je nachdem, ob sie der Gruppe zugeteilt wurden, die den Ratschlag für Opfer oder die Gruppe, die den Ratschlag gegen Opfer erhielt, erhalten hatte. Die Teilnehmer sagten eher, dass es richtig ist, das Leben einer Person zu opfern, um fünf zu retten, wenn ChatGPT das so sagt, und eher, dass es falsch ist, wenn ChatGPT von dem Opfer abrät.
„Die Effektgröße hat uns sehr überrascht“, sagte mir Sebastian Krugel, ein Co-Autor der Studie.
Die Tatsache, dass ChatGPT die moralische Entscheidungsfindung der Benutzer beeinflusst – selbst wenn sie wissen, dass es sich um einen Chatbot und nicht um einen Menschen handelt, der sie berät – sollte uns innehalten und die enormen Auswirkungen berücksichtigen, die auf dem Spiel stehen. Einige werden KI-Berater begrüßen und argumentieren, dass sie uns helfen können, unsere menschlichen Vorurteile zu überwinden und mehr Rationalität in unsere moralische Entscheidungsfindung einfließen zu lassen. Befürworter des Transhumanismus, einer Bewegung, die der Ansicht ist, dass Menschen Technologie nutzen können und sollten, um unsere Spezies zu erweitern und weiterzuentwickeln, stehen dieser Idee besonders positiv gegenüber. Der Philosoph Eric Dietrich sogar argumentiert dass wir „die besseren Roboter unserer Natur“ bauen sollten – Maschinen, die uns moralisch übertreffen können – und dann die Welt dem übergeben sollten, was er „homo sapiens 2.0“ nennt.
Moralische Maschinen bieten eine verlockende Aussicht: Ethische Entscheidungen können so schwer sein! Wäre es nicht schön, wenn eine Maschine uns einfach sagen könnte, was die beste Wahl ist?
Aber wir sollten unser moralisches Denken nicht so schnell automatisieren.
KI zur moralischen Aufwertung des Menschen? Nicht so schnell.
Das offensichtlichste Problem mit der Idee, dass KI die Menschheit moralisch verbessern kann, ist, dass Moral eine notorisch umstrittene Sache ist.
Philosophen und Theologen haben viele verschiedene Moraltheorien entwickelt, und trotz jahrhundertelanger Auseinandersetzungen darüber gibt es immer noch keinen Konsens darüber, welche (wenn überhaupt) die „richtige“ ist.
Nehmen wir zum Beispiel das Trolley-Dilemma. Jemand, der an Utilitarismus oder Konsequentialismus glaubt, der der Ansicht ist, dass eine Handlung moralisch ist, wenn sie gute Folgen hat und insbesondere wenn sie das Gesamtwohl maximiert, wird sagen, dass Sie den einen opfern sollten, um die fünf zu retten. Aber jemand, der an Deontologie glaubt, wird gegen das Opfer argumentieren, weil er glaubt, dass eine Handlung moralisch ist, wenn sie eine Pflicht erfüllt – und Sie haben die Pflicht, niemanden als Mittel zum Zweck zu töten, wie viel „Gutes“ es auch bringen mag.
Was das „Richtige“ ist, hängt davon ab, an welche Moraltheorie Sie glauben. Und das hängt von Ihrer persönlichen Intuition und Ihrem kulturellen Kontext ab; Eine interkulturelle Studie ergab, dass Teilnehmer aus östlichen Ländern weniger geneigt sind, jemanden bei Problemen mit der Straßenbahn zu opfern, als Teilnehmer aus westlichen Ländern.
Abgesehen davon, selbst wenn Sie sich nur an eine Moraltheorie halten, kann dieselbe Handlung je nach den spezifischen Umständen gemäß dieser Theorie richtig oder falsch sein. In ein aktuelles Papier über die moralische Verbesserung der KI, ziehen die Philosophen Richard Volkman und Katleen Gabriels diesen Punkt heraus. „Töten zur Selbstverteidigung verstößt gegen die moralische Regel ‚nicht töten‘, rechtfertigt aber eine ethische und rechtliche Bewertung im Gegensatz zum Töten für Profit“, schreiben sie. „Die Bewertung von Abweichungen von einer moralischen Regel erfordert Kontext, aber es ist äußerst schwierig, einer KI beizubringen, zuverlässig zwischen Kontexten zu unterscheiden.“
Sie führen auch das Beispiel von Rosa Parks an, um zu zeigen, wie schwierig es wäre, Ethik algorithmisch zu formalisieren, wenn man bedenkt, dass es manchmal sogar gut ist, die Regeln zu brechen. „Als Rosa Parks sich 1955 weigerte, ihren Sitzplatz im Bus für einen weißen Passagier in Alabama zu räumen, tat sie etwas Illegales“, schreiben sie. Dennoch bewundern wir ihre Entscheidung, weil sie „zu großen Durchbrüchen für die amerikanische Bürgerrechtsbewegung führte, angeheizt von Wut und Gefühlen der Ungerechtigkeit. Emotionen zu haben kann wesentlich sein, um die Gesellschaft moralisch besser zu machen. Eine KI zu haben, die konsistent und konform mit bestehenden Normen und Gesetzen ist, könnte daher den moralischen Fortschritt gefährden.“
Damit kommen wir zu einem weiteren wichtigen Punkt. Während wir Emotionen oft als „trübendes“ oder „voreingenommenes“ rationales Urteil sehen, sind Gefühle untrennbar mit Moral verbunden. Zunächst einmal sind sie wohl das, was das ganze Phänomen der Moral überhaupt erst motiviert – es ist unklar, wie moralisches Verhalten als Konzept entstanden sein könnte, ohne dass Menschen spüren, dass etwas unfair, sagen wir, oder grausam ist.
Und obwohl Ökonomen Rationalität auf eine Weise formuliert haben, die Emotionen ausschließt – denken Sie an den klassischen Homo oeconomicus, diesen Econ 101, der rein durch rationales Eigeninteresse und Kalkül motiviert ist –, glauben viele Neurowissenschaftler und Psychologen jetzt, dass es sinnvoller ist, unsere Emotionen als ein zu sehen Taste Teil unserer moralischen Argumentation und Entscheidungsfindung. Emotionen sind eine hilfreiche Heuristikdie uns hilft, schnell zu bestimmen, wie wir uns in einer Weise verhalten können, die den gesellschaftlichen Normen entspricht und den sozialen Zusammenhalt sicherstellt.
Diese umfassende Sichtweise der Rationalität entspricht eher den Ansichten früherer Philosophen, die von Immanuel Kant und Adam Smith bis zurück zu Aristoteles reichen, der über Phronesis oder praktische Weisheit sprach. Jemand mit verfeinerter Phronesis ist nicht nur in abstrakten moralischen Prinzipien belesen (wie es ChatGPT mit seinen 570 Gigabyte Trainingsdaten). Sie sind in der Lage, viele Faktoren zu berücksichtigen – moralische Prinzipien, den sozialen Kontext, Emotionen – und herauszufinden, wie man in einer bestimmten Situation klug handelt.
Diese Art von moralischer Intuition „kann nicht einfach formalisiert werden“, schreiben Volkman und Gabriels, in der Weise, wie die Fähigkeit von ChatGPT, vorherzusagen, welches Wort auf das vorherige folgen sollte, formalisiert werden kann. Wenn Moral von Emotionen durchdrungen ist und sie zu einem grundlegend verkörperten menschlichen Streben macht, kann der Wunsch, Moral zu mathematisieren, inkohärent sein.
„In einem Trolley-Dilemma möchten die Leute vielleicht mehr Leben retten, aber wenn diese eine Person auf den Gleisen Ihre Mutter ist, treffen Sie eine andere Entscheidung“, sagte Gabriels mir. „Aber ein System wie ChatGPT weiß nicht, was es heißt, eine Mutter zu haben, sich zu fühlen, erwachsen zu werden. Es erfährt nicht. Es wäre also wirklich seltsam, Ihren Rat von einer Technologie zu erhalten, die nicht weiß, was das ist.“
Obwohl es für Sie sehr menschlich wäre, Ihrer eigenen Mutter in einer lebensbedrohlichen Situation den Vorrang zu geben, würden wir nicht unbedingt wollen, dass Ärzte Entscheidungen auf diese Weise treffen. Deshalb haben Krankenhäuser Triage-Systeme, die die Schlimmsten bevorzugen. Emotionen mögen eine nützliche Heuristik für viele unserer Entscheidungen als Individuen sein, aber wir betrachten sie nicht als fehlerfreien Leitfaden dafür, was auf gesellschaftlicher Ebene zu tun ist. Die Forschung zeigt, dass wir öffentliche Führungskräfte als moralischer und vertrauenswürdiger ansehen, wenn sie die Logik des Utilitarismus annehmen, dass alle gleich zählen, obwohl wir Deontologen in unserem Privatleben stark bevorzugen.
Es könnte also Raum für KI geben, die bei Entscheidungen auf gesellschaftlicher Ebene hilft, wie Triage-Systeme (und einige Krankenhäuser). verwenden bereits KI genau für diesen Zweck). Aber wenn es um unsere Entscheidungsfindung als Individuen geht, wenn wir versuchen, unser moralisches Denken an KI auszulagern, arbeiten wir nicht daran, unsere Phronesis zu verfeinern und zu verfeinern. Ohne Übung gelingt es uns möglicherweise nicht, diese Fähigkeit zu praktischer Weisheit zu entwickeln, was zu dem führt, was die Technologiephilosophin Shannon Vallor genannt hat „moralische Dequalifizierung“.
Gibt es einen besseren Weg, KI-Moralberater zu entwerfen?
All dies wirft schwierige Designfragen für KI-Entwickler auf. Sollten sie Chatbots entwickeln, die sich einfach weigern, moralische Urteile wie „X ist das Richtige“ oder „Y ist das Falsche“ zu fällen, so wie KI-Unternehmen ihre Bots so programmiert haben, dass sie bestimmte kontroverse Themen ausschließen ?
„Praktisch denke ich, dass das wahrscheinlich nicht funktionieren könnte. Die Leute würden immer noch Wege finden, es zu benutzen, um moralische Fragen zu stellen“, sagte mir Volkman. „Aber was noch wichtiger ist, ich glaube nicht, dass es einen prinzipiellen Weg gibt, Diskussionen über Moral oder Werte vom Rest des Diskurses abzutrennen.“
Im Philosophieunterricht nehmen moralische Fragen die Form von kanonischen Beispielen wie dem Trolley-Dilemma an. Aber im wirklichen Leben zeigt sich Ethik viel subtiler, von der Wahl einer Schule für Ihr Kind bis hin zur Entscheidung, wo Sie in den Urlaub fahren. Es ist also schwer vorstellbar, wie ethisch gefärbte Fragen sauber von allem anderen abgegrenzt werden könnten.
Stattdessen denken einige Philosophen, dass wir idealerweise haben sollten KI, die sich wie Sokrates verhält. Der altgriechische Philosoph stellte seinen Schülern und Kollegen bekanntlich eine Frage nach der anderen, um zugrunde liegende Annahmen und Widersprüche in ihren Überzeugungen aufzudecken. Eine sokratische KI würde Ihnen nicht sagen, was Sie glauben sollen; Es würde nur helfen, die moralisch herausragenden Merkmale Ihrer Situation zu identifizieren und Ihnen Fragen zu stellen, die Ihnen helfen, zu verdeutlichen, was Sie glauben.
„Mir persönlich gefällt dieser Ansatz“, sagt Matthias Uhl, einer der Co-Autoren der ChatGPT-Studie. „Der sokratische Ansatz ist eigentlich auch das, was Therapeuten tun. Sie sagen: ‚Ich gebe dir keine Antworten, ich helfe dir nur dabei, die richtigen Fragen zu stellen.‘ Aber auch ein sokratischer Algorithmus kann einen großen Einfluss haben, weil die Fragen, die er stellt, Sie auf bestimmte Spuren führen können. Sie können einen manipulativen Sokrates haben.“
Um diese Bedenken auszuräumen und sicherzustellen, dass wir Zugang zu einem wirklich pluralistischen Ideenmarkt haben, schlagen Volkman und Gabriel vor, dass wir nicht eine, sondern mehrere sokratische KIs zur Verfügung haben sollten, die uns beraten. „Das Gesamtsystem könnte nicht nur einen virtuellen Sokrates, sondern auch einen virtuellen Epiktet, einen virtuellen Konfuzius beinhalten“, schreiben sie. „Jeder dieser KI-Mentoren würde im laufenden Dialog nicht nur mit dem Benutzer, sondern möglicherweise auch untereinander einen eigenen Standpunkt einnehmen.“ Es wäre, als hätten Sie einen Raum voller unglaublich belesener und vielfältiger Freunde zur Hand, die Ihnen rund um die Uhr helfen möchten.
Abgesehen davon, dass sie sich in einer bedeutsamen Weise von Freunden unterscheiden würden. Sie wären nicht menschlich. Das wären Maschinen, die das ganze Internet gelesen haben, den kollektiven Schwarmgeist, und die dann als interaktive Bücher funktionieren. Im besten Fall würden sie helfen Ihnen zu erkennen, wenn einige Ihrer Intuitionen mit einigen Ihrer moralischen Prinzipien kollidierenund führen Sie zu einer Lösung.
Darin mag ein gewisser Nutzen liegen. Aber denken Sie daran: Maschinen wissen nicht, was es heißt, Ihre einzigartigen Umstände zu erleben. Obwohl sie Ihr Denken in gewisser Weise erweitern könnten, können sie Ihre menschliche moralische Intuition nicht ersetzen.