Wir haben alle von sogenannten KI-„Halluzinationen“ gehört, wenn KI-Programme wie chatgpt „Fakten“ erfinden, die nicht wahr sind. Beispielsweise sind Anwälte in Schwierigkeiten geraten, weil sie gefälschte, von der KI generierte Gerichtsverfahren zitiert haben, über die wir geschrieben haben Hier Und Hier. Aber könnte auch der Ersteller der KI-Plattform selbst zur Verantwortung gezogen werden?
Der konservative Radiomoderator Mark Walters ist dieser Meinung. Walters hat den Erfinder von ChatGPT, OpenAI, wegen Verleumdung in Georgia aufgrund einer angeblichen ChatGPT-Halluzination verklagt. In diesem Fall – der offenbar der erste seiner Art ist – geht es um die Frage, ob es sich bei der Ausgabe von ChatGPT um eine „Veröffentlichung“ handelt, die ausreicht, um eine Verleumdungsklage zu untermauern. Derzeit steckt der Fall jedoch in einem Verfahrensstreit, der wahrscheinlich eine materielle Entscheidung verzögern wird.
Im Mittelpunkt der Klage von Walters steht die Nutzung von ChatGPT durch einen Reporter, um eine Geschichte über eine in Washington eingereichte Bundesklage zu recherchieren. Walters behauptet, der Reporter habe ChatGPT einen Link zur Beschwerde bereitgestellt und ChatGPT gebeten, diese zusammenzufassen. Obwohl Walters nicht wirklich als Angeklagter genannt wurde, soll ChatGPT den Reporter darüber informiert haben, dass Walters in der Klage „Betrug und Unterschlagung von Geldern“ vorgeworfen wurde. Anschließend wurde angeblich eine Kopie der angeblichen Beschwerde gegen Walters vorgelegt, die vollständig erfunden war.
Walters behauptet, OpenAI habe dem Reporter gesagt, dass die Antworten von ChatGPT korrekt seien, obwohl er wusste, dass ChatGPT manchmal „halluziniert“. Walters fordert Schadensersatz auf der Grundlage der Aussagen von OpenAI gegenüber dem Reporter, die seiner Meinung nach verleumderisch seien.
Walters reichte ursprünglich Klage beim Gericht des US-Bundesstaates Georgia ein, aber OpenAI verwies den Fall aufgrund der Diversitätsgerichtsbarkeit an ein Bundesgericht und beantragte die Abweisung. OpenAI argumentierte unter anderem, dass Walters keine Verleumdung nachweisen könne, weil der Reporter die Ausgabe von ChatGPT nicht als verleumderisch angesehen habe und vernünftigerweise auch nicht hätte ansehen können, da aus der vollständigen Abschrift der Chats des Reporters mit ChatGPT hervorgehe, dass der Reporter ChatGPT mitgeteilt habe, dass die Ausgaben verleumderisch seien FALSCH. OpenAI behauptete außerdem, dass die Ausgabe von ChatGPT keine „Veröffentlichung“ im Sinne einer Verleumdungsklage sei, da es sich bei der Ausgabe lediglich um „Inhaltsentwürfe zum internen Nutzen des Benutzers“ handele.
Walters lehnte den Antrag ab, reichte aber gleichzeitig eine geänderte Beschwerde ein, die den Antrag auf Abweisung möglicherweise umgeht. Einige Wochen später erließ das Gericht eine Anordnung, mit der OpenAI angewiesen wurde, Fakten offenzulegen, die die Vielfalt der Staatsbürgerschaften der Parteien belegen. OpenAI reagierte, indem es sich weigerte, zusätzliche Fakten anzugeben und seine Entfernungsmitteilung zurückzog. Walters fordert nun Anwaltskosten im Zusammenhang mit der Entfernung von OpenAI.
Walters‘ Fall wird wahrscheinlich wieder vor einem staatlichen Gericht landen und möglicherweise mit einem erneuten Antrag auf Abweisung konfrontiert werden. Welches Gericht letztendlich auch den Fall beaufsichtigt, muss sich letztendlich mit den schwierigen Fragen im Zusammenhang mit dem Verhalten einer Maschine befassen, der das Wissen und die Absicht eines menschlichen Akteurs fehlt, die aber letztlich von menschlichen Puppenspielern gesteuert wird.