Luftdicht produzieren, Genaue Fakten sind nicht die Stärke von ChatGPT. Das von OpenAI erstellte große Sprachmodell ist bekannt dafür, Informationen zu fabrizieren für seine eigenen Zwecke – geradezu im Dienst stehen, um schnell flüssigen Text zu generieren oder Aufgaben zu erledigen. Aber ist ChatGPT rechtlich für seine Unwahrheiten verantwortlich? Können die Erfindungen einer künstlichen Intelligenz schädlich und diffamierend sein und kann das Unternehmen dahinter haftbar gemacht werden?

Ein australischer Politiker will es herausfinden, was die erste Verleumdungsklage gegen eine KI werden könnte. Brian Hood, der regionale Bürgermeister von Hepburn Shire, ist bereit, OpenAI zu verklagen, wenn das Unternehmen falsche Informationen über ihn, die in ChatGPT angezeigt werden, nicht angemessen adressiert und korrigiert, per ein Bericht von Reuters.

Berichten zufolge hat die KI Hood fälschlicherweise als verurteilten Kriminellen bezeichnet, der in einen früheren, sehr realen Bestechungsskandal bei der australischen Reserve Bank (RBA) verwickelt war. Im Jahr 2011 haben Beamte einer RBA-Tochter, Note Printing Australia, wurden für schuldig befunden wegen Verschwörung zur Bestechung ausländischer Regierungsbeamter. Die strafbaren Handlungen fanden zwischen 1999 und 2004 statt. Mehrere Beamte wurden verurteilt für ihre Beteiligung an den Verbrechen.

Und laut den Anwälten des Politikers gehörte Hood zumindest eine Zeit lang, wenn Sie ChatGPT zuhörten, zu denen, die an dem schändlichen Plan teilnahmen. Dennoch wurde Hood im RBA-Skandal nie eines Verbrechens für schuldig befunden. Er wurde nie angeklagt. Tatsächlich war es Hood der Whistleblower der die Missetaten ans Licht brachte – der sprichwörtliche Held, nicht der Bösewicht der Geschichte.

Siehe auch  Für die Energiewende droht eine Kupferknappheit

Berichten zufolge machte sich der lokale Politiker Sorgen um seinen Ruf, nachdem zahlreiche Mitglieder der Öffentlichkeit ihm gegenüber erwähnt hatten, dass ChatGPT ihn laut Reuters als Kriminellen auflistete. Also kontaktierte er seine Anwälte.

Das Rechtsteam von Hood schickte am 21. März ein Bedenkenschreiben an OpenAI und gewährte dem Unternehmen 28 Tage Zeit, um die Ungenauigkeit zu beheben, so die Verkaufsstelle. Das in San Francisco ansässige Unternehmen unter der Leitung von Sam Altman hat jedoch noch nicht geantwortet, sagten die Anwälte gegenüber Reuters.

Wenn das Bedenkenschreiben zu einer Klage führt, „wäre dies möglicherweise ein Meilenstein“, sagte James Naughton, einer der Anwälte der Anwaltskanzlei, die Hood, Gordon Legal, vertritt, gegenüber Reuters. „Es wendet dieses Verleumdungsgesetz auf einen neuen Bereich der künstlichen Intelligenz an.“

Gizmodo wandte sich mit Fragen außerhalb der Geschäftszeiten sowohl an Gordon Legal als auch an OpenAI, aber weder das Unternehmen noch die Anwaltskanzlei antworteten zum Zeitpunkt der Veröffentlichung.

OpenAI enthält einen Haftungsausschluss über die Genauigkeit von ChatGPT (oder deren Fehlen). Nutzungsbedingungen. „Unsere Dienste können in einigen Situationen zu falschen Ergebnissen führen, die echte Personen, Orte oder Tatsachen nicht genau wiedergeben“, stellt das Unternehmen fest. Das bedeutet jedoch nicht unbedingt, dass das Unternehmen für diese Lügen nicht zur Rechenschaft gezogen werden kann. Und Hoods Anwälte sagen, dass es so sein muss. „Er ist ein gewählter Beamter, sein Ruf ist von zentraler Bedeutung für seine Rolle“, sagte Naughton gegenüber Reuters. „Für ihn macht es einen Unterschied, ob Menschen in seiner Gemeinde auf dieses Material zugreifen.“

Insbesondere würde sich jede Klage auf das Fehlen von Fußnoten von ChatGPT konzentrieren, was ein falsches und nicht überprüfbares Gefühl vermittelt, dass der von ihm bereitgestellte Text der Realität entspricht, sagte Naughton weiter. „Es ist sehr schwierig für jemanden, dahinter zu schauen und zu sagen: ‚Wie kommt der Algorithmus zu dieser Antwort?’“, bemerkte Naughton. „Es ist sehr undurchsichtig.“

Siehe auch  Natalie Portman über Jane Fosters „Big“ Storyline in „Thor: Love and Thunder“.

Die finanziellen Folgen einer Verleumdungsklage für OpenAI wären wahrscheinlich nicht sehr erheblich. Schäden in Australien sind laut Reuters auf weniger als 300.000 US-Dollar begrenzt. Sollte der Fall jedoch voranschreiten und letztendlich zugunsten des Bürgermeisters ausgehen, könnte dies einen bedeutenden globalen Präzedenzfall für die Höhe der Haftung von Technologieunternehmen schaffen, wenn es um von KI verursachte Fehler und Fehlinformationen geht.

Massive Mainstream-Technologieunternehmen wie Microsoft und Google haben bereits daran gearbeitet, generative KI in viele ihrer Produkte zu integrieren. Und selbst bei den allerersten öffentlichen Launch-Events tauchte das offensichtliche Problem der KI-Lügen für beide auf Googles Barde Und Bing von Microsoft. Aber bisher mussten sich diese Technologiegiganten nicht rechtlich für die schlechten Informationen verantworten, die sie den Benutzern zur Verfügung stellen.

Jede Klage könnte große Auswirkungen auf Microsoft haben, insbesondere, das die Technologie von OpenAI in seiner eigenen KI-gestützten Suche und Chat-Verfolgung verwendet ein milliardenschweres Partnerschaftsabkommen. Hinweis: Die Microsoft-Version der Technologie enthält Fußnoten, aber das sind sie nicht immer die klarste und zuverlässigste. Gizmodo bat das Unternehmen um einen Kommentar, erhielt jedoch nicht sofort eine Antwort.

Obwohl Hoods Anwälte Reuters mitteilten, dass OpenAI nicht auf ihre Bedenken geantwortet habe, testete Gizmodo kurz, ob ChatGPT immer noch Lügen über den Bürgermeister verbreitete. In mehreren Hin- und Herrunden, in denen ich Fragen zu Hood und den Bestechungsverurteilungen von 2011 stellte, konnte ich den Bot nicht dazu bringen, mir zu sagen, dass er ein Krimineller war oder wegen irgendeines Verbrechens angeklagt wurde. Stattdessen scheint die KI jetzt zu verstehen, dass Hood der Gute in dem Skandal war. Trotzdem hat ChatGPT einige Details in seinem Bericht über die Vorgeschichte der australischen Regierung immer noch falsch charakterisiert.

Siehe auch  X-Men '97 Panel Footage Beschreibung

„Der Whistleblower im Bestechungsskandal 2011 bei der Reserve Bank of Australia (RBA) war Brian Hood, ein ehemaliger Agent von Securency International, einem Joint Venture zwischen der RBA-eigenen Note Printing Australia und einem britischen Unternehmen“, schrieb sie. Hood war jedoch kein ehemaliger Agent bei Securency International. Er war Sekretär bei Note Printing Australia, per ein Bericht des Sydney Morning Herald aus dem Jahr 2013. Der Bot behauptete auch, dass nur zwei Beamte ihrer Anklage für schuldig befunden wurden, aber die tatsächliche Zahl ist größer. Diese Fehler sind vielleicht nicht verleumderisch, aber sie sind dennoch unwahr.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein