Obersten Zeile
Datenschutzaktivisten reichten am Montag eine Beschwerde gegen den chatgpt-Hersteller OpenAI ein, weil das Unternehmen Fehlinformationen, die sein Chatbot regelmäßig über Menschen „halluziniert“, nicht korrigiert hat Problem, da sie darum kämpfen, die KI-Tools für mehr Kunden bereitzustellen.
Wichtige Fakten
Die in Wien ansässige Non-Profit-Organisation noyb, kurz für „none of your business, abgelegt ein Datenschutz Beschwerde mit der österreichischen Datenaufsichtsbehörde und wirft OpenAI einen Verstoß gegen die europäische Datenschutz-Grundverordnung (DSGVO) vor, das strengste Datenschutz- und Sicherheitsgesetz der Welt.
„Einfaches Erfinden von Daten über Einzelpersonen ist keine Option“, sagte die Gruppe in einer Erklärung zu der Beschwerde, die im Namen einer ungenannten „Persönlichkeit des öffentlichen Lebens“ eingereicht wurde und OpenAI vorwirft, sich geweigert zu haben, falsche Informationen und Aussagen zu korrigieren oder zu löschen über das Individuum erfunden.
Die Gruppe sagte beispielsweise, dass ChatGPT „verschiedene ungenaue Informationen“ gegeben habe, als es nach dem Geburtsdatum der Figur gefragt wurde, und dass OpenAI gesagt habe, dass „es keine Möglichkeit gibt, zu verhindern, dass seine Systeme“ die falschen Informationen anzeigen.
Stattdessen hieß es in der Beschwerde, dass OpenAI nur anbot, Ergebnisse basierend auf Eingabeaufforderungen wie dem Namen der Figur zu blockieren oder zu filtern – wodurch alle Informationen über sie gefiltert würden – was laut Noyb immer noch die falschen Daten in den Systemen von OpenAI belassen würde, „nur nicht den Benutzern angezeigt“.
Es warf OpenAI außerdem vor, auf Anfrage relevante Informationen über die Person nicht offengelegt zu haben, einschließlich der verarbeiteten Daten, ihrer Quellen und der Personen, an die sie weitergegeben wurden. Eine gesetzliche Verpflichtung, die Noyb-Anwältin Maartje de Graaf sagte, gilt „für alle Unternehmen“, und fügte hinzu dass es „eindeutig möglich“ sei, beim Training eines KI-Systems den Überblick über Informationsquellen zu behalten.
OpenAI, das zuvor anerkannt die Problem-KI Halluzinationen Pose auf Tools wie ChatGPT, reagierte nicht sofort auf die Bitte von Forbes um einen Kommentar.
Entscheidendes Zitat
„Das Erfinden falscher Informationen ist an sich schon ziemlich problematisch. Aber wenn es um falsche Informationen über Einzelpersonen geht, kann das schwerwiegende Folgen haben“, sagte de Graaf in einer Erklärung. „Es ist klar, dass Unternehmen derzeit nicht in der Lage sind, Chatbots wie ChatGPT bei der Verarbeitung von Daten über Einzelpersonen mit EU-Recht in Einklang zu bringen. Wenn ein System keine genauen und transparenten Ergebnisse liefern kann, kann es nicht zur Generierung von Daten über Einzelpersonen verwendet werden. Die Technik muss den gesetzlichen Vorgaben folgen, nicht umgekehrt.“
Nachrichten-Peg
Die Beschwerde erhöht den Einsatz gegen OpenAI hinsichtlich der Art und Weise, wie es die Modelle verwendet und trainiert, die ChatGPT unterstützen. Das Unternehmen sieht sich, wie viele führende Hersteller generativer KI, bereits mit einer Vielzahl von Urheberrechtsklagen wegen der Daten konfrontiert, die es zum Trainieren seiner Modelle verwendet hat, sowie einer Reihe anderer rechtlicher Fragen, wie zum Beispiel der Privatsphäre der Daten, die es für das Training gesammelt hat. Auch sogenannte Halluzinationen, bei denen das KI-System auf eine Aufforderung hin ein irreführendes oder falsches Ergebnis liefert, es aber als wahr darstellt, werden zunehmend legalisiert Kopfschmerzenso wie ein Diffamierung Klage eines Radiomoderators in Georgia. Die Beschwerde ist nicht das erste Mal, dass OpenAI gegen Europas strenges Datenschutzregime stößt, und das Unternehmen war es bereits gezwungen Änderungen durch die italienische Datenschutzbehörde im Jahr 2023 vorzunehmen.
Worauf Sie achten sollten
Bei der DSGVO handelt es sich um ein wirkungsvolles Regelwerk, das ein Unternehmen dazu zwingen kann, wesentliche Änderungen an seinen Abläufen vorzunehmen, um den Betrieb im größten Handelsblock der Welt aufrechtzuerhalten. Es ermächtigt die Regulierungsbehörden außerdem, Bußgelder in Höhe von bis zu 4 % des weltweiten Umsatzes zu erheben. Datenbeschwerden können sich auf die gesamte EU erstrecken, wenn das Problem über die Grenzen eines Landes hinausgeht und die Untersuchungen durch kooperierende Aufsichtsbehörden erfolgen. Noyb sagte, es gehe davon aus, dass die Angelegenheit auf diese Weise behandelt werde, was möglicherweise den Einsatz für OpenAI erhöhen werde, obwohl es Jahre dauern könne, bis die Ermittlungen geklärt seien. KI-Firmen werden den Ausgang des Falles aufmerksam beobachten.
Wichtiger Hintergrund
Noyb ist seit seiner Gründung im Jahr 2017 eine starke Kraft im europäischen Datenschutzbereich und führte insgesamt 839 Fälle ein, die zu Geldstrafen in Höhe von 1,74 Milliarden Euro (1,86 Milliarden US-Dollar) führten. Sein Mitbegründer Max Schrems ist der Aktivist und Anwalt, der hinter einigen der verheerendsten Herausforderungen für Datenaustauschabkommen zwischen den USA und der EU für große Unternehmen wie Meta steht. Die Herausforderungen von Schrems führten letztendlich zum Scheitern zweier dieser großen Abkommen – dem Privacy Shield und dem EU-US Safe Harbor –, was die Unternehmen dazu zwang, das Online-Geschäft zu überdenken.
Forbes-Bewertung
Nach Schätzungen von Forbes ist Altman 1 Milliarde Dollar wert. Obwohl Altman vor allem als Mitbegründer und Leiter von OpenAI bekannt ist, ist er nicht daran beteiligt und verdankt sein Vermögen nicht ihr. Stattdessen verdankt Altman sein Vermögen und seinen Milliardärsstatus seinen Investitionen, zu denen Anteile an dem neu an die Börse gebrachten Reddit, dem Fintech-Liebling Stripe und dem Kernfusionsunternehmen Helion gehören. Vor OpenAI gründete Altman das Social-Mapping-Unternehmen Loopt und war Partner und Präsident des Startup-Accelerators Y Combinator.
Weiterführende Literatur
OpenAI verfolgt einen neuen Weg zur Bekämpfung von KI-„Halluzinationen“ (CNBC)
Der GPT-Store von OpenAI löst Urheberrechtsbeschwerden aus (Verdrahtet)