Im Frühjahr 2023 erklärte OpenAI-CEO Sam Altman vor dem US-Kongress, dass eine seiner schlimmsten Befürchtungen sei, dass die Technologie der künstlichen Intelligenz (KI) „der Welt erheblichen Schaden zufügen“ würde.
Es war eine deutliche Botschaft an alle Zuhörer hinsichtlich der potenziellen Macht und möglichen Gefahr von KI. Es war auch ein Weckruf an die Regierungen, aufzustehen, aufmerksam zu werden und Lehren aus dem Versäumnis zu ziehen, soziale Medien zu regulieren, als sie vor über einem Jahrzehnt weit verbreitet waren.
Der Ruf nach einer Regulierung der KI wird nicht nur von denjenigen gehört, die an der Entwicklung von KI-Software beteiligt sind. Regierungen sind besorgt über das schnelle Wachstum der Technologie, ihre Auswirkungen auf die Verbreitung von Fehlinformationen, die Bedrohung der Privatsphäre der Verbraucher und die Massenerfassung personenbezogener Daten.
In einem kürzlich erschienenen Artikel sagte das Cybersicherheitsunternehmen und Anbieter virtueller privater Netzwerke: ExpressVPN untersuchte, wie Deep Fakes, die mithilfe eines KI-Prozesses namens Deep Learning erstellt wurden, immer schwerer zu erkennen sind.
Während das kürzlich von der KI erzeugte Bild des Papstes in einer Pufferjacke für viele von uns ein amüsanter viraler Moment war, stellen falsche Narrative eindeutig eine ernsthafte Bedrohung dar, da sie den perfekten Nährboden für Desinformation bieten.
Datenfresser
Wie viele KI-Plattformen funktioniert auch das Textgenerierungstool chatgpt von OpenAI, indem es riesige Datenmengen aufsaugt, um seine Algorithmen für optimale Leistung zu trainieren. Beim Sammeln von Informationen fallen auch personenbezogene Daten an, sei es auf transparente Weise über Social-Media-Seiten, Blogs und Websites oder in verdeckterer Form über eine Internetprotokoll-Adresse (IP-Adresse).
In Amerika sind die Datenschutzgesetze komplex und je nach Bundesstaat unterschiedlich. In Europa werden die Bürger durch die Datenschutz-Grundverordnung (DSGVO) geschützt. Diese im Jahr 2018 eingeführten Schutzmaßnahmen schützen Benutzer davor, dass Dritte ihre Daten sammeln und verwenden, einfach weil diese online vorhanden sind.
Die DSGVO besagt (neben anderen Anforderungen), dass personenbezogene Daten auf ein Minimum beschränkt werden müssen, Einzelpersonen das Recht haben, auf ihre Daten zuzugreifen und deren Löschung zu verlangen, und dass die Daten sicher aufbewahrt werden müssen. Die Rechenschaftspflicht ist auch in den Schutzmaßnahmen der DSGVO verankert, wonach Unternehmen Aufzeichnungen darüber führen müssen, wie die von ihnen gespeicherten Daten gespeichert, verarbeitet und weitergegeben werden.
Dieses Datenschutzniveau stellt eindeutig eine Herausforderung für ChatGPT dar, das darauf angewiesen ist, Zugriff auf so viele Informationen wie möglich zu haben. Vor diesem Hintergrund verbot Italien ChatGPT im März 2023 vorübergehend mit der Begründung, dass das Textgenerierungstool gegen die Datenschutzgesetze des Landes verstoße.
Laut BBCDie italienische Datenschutzbehörde Garante sagte, es gebe keine Rechtsgrundlage für „die massenhafte Erhebung und Speicherung personenbezogener Daten zum Zweck des ‚Trainings‘ der dem Betrieb der Plattform zugrunde liegenden Algorithmen“.
Darüber hinaus hieß es, dass die App „Minderjährige im Vergleich zu ihrem Entwicklungs- und Bewusstseinsgrad völlig ungeeigneten Antworten aussetzt“. Italien hat das Verbot inzwischen aufgehoben. Laut einer Pressemitteilung von Garante vom 24. April 2023 hat OpenAI zugestimmt, „die Transparenz und Rechte für europäische Nutzer und Nichtnutzer zu erhöhen“.
Eine globale Bedrohung
Während Urheberrechtsverletzungen in Bezug auf von ChatGPT generierte Inhalte offen diskutiert werden, scheinen Datenschutzprobleme im Zusammenhang mit der KI-Plattform trotz der damit verbundenen Risiken nicht die gleiche Priorität zu haben. Es gab bereits einige schockierende Geschichten über Fehlinformationen, die von ChatGPT als Wahrheit weitergegeben wurden.
Das bisher vielleicht berühmteste Beispiel ist Jonathan Turley, ein amerikanischer Professor, der fälschlicherweise der sexuellen Belästigung beschuldigt wurde, nachdem ChatGPT eine nicht existierende Person zitiert hatte Washington Post Bericht.
Bedrohungsakteure – böswillige Einzelpersonen oder Gruppen, die in der Cyberwelt agieren – könnten erheblichen Schaden anrichten, indem sie von ChatGPT gesammelte Daten preisgeben, während die von ChatGPT gespeicherten personenbezogenen Daten die Fantasie eines Cyberkriminellen sind.
Ein weiteres Datenschutzrisiko, das durch die Entwicklung von KI entsteht, ist die Generierung von Deep Fakes und wie dadurch der sogenannte Mandela-Effekt ausgenutzt werden könnte.
Der Name dieses Phänomens geht auf die weit verbreitete Annahme zurück, dass Nelson Mandela in den 1980er Jahren starb, obwohl er tatsächlich bis 2013 lebte. Im Wesentlichen entsteht der Mandela-Effekt, wenn große Gruppen von Menschen glauben, dass falsche Fakten wahr sind.
Während KI sicherlich nicht für den Mandela-Effekt verantwortlich ist, der vermutlich durch einen Fehler in der menschlichen Psyche verursacht wird, ist diese Schwachstelle anfällig für Korruption durch KI und die böswillige Verbreitung von Desinformation über Einzelpersonen, politische Parteien oder sogar ganze Nationen.
Schöne neue Welt
Die OpenAI-Gründer Greg Brockman und Ilya Sutskever fordern zusammen mit ihrem CEO Sam Altman weiterhin eine internationale Regulierung der KI sowie eine koordinierte Anstrengung zur Schaffung von „Industriestandards“.
In einem offenen Brief, der auf der OpenAI-Website veröffentlicht wurde, schrieben sie: „Was sowohl die potenziellen Vor- als auch die Nachteile betrifft, wird Superintelligenz leistungsfähiger sein als andere Technologien, mit denen die Menschheit in der Vergangenheit zu kämpfen hatte.“ Wir können eine wesentlich wohlhabendere Zukunft haben; Aber wir müssen das Risiko managen, um dorthin zu gelangen. Angesichts der Möglichkeit eines existenziellen Risikos können wir nicht einfach reagieren.“