Laut einer am 15. Mai veröffentlichten Umfrage der Anti-Defamation League (ADL) glauben drei Viertel der Amerikaner, dass generative künstliche Intelligenz (GAI) zur Förderung des Antisemitismus in den Vereinigten Staaten eingesetzt werden kann, schreibt Danielle Greiman-Kennard von der Jerusalem Post . Daten aus Antworten von 1.007 amerikanischen Erwachsenen wurden bei der Anhörung des US-Senats zu GAI vorgestellt.
Probleme im Zusammenhang mit generativer künstlicher Intelligenz
Laut der Umfrage sind 75 % der Amerikaner zutiefst besorgt, dass GAI „missbraucht“ werden könnte, um Hass und Beleidigungen zu schüren. Darüber hinaus glauben 75 % der Befragten, dass GAI zu voreingenommenen Inhalten führen kann. „Wenn wir aus anderen neuen Technologien etwas gelernt haben, müssen wir uns vor dem potenziellen Risiko extremer Schäden durch generative KI schützen, bevor es zu spät ist“, sagte Jonathan Greenblatt, CEO von ADL. „Wir sind wie die meisten Amerikaner zutiefst besorgt darüber, dass diese Plattformen das bereits hohe Maß an Antisemitismus und Hass in unserer Gesellschaft noch verstärken könnten und das Risiko besteht, dass sie zur Verbreitung von Fehlinformationen und zum Anheizen von Extremismus missbraucht werden.“
Die Umfrage ergab, dass 70 % der Befragten glauben, dass GAI zu mehr Antisemitismus, Extremismus und Hass in den USA beitragen wird. Darüber hinaus glauben 75 %, dass die Tools Inhalte erstellen werden, die voreingenommen gegen marginalisierte Gruppen gerichtet sind. „Es besteht kein Zweifel daran, dass mit einem verbesserten Zugang zu GAI viele spannende technologische Fortschritte möglich sind“, sagte Yael Eizenstat, Vizepräsidentin des ADL Center for Technology and Society. „Aber diese Technologie kann missbraucht werden, um im Internet noch mehr Hass, Beleidigungen und Extremismus zu schüren. Da Gesetzgeber und Branchenführer der Innovation Priorität einräumen, müssen sie sich auch mit diesen Problemen befassen, um deren Missbrauch zu verhindern. Wir freuen uns darauf, mit politischen Entscheidungsträgern, Branchenführern und Forschern zusammenzuarbeiten, während sie den Standard für GAI festlegen.“
Fast 90 % der Befragten sind der Meinung, dass private Unternehmen sicherstellen sollten, dass ihre GAI-Tools keine schädlichen Inhalte erstellen. Dies würde bedeuten, extremistische oder antisemitische Bilder einzuschränken. Darüber hinaus befürchteten 77 % der Befragten, dass das GAI zur Radikalisierung und Rekrutierung neuer Extremisten genutzt werden könnte.
Was ist generative künstliche Intelligenz?
GAI ist ein Tool zum Erstellen neuer Bilder, Videos und Audios. Die Nutzung der Technologie erfordert nur sehr wenige Fähigkeiten und ist daher für die breite Masse zugänglich. Laut The Guardian sind 96 % der Deepfakes (synthetisierte Bilder auf Basis künstlicher Intelligenz) pornographisch. In vielen gefälschten Materialien wurden die Gesichter von Prominenten auf den nackten Körpern von Pornostars platziert. Während die meisten Deepfakes für Pornos verwendet werden, wurde die Technologie auch in anderen kriminellen Projekten eingesetzt. Laut The Guardian wurde eine ungarische Bank betrogen und verlor 200.000 Pfund, nachdem die Stimme eines CEO verwendet wurde. Diese Technologie wurde auch verwendet, um gefälschte Social-Media-Konten zu Spionagezwecken zu erstellen.
Die Notwendigkeit, Technologie zu kontrollieren
Sam Altman, CEO von OpenAI, sprach bei einer Anhörung im US-Senat und forderte die Gesetzgeber auf, Regeln für KI festzulegen. „Wir glauben, dass staatliche Eingriffe von entscheidender Bedeutung sein werden, um die mit immer leistungsfähigeren Modellen verbundenen Risiken zu mindern“, sagte Altman laut CNN. Auch Senator Richard Blumenthal sprach bei der Anhörung und präsentierte eine gefälschte Aufnahme seiner Stimme, um die potenziellen Risiken der Technologie aufzuzeigen. Die Aufnahme enthielt eine von ChatGPT verfasste Rede und GAI nutzte seine früheren Reden, um ihre Stimme zu kreieren. Blumenthal fügte hinzu, dass ein Deepfake zu Aussagen führen könnte, die schädlich sein könnten.