Vertreter der EU-Mitgliedsregierungen haben diesen Monat dem EU-KI-Gesetz zugestimmt.Bildnachweis: Jonathan Raa/NurPhoto über Getty

Die Länder der Europäischen Union sind bereit, die weltweit ersten umfassenden Gesetze zur Regulierung künstlicher Intelligenz (KI) zu verabschieden. Das EU-KI-Gesetz legt die strengsten Regeln für die riskantesten KI-Modelle fest und soll sicherstellen, dass KI-Systeme sicher sind und die Grundrechte und EU-Werte respektieren.

„Das Gesetz ist enorm folgenreich, da es unsere Denkweise über die KI-Regulierung prägt und einen Präzedenzfall schafft“, sagt Rishi Bommasani, der an der Stanford University in Kalifornien die gesellschaftlichen Auswirkungen von KI erforscht.

Die Gesetzgebung kommt mit der rasanten Entwicklung der KI. In diesem Jahr werden voraussichtlich neue Versionen generativer KI-Modelle auf den Markt kommen – wie etwa GPT, das chatgpt antreibt und von OpenAI in San Francisco, Kalifornien, entwickelt wurde – und bestehende Systeme werden für Betrügereien und zur Verbreitung von Fehlinformationen verwendet. China nutzt bereits einen Flickenteppich von Gesetzen, um die kommerzielle Nutzung von KI zu steuern, und die US-Regulierung ist im Gange. Im vergangenen Oktober unterzeichnete Präsident Joe Biden die erste KI-Durchführungsverordnung des Landes, in der er die Bundesbehörden dazu aufforderte, Maßnahmen zur Bewältigung der Risiken der KI zu ergreifen.

Die Regierungen der EU-Länder haben das Gesetz am 2. Februar gebilligt, und das Gesetz muss nun endgültig vom Europäischen Parlament, einem der drei Legislativzweige der EU, genehmigt werden. Dies wird voraussichtlich im April geschehen. Bleibt der Text unverändert, wie Politikbeobachter erwarten, wird das Gesetz im Jahr 2026 in Kraft treten.

Einige Forscher haben das Gesetz wegen seines Potenzials zur Förderung offener Wissenschaft begrüßt, während andere befürchten, dass es Innovationen ersticken könnte. Natur untersucht, wie sich das Gesetz auf die Forschung auswirken wird.

Siehe auch  Gemini, Googles lang erwartete Antwort auf ChatGPT, ist über Nacht ein Hit

Wie geht die EU vor?

Die EU hat sich dafür entschieden, KI-Modelle auf der Grundlage ihres potenziellen Risikos zu regulieren, indem sie strengere Regeln auf risikoreichere Anwendungen anwendet und separate Vorschriften für Allzweck-KI-Modelle wie GPT erlässt, die breite und unvorhersehbare Einsatzmöglichkeiten haben.

Das Gesetz verbietet KI-Systeme, die ein „inakzeptables Risiko“ bergen, beispielsweise solche, die biometrische Daten verwenden, um auf sensible Merkmale wie die sexuelle Orientierung von Menschen zu schließen. Hochriskante Anwendungen, wie der Einsatz von KI bei der Einstellung und Strafverfolgung, müssen bestimmte Verpflichtungen erfüllen; Beispielsweise müssen Entwickler nachweisen, dass ihre Modelle sicher, transparent und für Benutzer erklärbar sind und dass sie Datenschutzbestimmungen einhalten und nicht diskriminieren. Bei KI-Tools mit geringerem Risiko müssen Entwickler den Benutzern weiterhin mitteilen, wann sie mit KI-generierten Inhalten interagieren. Das Gesetz gilt für Models, die in der EU tätig sind, und jedes Unternehmen, das gegen die Regeln verstößt, riskiert eine Geldstrafe von bis zu 7 % seines jährlichen weltweiten Gewinns.

„Ich denke, das ist ein guter Ansatz“, sagt Dirk Hovy, Informatiker an der Bocconi-Universität in Mailand, Italien. KI sei schnell mächtig und allgegenwärtig geworden, sagt er. „Es ist absolut sinnvoll, einen Rahmen zu schaffen, der seine Nutzung und Entwicklung steuert.“

Manche glauben, dass die Gesetze nicht weit genug gehen und „klaffende“ Ausnahmen für militärische und nationale Sicherheitszwecke sowie Schlupflöcher für den KI-Einsatz bei der Strafverfolgung und Migration lassen, sagt Kilian Vieth-Ditlmann, Politikwissenschaftler bei AlgorithmWatch In Berlin ansässige gemeinnützige Organisation, die die Auswirkungen der Automatisierung auf die Gesellschaft untersucht.

Wie stark wird es die Forscher betreffen?

Theoretisch sehr wenig. Letztes Jahr fügte das Europäische Parlament dem Gesetzentwurf eine Klausel hinzu, die KI-Modelle, die ausschließlich für Forschung, Entwicklung oder Prototypenbau entwickelt werden, von der Ausnahme ausnehmen würde. Die EU habe hart daran gearbeitet, sicherzustellen, dass sich das Gesetz nicht negativ auf die Forschung auswirkt, sagt Joanna Bryson, die an der Hertie School in Berlin KI und ihre Regulierung studiert. „Sie wollen die Innovation wirklich nicht behindern, daher wäre ich erstaunt, wenn dies ein Problem darstellen würde.“

Siehe auch  Hacker schlugen Anti-Kriegsbotschaft des russischen Staatsfernsehens Tag des Sieges Putin
Viele Leute Schreiben An Reihen Geschwungener Schreibtische, Fotografiert Aus Einem Hohen Winkel.

Das Europäische Parlament muss dem Gesetz endgültig grünes Licht geben. Eine Abstimmung wird im April erwartet.Bildnachweis: Jean-Francois Badias/AP über Alamy

Aber das Gesetz wird wahrscheinlich immer noch Wirkung haben, indem es Forscher dazu bringt, über Transparenz, die Art und Weise, wie sie über ihre Modelle berichten, und mögliche Vorurteile nachzudenken, sagt Hovy. „Ich denke, es wird sich durchsetzen und bewährte Verfahren fördern“, sagt er.

Robert Kaczmarczyk, Arzt an der Technischen Universität München in Deutschland und Mitbegründer von LAION (Large-scale Artificial Intelligence Open Network), einer gemeinnützigen Organisation mit dem Ziel, maschinelles Lernen zu demokratisieren, befürchtet, dass das Gesetz kleine Unternehmen beim Autofahren behindern könnte Forschung, und die möglicherweise interne Strukturen einrichten müssen, um die Gesetze einzuhalten. „Als kleines Unternehmen ist es wirklich schwierig, sich anzupassen“, sagt er.

Was bedeutet das für leistungsstarke Modelle wie GPT?

Nach hitzigen Debatten entschieden sich die politischen Entscheidungsträger dafür, leistungsstarke Allzweckmodelle – wie die generativen Modelle, die Bilder, Code und Videos erstellen – in einer eigenen zweistufigen Kategorie zu regulieren.

Die erste Stufe umfasst alle Allzweckmodelle mit Ausnahme derjenigen, die nur in der Forschung verwendet oder unter einer Open-Source-Lizenz veröffentlicht werden. Diese unterliegen Transparenzanforderungen, einschließlich der detaillierten Angabe ihrer Schulungsmethoden und ihres Energieverbrauchs, und müssen nachweisen, dass sie die Urheberrechtsgesetze respektieren.

Die zweite, viel strengere Stufe umfasst Allzweckmodelle, von denen angenommen wird, dass sie über „Fähigkeiten mit hoher Auswirkung“ verfügen, die ein höheres „Systemrisiko“ darstellen. Diese Modelle unterliegen „einigen ziemlich erheblichen Verpflichtungen“, sagt Bommasani, darunter strenge Sicherheitstests und Cybersicherheitskontrollen. Entwickler müssen Details ihrer Architektur und Datenquellen veröffentlichen.

Für die EU ist „groß“ praktisch gleich gefährlich: jedes Modell, das mehr als 10 verwendet25 FLOPs (die Anzahl der Computeroperationen) im Training gelten als hochwirksam. Das Trainieren eines Modells mit dieser Rechenleistung kostet zwischen 50 und 100 Millionen US-Dollar – die Messlatte ist also hoch, sagt Bommasani. Es sollte Modelle wie GPT-4, das aktuelle Modell von OpenAI, erfassen und könnte zukünftige Iterationen von Metas Open-Source-Rivalen LLaMA umfassen. Open-Source-Modelle dieser Stufe unterliegen der Regulierung, Modelle, die nur der Forschung dienen, sind jedoch ausgenommen.

Siehe auch  Microsofts ChatGPT-ähnliche „Copilot“-App mit GPT-4, DALL-E 3 jetzt für Apple-Benutzer verfügbar | Technische Neuigkeiten

Einige Wissenschaftler sind gegen eine Regulierung von KI-Modellen und konzentrieren sich lieber auf deren Verwendung. „Intelligenter und leistungsfähiger bedeutet nicht mehr Schaden“, sagt Jenia Jitsev, KI-Forscherin am Jülich Supercomputing Centre in Deutschland und eine weitere Mitbegründerin von LAION. Jitsev fügt hinzu, dass es jeder wissenschaftlichen Grundlage entbehre, die Regulierung auf irgendeinen Grad der Leistungsfähigkeit zu stützen. Sie verwenden die Analogie, alle Chemikalien, die eine bestimmte Anzahl an Personenstunden erfordern, als gefährlich zu definieren. „Es ist so unproduktiv.“

Wird das Gesetz Open-Source-KI stärken?

EU-Politiker und Open-Source-Befürworter hoffen darauf. Das Gesetz schafft Anreize dafür, KI-Informationen verfügbar, reproduzierbar und transparent zu machen, was fast so ist, als würde man „das Manifest der Open-Source-Bewegung vorlesen“, sagt Hovy. Einige Modelle seien offener als andere, und es bleibe unklar, wie die Sprache des Gesetzes interpretiert werde, sagt Bommasani. Er glaubt jedoch, dass der Gesetzgeber beabsichtigt, Allzweckmodelle wie LLaMA-2 und die des Start-ups Mistral AI in Paris auszunehmen.

Der Ansatz der EU zur Förderung von Open-Source-KI unterscheide sich deutlich von der US-Strategie, sagt Bommasani. „Die Argumentation der EU ist, dass Open Source von entscheidender Bedeutung dafür sein wird, dass die EU mit den USA und China konkurriert.“

Wie soll das Gesetz durchgesetzt werden?

Die Europäische Kommission wird ein KI-Büro einrichten, das Allzweckmodelle überwacht und von unabhängigen Experten beraten wird. Das Büro wird Möglichkeiten entwickeln, die Fähigkeiten dieser Modelle zu bewerten und die damit verbundenen Risiken zu überwachen. Aber selbst wenn Unternehmen wie OpenAI die Vorschriften einhalten und beispielsweise ihre riesigen Datensätze einreichen, stellt Jitsev die Frage, ob eine öffentliche Einrichtung über die Ressourcen verfügt, die Eingaben angemessen zu prüfen. „Die Forderung nach Transparenz ist sehr wichtig“, sagen sie. „Aber es wurde wenig darüber nachgedacht, wie diese Verfahren durchgeführt werden müssen.“

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein