Die Bundesregierung mahnt Korrekturen an den seit Monaten umstrittenen Entwürfen aus dem EU-Parlament und dem Ministerrat für eine Verordnung für Systeme mit Künstlicher Intelligenz (KI) an. „Oberstes Ziel muss aus unserer Sicht eine innovationsfreundliche, zukunftsorientierte und ausbalancierte rechtliche Regelung sein“, schreibt die Exekutive in einem heise online vorliegenden Positionspapier. „Wir regen vor allem an, die Definitionen zu schärfen und stärker zu differenzieren.“ So sollte unterschieden werden zwischen grundlegenden KI-Modellen mit mehr Entwicklungsfreiraum und Systemen, „die für konkrete Anwendungen zur Verfügung stehen können“ und so detaillierterer Gebote bedürften.
Anzeige
Prinzipiell will die Regierung bei den laufenden Verhandlungen über das Gesetz klargestellt wissen, dass Systeme mit vielen möglichen Einsatzzwecken wie Sprach- oder Bilderkennung Ergebnisse für ein breites, beim Training der eingesetzten Algorithmen nicht immer vorhersehbares Spektrum von Aufgaben erzeugen könnten („General Purpose AI“). Als Beispiele nennen die Bundesministerien für Justiz und Wirtschaft, die die Stellungnahme verfasst haben, chatgpt von OpenAI und Claude von Anthropic. Solche Dienste stünden dem Nutzer bereits zur Verfügung und könnten ohne Fachkenntnisse verwendet werden. Bei Modellen wie dem hinter ChatGPT stehenden GPT oder Luminous von Aleph Alpha dauere die Entwicklung dagegen an.
Diese Vorgaben sind geplant
Für konkrete KI-Systeme mit allgemeinen Zwecken sollen laut dem Papier klare Vorgaben gemacht werden. In Betracht kämen etwa Vorschriften für eine allgemeine Risikoabschätzung, zum Datenmanagement und zur Transparenz. Dazu kommen könnte etwa eine Pflicht, Informationen zur Datengrundlage und zum Training einschließlich des Umgangs mit dem Schutz der Privatsphäre und dem Urheberrecht herauszugeben. Sinnvoll seien auch Erläuterungen zur Funktionalität des KI-Modells, zum Energieverbrauch und den Treibhausgas-Emissionen sowie Kennzeichnungspflichten etwa für Deepfakes mithilfe von Wasserzeichen mit entsprechenden Ausnahmen etwa für die Sicherheitsbehörden.
Auch Warnhinweise rund um Risiken beim Einsatz in Hochrisikobereichen wie Medizin oder einen Korrekturanspruch für Betroffene bringt die Regierung ins Spiel. Ausnahmen sollten für kleine und mittlere Unternehmen, zivilgesellschaftliche und gemeinnützige Organisationen, Universitäten und andere akademische Nutzer diskutiert werden. Für Modelle reiche dagegen eine verpflichtende Selbstregulierung, möglichst in Form verbindlicher Verhaltenskodizes und Transparenzvorgaben aus. So werde sichergestellt, dass die Verordnung „in erster Linie eine Produktregulierung“ anpeile. Sowohl bei den Vorschriften für Systeme als auch bei den Verhaltenskodizes beim Training der Modelle sollte zudem verstärkt auf Normen und Standards gesetzt werden.
EU will streng regulieren
Das EU-Parlament legte im Juni seine Linie zum geplanten „AI Act“ fest. Dienste wie ChatGPT sollen demnach zwar nicht von vornherein als hochriskant eingestuft, aber trotzdem besonders streng reguliert werden. Betreiber von KI-Basismodellen, die auf einer umfangreichen Menge nicht-kategorisierter Daten trainiert wurden, müssten vorhersehbare Risiken für Gesundheit, Sicherheit, Grundrechte, Umwelt, Demokratie und Rechtsstaatlichkeit unter Einbeziehung unabhängiger Experten prüfen und gegebenenfalls abmildern. Hersteller generativer KI-Modelle wie OpenAI wollen die Abgeordneten auch verpflichten, „eine hinreichend detaillierte Zusammenfassung der Verwendung von urheberrechtlich geschützten Trainingsdaten zu dokumentieren und öffentlich zugänglich zu machen“. Über 150 Führungskräfte aus der europäischen Wirtschaft warnten jüngst, dass KI-Modelle damit totreguliert würden.
(mki)