chatgpt-with-new-regulations-laws-.jpg?impolicy=website&width=320&height=180″ width=“320″ height=“180″ layout=“responsive“ alt=“Here’s how the EU plans to target advanced AI-models like ChatGPT with new regulations, laws“ title=“Here’s how the EU plans to target advanced AI-models like ChatGPT with new regulations, laws“ i-amphtml-ssr=““ class=“i-amphtml-layout-responsive i-amphtml-layout-size-defined“ i-amphtml-layout=“responsive“>

Die Europäische Union hat eine bahnbrechende Vereinbarung zur Regulierung von KI getroffen, die auf fortschrittliche Modelle wie ChatGPT abzielt. Dazu gehören einige Einschränkungen, Transparenzkriterien und die Verpflichtung der Entwickler, sich auf systemische Risikomodelle zu konzentrieren

In einem wichtigen Meilenstein auf dem Weg zur weltweit ersten umfassenden Verordnung über künstliche Intelligenz (KI) hat die Europäische Union (EU) eine vorläufige Vereinbarung getroffen, die Beschränkungen für den Betrieb modernster KI-Modelle, einschließlich des hochentwickelten ChatGPT, vorsieht.

Wie in einem von Bloomberg erhaltenen Dokument dargelegt, sind Entwickler von Allzweck-KI-Systemen, die sich durch ihre Vielseitigkeit in verschiedenen Anwendungen auszeichnen, dazu verpflichtet, grundlegende Transparenzkriterien einzuhalten. Insbesondere gelten diese Anforderungen nicht für Modelle, die als freie und Open-Source-Software angeboten werden.

Zu den Bestimmungen gehören die Umsetzung einer Richtlinie zur akzeptablen Nutzung, die Pflege aktualisierter Informationen über Modellschulungsmethoden, die Vorlage einer umfassenden Datenzusammenfassung für die Schulung und die Festlegung einer Richtlinie zur Einhaltung der Urheberrechtsgesetze.

Die Vorschriften verschärfen sich für Modelle, bei denen festgestellt wurde, dass sie ein „systemisches Risiko“ darstellen, eine Feststellung, die auf der während des Trainings eingesetzten Rechenleistung basiert. Modelle, die den Schwellenwert von 10 Billionen Billionen oder Septillionen Operationen pro Sekunde überschreiten, fallen in diese Kategorie, wobei Experten GPT-4 von OpenAI als das einzige Modell hervorheben, das dieses Kriterium automatisch erfüllt. Die Exekutive der EU behält sich die Befugnis vor, andere Modelle auf der Grundlage von Faktoren wie Datensatzgröße, EU-Geschäftsnutzern und Endnutzerregistrierung zu benennen.

Siehe auch  ChatGPT und andere KIs stellen eine Herausforderung für den Bildungssektor dar – das International Baccalaureate unterstützt ihren Einsatz, aber Pädagogen sind besorgt über die Möglichkeiten zum Betrügen

Besonders leistungsfähige Modelle müssen sich einem Verhaltenskodex verpflichten, während die Europäische Kommission kohärentere und dauerhaftere Kontrollen verfeinert. Die Nichtunterzeichnung des Kodex zwingt Models dazu, der Kommission die Einhaltung des KI-Gesetzes nachzuweisen. Insbesondere gilt die Ausnahme für Open-Source-Modelle nicht für Modelle, die systemische Risiken bergen.

Zu den zusätzlichen Verpflichtungen für diese Modelle gehören die Offenlegung des Energieverbrauchs, interne oder externe kontradiktorische Tests, die Bewertung und Minderung systemischer Risiken, die Meldung von Vorfällen, die Implementierung von Cybersicherheitskontrollen, die Offenlegung von Informationen, die bei der Modellfeinabstimmung verwendet werden, und die Einhaltung energieeffizienter Standards, wenn entwickelt.

Trotz der vorläufigen Einigung steht die endgültige Zustimmung des Europäischen Parlaments und der 27 EU-Mitgliedstaaten noch aus. Frühere Vorbehalte Frankreichs und Deutschlands hinsichtlich einer möglichen Einschränkung der Regulierung von Allzweck-KI-Modellen, die zu einer Benachteiligung europäischer Konkurrenten wie Mistral AI in Frankreich und Aleph Alpha in Deutschland führen würde, bleiben bestehen.

Spaniens Außenministerin Carme Artigas wies darauf hin, dass Mistral AI, das sich derzeit in der Forschungs- und Entwicklungsphase befindet, möglicherweise nicht sofort allgemeinen KI-Kontrollen unterliegt. Die sich entwickelnde Landschaft der KI-Vorschriften bleibt ein Schwerpunkt, während die EU die Komplexität der Balance zwischen Innovation und Aufsicht bewältigt.

(Mit Beiträgen von Agenturen)

Veröffentlicht am: 11. Dezember 2023 09:34:44 IST

5/5 - (325 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein