Ursula von der Leyen, Präsidentin der Europäischen Kommission, beim AI Safety Summit letzten Monat in England. Chris J. Ratcliffe/Bloomberg über Getty Images
Die Europäische Union hat eine erreicht chatgpt-other-ai-in-landmark-act“ target=“_blank“ rel=“noreferrer noopener“>vorläufiger Deal Dies würde die Funktionsweise des fortschrittlichen ChatGPT-Modells einschränken, das als wichtiger Teil der weltweit ersten umfassenden Verordnung über künstliche Intelligenz angesehen wird.
Laut einem von Bloomberg eingesehenen EU-Dokument müssen alle Entwickler von Allzweck-KI-Systemen – leistungsstarken Modellen mit vielfältigen Einsatzmöglichkeiten – grundlegende Transparenzanforderungen erfüllen, es sei denn, sie werden kostenlos und Open Source bereitgestellt.
Diese beinhalten:
- Eine Richtlinie zur akzeptablen Nutzung haben
- Halten Sie aktuelle Informationen darüber, wie sie ihre Modelle trainiert haben
- Berichten einer detaillierten Zusammenfassung der Daten, die zum Trainieren ihrer Modelle verwendet wurden
- Eine Richtlinie zur Einhaltung des Urheberrechts haben
Dem Dokument zufolge würden Modelle, die ein „systemisches Risiko“ darstellen, zusätzlichen Regeln unterliegen. Die EU würde dieses Risiko anhand der Menge an Rechenleistung bestimmen, die zum Trainieren des Modells verwendet wird. Der Schwellenwert wird bei Modellen festgelegt, die mehr als 10 Billionen Billionen (oder Septillionen) Operationen pro Sekunde verwenden.
Experten zufolge ist derzeit das einzige Modell, das diesen Schwellenwert automatisch erreichen würde, GPT-4 von OpenAi. Die Exekutive der EU kann andere benennen, abhängig von der Größe des Datensatzes, davon, ob sie mindestens 10.000 registrierte Geschäftsnutzer in der EU haben, oder von der Anzahl der registrierten Endnutzer, neben anderen möglichen Maßstäben.
Lesen Sie mehr: Europäische Regulierungsbehörden stimmen einer bahnbrechenden Regulierung von KI-Tools wie ChatGPT zu. Dies ist einer der weltweit ersten Versuche, die Spitzentechnologie einzudämmen
Diese hochleistungsfähigen Modelle sollten sich einem Verhaltenskodex anschließen, während die Europäische Kommission harmonisiertere und langjährigere Kontrollen ausarbeitet. Wer nicht unterschreibt, muss der Kommission nachweisen, dass er das AI-Gesetz einhält. Die Ausnahme für Open-Source-Modelle gilt nicht für Modelle, bei denen davon ausgegangen wird, dass sie ein systemisches Risiko darstellen.
Diese Modelle müssten außerdem:
- Melden Sie ihren Energieverbrauch
- Führen Sie Red-Teaming- oder kontradiktorische Tests durch, entweder intern oder extern
- Bewerten und mindern Sie mögliche systemische Risiken und melden Sie alle Vorfälle
- Stellen Sie sicher, dass sie angemessene Cybersicherheitskontrollen verwenden
- Melden Sie die zur Feinabstimmung des Modells verwendeten Informationen und deren Systemarchitektur
- Konformität mit energieeffizienteren Standards, sofern diese entwickelt werden
Das vorläufige Abkommen muss noch vom Europäischen Parlament und den 27 EU-Mitgliedstaaten genehmigt werden. Frankreich und Deutschland haben bereits zuvor Bedenken geäußert, dass sie zu viel Regulierung auf Allzweck-KI-Modelle anwenden und dadurch europäische Konkurrenten wie Frankreich vernichten könnten Mistral-KI oder Deutschlands Aleph Alpha.
Vorerst muss Mistral wahrscheinlich nicht die allgemeinen KI-Kontrollen erfüllen, da sich das Unternehmen noch in der Forschungs- und Entwicklungsphase befindet, sagte die spanische Außenministerin Carme Artigas am frühen Samstag.