Die Europäische Union hat eine vorläufige Vereinbarung getroffen, um den Betrieb des erweiterten chatgpt-Modells einzuschränken, das als wesentlicher Bestandteil der ersten umfassenden Verordnung über künstliche Intelligenz gilt.

Laut einem von Bloomberg eingesehenen EU-Dokument müssen alle Entwickler allgemeiner Algorithmen der künstlichen Intelligenz – leistungsstarke Modelle mit breiten Anwendungsmöglichkeiten – grundlegende Transparenzanforderungen erfüllen, es sei denn, sie werden kostenlos und Open-Source angeboten.

Zu diesen Anforderungen gehören:

– Eine akzeptable Nutzungsrichtlinie haben – Aktuelle Informationen darüber haben, wie ihre Modelle trainiert werden – Bereitstellung einer detaillierten Zusammenfassung der Daten, die zum Trainieren der Modelle verwendet werden – Eine Urheberrechtsrichtlinie haben

Modelle, die als „systemisches Risiko“ gelten, würden dem Dokument zufolge zusätzlichen Regeln unterliegen. Die EU wird dieses Risiko anhand der Menge an Rechenleistung ermitteln, die für das Training der Modelle verwendet wird. Der Schwellenwert liegt bei Modellen, die mehr als 10 Billionen Billionen (oder Septillionen) Operationen pro Sekunde verwenden.

Laut Experten ist das von OpenAI entwickelte GPT-4 das einzige Modell, das diesen Schwellenwert automatisch erfüllt. Das Exekutivorgan der EU kann andere Modelle abhängig von der Größe des Datensatzes bewerten, abhängig davon, ob sie mindestens 10.000 registrierte Geschäftsnutzer in der EU haben, oder von der Anzahl der registrierten Endnutzer, neben anderen möglichen Messgrößen.

Mehr lesen: [European regulators agree on regulating AI tools like ChatGPT as part of one of the world’s first efforts to control advanced technologies.](https://example.com)

Diese hochleistungsfähigen Modelle sollten sich an einen Verhaltenskodex halten, während die Europäische Kommission koordinierte und dauerhaftere Kontrollen entwickelt. Wer diesen Kodex nicht unterzeichnet, muss der Kommission nachweisen, dass er das Gesetz über künstliche Intelligenz einhält. Die Ausnahme für Open-Source-Modelle gilt nicht für solche, die ein systemisches Risiko darstellen.

Siehe auch  ChatGPT wurde vor einem Jahr eingeführt, jetzt möchte jeder einen Teil des KI-Booms haben

Diese Modelle müssen außerdem:

– Melden Sie ihren Energieverbrauch – Führen Sie Red-Teaming- oder Wettbewerbstests durch, entweder intern oder extern – Bewerten und mindern Sie potenzielle systemische Risiken und melden Sie alle Vorfälle – Verwenden Sie angemessene Sicherheitskontrollen – Offenlegung von Informationen, die zur Feinabstimmung der Modelle und ihrer Systemarchitektur verwendet werden – Einhaltung von Energieeffizienzstandards, sofern entwickelt

Die Einigung im Vorstadium muss noch vom Europäischen Parlament und den 27 EU-Mitgliedstaaten genehmigt werden. Frankreich und Deutschland haben Bedenken hinsichtlich einer übermäßigen Regulierung universeller Modelle der künstlichen Intelligenz geäußert, da diese europäische Konkurrenten wie Mistral AI aus Frankreich oder Aleph Alpha aus Deutschland untergraben könnten.

Derzeit sei Mistral wahrscheinlich nicht verpflichtet, die Kontrollanforderungen für allgemeine Algorithmen der künstlichen Intelligenz zu erfüllen, da sich das Unternehmen noch in der Forschungs- und Entwicklungsphase befinde, sagte Spaniens Staatssekretärin Carmen Artigas in den frühen Morgenstunden des Samstags.

FAQ

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein