In der EU soll eine Verordnung zur Regulierung KI-basierter Programme wie chatgpt in Kraft treten. Allerdings geht das aus Sicht von OpenAI-Chef Sam Altman in der ersten Version alles zu weit.
Zu strenge Regeln für ChatGPT in der EU?
Das Thema „Künstliche Intelligenz“ beherrscht nicht nur seit Monaten die Tech-Welt. Stattdessen wird Software wie ChatGPT eine große gesamtgesellschaftliche Bedeutung beigemessen. Manche vergleichen die auf maschinellem Lernen basierende Technologie sogar mit historischen Meilensteinen wie der Industrialisierung oder der Erfindung der Druckmaschine. Daher ist es nicht verwunderlich, dass sowohl die Politik als auch die Technologiebranche umfassende Regeln für den Einsatz künstlicher Intelligenz fordern. Sogar einer der großen Köpfe hinter ChatGPT stimmt zu. Sam Altman, Direktor von OpenAI, ist seit langem davon überzeugt, dass die Politik mit entsprechenden Vorschriften reagieren muss.
Gesagt, getan. Das ließ sich die EU nicht zweimal sagen. Daraufhin hat die Staatengemeinschaft kurzerhand eine Regelung zur KI erarbeitet. Aus Sicht des KI-Heilers ist dies jedoch ein Schritt zu weit. Nachdem der Experte den ersten Entwurf geprüft hat, fällt sein Urteil vernichtend aus. So bezeichnete er die Regulierung am Mittwoch im Rahmen eines Panels am University College London als schlichte „Überregulierung“. Dennoch erklärte er sich bereit, die geplanten Regelungen zu respektieren. Sollte dies jedoch nicht möglich sein, scheut das Unternehmen nicht davor zurück, „den Betrieb einzustellen“, so der Chef von OpenAI.
Altman weist auf „technische Einschränkungen“ hin
In einem aktuellen Interview mit dem Time Magazine erläuterte Altman seine Ansichten zu den Regeln für künstliche Intelligenz. Er betonte beispielsweise, dass sie von großer Bedeutung seien, stellte aber weiter klar, dass sie „technische Einschränkungen“ hätten. Beispielsweise kann eine übermäßige Regulierung, wie sie im aktuellen EU-Entwurf erkannt wird, die Funktionalität von Programmen wie ChatGPT so stark einschränken, dass eine normale Nutzung nicht mehr möglich wäre. Denn laut EU-Entwurf handelt es sich bei ChatGPT um eine Software mit hohem Risikopotenzial. Dies geht jedoch nicht mit einem Verbot der KI-Lösung einher. Stattdessen stellt die Klassifizierung sicher, dass OpenAI viele Anforderungen an sein System erfüllen muss. Dazu gehört unter anderem die Abgabe einer Gefährdungsbeurteilung. Böse Zungen könnten behaupten, dass der aktuelle Entwurf den klassischen europäischen Regulierungswahn unterstreiche.
Andere hingegen werden die Regulierung wahrscheinlich als einen richtigen und wichtigen Schritt zur Kontrolle künstlicher Intelligenz betrachten. Während die vorgeschlagenen Regelungen derzeit weltweit diskutiert werden, schlägt Altman einen Kompromiss vor. Er rät der EU und den USA, einen Mittelweg zwischen den beiden unterschiedlichen Ansätzen einzuschlagen. Das Endergebnis müssten seiner Meinung nach Regelungen sein, die durch strenge „traditionell europäische“ Anforderungen, aber auch durch den erfahrungsgemäß recht freien amerikanischen Grenzrahmen geprägt seien. Wenn nicht, wird es nicht nur für OpenAI eine Mammutaufgabe, alles in Einklang zu bringen. Auch Entwickler, die die KI-Lösung als Grundlage für ihre Arbeit nutzen wollen, stehen dann vor einer großen Hürde. Denn selbst kleine Tech-Unternehmen denken heute global und verfügen einfach nicht über die Ressourcen, um in zwei verschiedene Märkte zu expandieren.
Das Europäische Parlament unterstützt eine umfassende Überprüfung
Hintergrund all dessen ist ein vor wenigen Tagen vom Europäischen Parlament ausgearbeiteter Gesetzentwurf. Durch die Zusammenarbeit verschiedener Gremien entstanden so die ersten Eckpfeiler der KI-Regulierung. In der Verordnung können wir recht strenge Regeln für künstliche Intelligenz lesen, die für die Verarbeitung großer Datenmengen entwickelt wurde. Betreiber solcher Anwendungen müssen sicherstellen, dass Risiken für gesellschaftliche Grundlagen wie Demokratie, Sicherheit, Rechtsstaatlichkeit und Grundrechte entsprechend minimiert werden. Unter bestimmten Umständen kann es auch sein, dass Dienstebetreiber wie ChatGPT verpflichtet sind, Kontrollen durch unabhängige Experten durchführen zu lassen.
Darüber hinaus besagt die Verordnung, dass Unternehmen wie OpenAI sehr transparent über die Grundlagen ihrer KI sein müssen. Insbesondere proprietäre Trainingsdaten müssen detailliert dokumentiert und öffentlich zugänglich gemacht werden. Gegen Transparenz selbst hat Altman offenbar nichts einzuwenden. Ganz im Gegenteil. Während seiner Rede in London betonte er, dass Nutzern von Programmen wie ChatGPT ein erweiterter Zugang gewährt werden sollte. Gelingt ihm das, soll zu diesem Zweck eine neue Behörde gegründet werden. Seine Aufgabe sollte es dann sein, grundlegende Modelle künstlicher Intelligenz wie ChatGPT gründlich zu testen.
Während dieses Thema derzeit nur im Rest der Welt diskutiert wird, ist eine solche Untersuchung in der EU bereits in vollem Gange. Beispielsweise untersucht die Europäische Datenschutzbehörde (EDSA) derzeit mit einer eigens dafür eingerichteten Arbeitsgruppe die Grundlagen der KI. Anlass für die Schaffung der Chat-Plattform war das vorübergehende Verbot von ChatGPT durch die italienische Datenschutzbehörde. Anschließend wurde auch über ein Verbot in Deutschland diskutiert. Mittlerweile ist der Dienst EU-weit wieder verfügbar. Dennoch möchte sich die Arbeitsgruppe über eine gemeinsame Strategie zum Umgang mit solchen grundlegenden KI-Modellen austauschen.
Verliert die EU gegenüber ChatGPT und Co.? ?
Experten sind sich einig, dass KI-Lösungen wie ChatGPT in den kommenden Jahren nicht nur die technologische Welt, sondern auch unsere Gesellschaft prägen werden. Gerade im Arbeitsfeld könnten diese Grundmodelle einen tiefgreifenden Wandel garantieren. Welche Möglichkeiten das für den Normalanwender bedeutet, zeigte Microsoft erstmals auf seiner Entwicklerkonferenz. Windows Copilot basiert auf der gleichen Technologie wie ChatGPT und steht seinem Benutzer jederzeit zur Verfügung. Wenn das praktische Tool wirklich hält, was es verspricht, wird die 10-Milliarden-Dollar-Investition des US-Technologiekonzerns sicherlich Früchte getragen haben. Gleichzeitig ist OpenAI mit ChatGPT erst der Anfang. Es ist kein Geheimnis, dass auch andere namhafte Giganten der Tech-Welt an ihren Lösungen arbeiten. Dazu zählen google, aber auch Amazon.
Umso wichtiger ist es, dass die EU ihre derzeit sehr strengen Regelungen vielleicht noch einmal überdenkt. Die Veröffentlichung von Google Bard zeigt deutlich, wie dies bei den verantwortlichen Entwicklern ankommt. Die chatGPT-Alternative des Suchmaschinengiganten ist kürzlich in 180 Ländern online gegangen. Dies umfasst jedoch kein einziges EU-Land. Offenbar hält Google die aktuelle Debatte im Europäischen Parlament für problematisch. Aus Sicht von Google-Chef Sundar Pichai ist ein Ausstieg derzeit einfach zu riskant. Denn die unsichere Rechtslage sorgt dafür, dass man interne KI nicht sinnlos starten möchte. Zumindest noch nicht. Nach Angaben des Suchmaschinengiganten möchte er Bard in unserem Land einführen, nachdem die endgültigen KI-Vorschriften in Kraft getreten sind. Es sind nicht nur die Sonderregeln der KI, die befolgt werden müssen.
Google möchte sich an die Gesetze halten
Darüber hinaus verspricht Google die Einhaltung weiterer Vorschriften wie des im Oktober 2022 in Kraft getretenen Digital Services Act (DSA) und der Datenschutz-Grundverordnung. Das zumindest verkündete Pichai bei einem Treffen mit EU-Binnenmarktkommissar Thierry Breton. Die Aussagen von Google erscheinen angesichts der vielfältigen Datenschutz- und Wettbewerbsverstöße, die sich der Tech-Konzern in den vergangenen Jahren in der EU schuldig gemacht hat, einigermaßen unglaubwürdig. So erhielt das amerikanische Unternehmen im Januar eine Abmahnung des deutschen Bundeskartellamts wegen fragwürdigen Umgangs mit Nutzerdaten. Eine wirkliche Lösung für dieses Problem wird wahrscheinlich erst ein Nachfolger des Privacy Shield bringen. In diesem Zusammenhang wollen die EU und die USA eine gemeinsame Linie beim Datenschutz anstreben. Die Europäische Kommission arbeitet derzeit an der entsprechenden Zweckmäßigkeitsentscheidung.
Zusammenarbeit zwischen Politik und Technologiebranche
Wie Thierry Breton den Experten von TechCrunch sagte, werden hinter den Kulissen Anstrengungen unternommen, eng mit Experten der Technologiebranche zusammenzuarbeiten. Schließlich wissen sie auch am besten, welchen Umfang grundlegende KI-Modelle in naher Zukunft haben werden. Darüber hinaus sagte er, dass man gerne eine Vereinbarung mit Google getroffen hätte, um Bard auf europäischen Computern nutzen zu können, und zwar nicht erst nach Inkrafttreten der KI-Verordnung. Dies zeigt deutlich den Spagat, den die EU-Politik leisten muss. Einerseits wollen sie die Bevölkerung vor massiven Datenschutz- und Urheberrechtsverletzungen schützen. Andererseits ist sich Brüssel natürlich auch bewusst, dass KI das Thema sein wird, das unsere Gesellschaft in Zukunft stark prägen wird.
Sie wollen nicht abgehängt werden und vor allem nicht für große, hochbezahlte Tech-Unternehmen unattraktiv werden. Daraufhin einigte man sich darauf, als Übergangslösung einen sogenannten KI-Pakt auszuhandeln. Diese soll schneller als die KI-Verordnung in Kraft treten und auch Verhaltensregeln für Entwickler grundlegender KI-Modelle festlegen. Allerdings geschieht dies alles nur auf freiwilliger Basis. Auch hier wird die Zusammenarbeit zwischen der EU und den USA eine große Rolle spielen. Gemeinsam wollen sie Standards in der künstlichen Intelligenz etablieren. Dies gab Margrethe Vestager, für digitale Angelegenheiten zuständige Vizepräsidentin der Europäischen Kommission, während des G7-Gipfels in Hiroshima bekannt.