Dall-E, Beatoven und midjourney – diese wortspielreichen und poetisch klingenden Anwendungen sind im letzten Jahr oder so plötzlich zu bekannten Namen geworden, zusammen mit chatgpt, das vielleicht das beliebteste ist. Generative Künstliche Intelligenz (GAI) hat die Fantasie von Einzelpersonen und Unternehmen gleichermaßen beflügelt und (künstliche) Kreativität in einem Ausmaß ermöglicht, das weitgehend unbekannt war. Text, Bilder, Musik, Videos, 3D-Druck – was auch immer, diese Anwendungen sind in der Lage, ziemlich beeindruckende Ergebnisse zu erzeugen (obwohl sie noch lange nicht perfekt sind).
Bei GAI dreht sich alles um Kreativität und die erste offensichtliche Frage, die es aufwirft, betrifft das geistige Eigentum. Einerseits gibt es Vorwürfe, dass das Schulungsverfahren von GAI gegen bestehende urheberrechtlich geschützte Werke verstößt. GAI werden in der Regel anhand großer Mengen vorhandener Daten im Internet geschult. Dabei kann es sich um Artikel, Nachrichtenseiten, Bildwebsites (und laut einigen Berichten sogar um ganze E-Books) handeln, bei denen es sich möglicherweise allesamt um urheberrechtlich geschützte Werke handelt. In den USA wurden bereits zahlreiche Klagen wegen Urheberrechtsverletzungen durch GAI-Entwickler während des Schulungsprozesses eingereicht. Der Schulungsprozess erfordert nicht unbedingt die Einholung der Zustimmung oder Lizenzen aller Autoren, was zu Bedenken hinsichtlich der Autonomie der Autoren über ihre Arbeit führt. Während die Ausbildung von GAI das Erstellen von Kopien und Speichern vorhandener urheberrechtlich geschützter Werke umfasst, kann die Frage, ob dies eine Verletzung darstellt oder nicht, von Faktoren wie den Fair-Use-Grundsätzen, der Kommerzialisierung von GAI, dem Ausmaß der Verletzung bestehender Werke und der in die Ausgabe einbezogenen Kreativität abhängen und Bedrohung des Marktes des Originalwerks.
Die andere Seite an der IP-Front ist natürlich die Urheberschaft der GAI-Ausgaben und ob GAI-Ausgaben überhaupt als urheberrechtlich geschützte Werke gelten können. Konzepte der Urheberschaft drehen sich traditionell um einzelne Autoren, ihren „Schweiß“ und ihre Kreativität (obwohl das Eigentum auch bei Unternehmen und anderen juristischen Personen liegen kann). Auch die Laufzeit des Urheberrechts ist mit dem Leben des Autors verknüpft. Bei solchen Präzedenzfällen ist es schwierig festzustellen, ob ein GAI-Entwickler oder der Benutzer, der Eingaben bereitstellt, oder beides als Autor des Werks behandelt werden sollte, da keiner von ihnen Kreativität oder Fähigkeiten für eine bestimmte Ausgabe aufgewendet hat. AI darf nicht als juristische Person behandelt werden, insbesondere im Hinblick auf Urheberrechtszwecke, und daher ist es für die GAI möglicherweise nicht möglich, als Autor betrachtet zu werden. Diese Fragmentierung könnte zu dem Argument führen, dass die Ergebnisse von GAI überhaupt kein geistiges Eigentum sind, da es keinen Autor gibt.
Darüber hinaus ist die Existenz von Voreingenommenheit und Vorurteilen in der KI gut dokumentiert. Es wurde berichtet, dass KIs neben Vorurteilen gegenüber dem Geschlecht auch rassische und ethnische Vorurteile aufweisen. Eine solche Voreingenommenheit kann erhebliche Auswirkungen haben, insbesondere für die öffentlich zugängliche KI. Beispielsweise kann textbasierte KI bestimmte Merkmale basierend auf der Rasse einer Person annehmen, während bildgenerierende KI Ausgaben erzeugen kann, die bestimmte Geschlechterrollen annehmen. Wenn Unternehmen GAI für kundenorientierte Aktivitäten nutzen, kann eine solche Voreingenommenheit zusätzlich zu regulatorischen Risiken in Rechtsordnungen mit strengen Antidiskriminierungsgesetzen zu enormen Reputationsrisiken führen.
Dies bringt uns zum umfassenderen Thema der Rechenschaftspflicht, Erklärbarkeit und Haftung. Während Voreingenommenheit eine Quelle potenzieller Risiken darstellt, kann sich eine Haftung auch aus rechtswidrigen Inhalten ergeben. Wenn GAI beispielsweise Hassreden oder verleumderische Inhalte produziert, welche Partei sollte dafür haftbar sein – der GAI-Entwickler, das Unternehmen, das es einsetzt, oder der Benutzer, der die Aufforderung sendet? Die Antwort wird komplexer, wenn Unternehmen den GAI auch mit ihren eigenen Daten trainieren, um ihren spezifischen Anwendungsfall zu bedienen. Auch wenn das Training von GAI nicht immer bewusst erfolgt, ist es schwierig, wenn nicht sogar unmöglich, zu verstehen oder vorherzusagen, wie GAI das Endergebnis erzeugen wird. Dieses „Black-Box“-Rätsel führt zu Verantwortlichkeitsproblemen, insbesondere wenn GAI für öffentlich zugängliche Anwendungsfälle eingesetzt wird. Wie GAI-Entwickler und ihre Geschäftskunden die Haftung für GAI-Ergebnisse aufteilen, wird ein entscheidender Punkt rechtlicher Überlegungen sein. Daher werden diese rechtlichen Fragen von entscheidender Bedeutung sein, um sowohl den Wert des GAI-Geschäfts und seiner Dienstleistungen als auch die damit verbundenen Risiken zu ermitteln.
Von Huzefa Tavawalla und Aniruddha Majumdar