OpenAI hat am Mittwoch einen Dokumentationsentwurf veröffentlicht, in dem dargelegt wird, wie sich chatgpt und seine andere KI-Technologie verhalten sollen. Teil der langen Modellspezifikationsdokument gibt bekannt, dass das Unternehmen einen Einstieg in Pornos und andere explizite Inhalte prüft.
OpenAIs Nutzungsrichtlinien verbieten derzeit sexuell explizite oder sogar anzügliche Materialien, aber ein „Kommentar“ zu einem Teil der Modellspezifikation im Zusammenhang mit dieser Regel besagt, dass das Unternehmen darüber nachdenkt, wie solche Inhalte zugelassen werden können.
„Wir untersuchen, ob wir über die API und ChatGPT verantwortungsvoll die Möglichkeit bieten können, NSFW-Inhalte in altersgerechten Kontexten zu generieren“, heißt es in der Notiz und verwendet dabei einen umgangssprachlichen Begriff für Inhalte, die als „nicht arbeitssicher“ gelten. „Wir freuen uns darauf, die Erwartungen der Nutzer und der Gesellschaft an das Modellverhalten in diesem Bereich besser zu verstehen.“
Im Model Spec-Dokument heißt es, dass NSFW-Inhalte „Erotik, extreme Gore, Beleidigungen und unaufgeforderte Obszönitäten umfassen können“. Es ist unklar, ob die Untersuchungen von OpenAI zur verantwortungsvollen Erstellung von NSFW-Inhalten eine nur geringfügige Lockerung der Nutzungsrichtlinien vorsehen, um beispielsweise die Erstellung erotischer Texte zu ermöglichen, oder allgemeiner, um Beschreibungen oder Darstellungen von Gewalt zu ermöglichen.
Als Antwort auf Fragen von WIRED sagte OpenAI-Sprecherin Grace McGuire, dass die Modellspezifikation ein Versuch sei, „mehr Transparenz über den Entwicklungsprozess zu schaffen und einen Querschnitt von Perspektiven und Feedback von der Öffentlichkeit, politischen Entscheidungsträgern und anderen Interessengruppen zu erhalten“. Sie lehnte es ab, Einzelheiten darüber mitzuteilen, was OpenAIs Erforschung der Generierung expliziter Inhalte beinhaltet oder welches Feedback das Unternehmen zu der Idee erhalten hat.
Anfang dieses Jahres sagte Mira Murati, Chief Technology Officer von OpenAI Das Wall Street Journal dass sie „nicht sicher” wenn das Unternehmen künftig Darstellungen von Nacktheit mit dem unternehmenseigenen Videogenerierungstool Sora erlauben würde.
KI-generierte Pornografie hat sich schnell zu einer der größten und beunruhigendsten Anwendungen der Art generativer KI-Technologie entwickelt, die OpenAI entwickelt hat. Sogenannte Deepfake-Pornos – explizite Bilder oder Videos, die mit KI-Tools erstellt wurden und echte Menschen ohne deren Zustimmung darstellen – sind zu einem gängigen Instrument der Belästigung von Frauen und Mädchen geworden. Im März berichtete WIRED über die offenbar ersten Minderjährigen in den USA, die wegen der Verbreitung von KI-generierten Aktfotos ohne Zustimmung verhaftet wurden, nachdem die Polizei von Florida zwei Teenager angeklagt hatte, Bilder von Mitschülern der Mittelschule gemacht zu haben.
„Verletzungen der Privatsphäre, darunter Deepfake-Sexvideos und andere nicht einvernehmlich synthetisierte intime Bilder, sind weit verbreitet und äußerst schädlich“, sagt Danielle Keats Citron, Professorin an der University of Virginia School of Law, die sich mit dem Problem befasst hat. „Wir haben jetzt klare empirische Belege, die zeigen, dass ein solcher Missbrauch entscheidende Chancen für Einzelpersonen beeinträchtigt, darunter Arbeiten, Sprechen und körperliche Sicherheit.“
Citron bezeichnet die potenzielle Akzeptanz expliziter KI-Inhalte durch OpenAI als „alarmierend“.
Da die Nutzungsrichtlinien von OpenAI den Identitätswechsel ohne Erlaubnis verbieten, wären explizite, nicht einvernehmliche Bilder auch dann verboten, wenn das Unternehmen den Urhebern erlauben würde, NSFW-Material zu generieren. Es bleibt jedoch abzuwarten, ob das Unternehmen die explizite Generierung effektiv moderieren kann, um zu verhindern, dass böswillige Akteure die Tools nutzen. Microsoft hat Änderungen an einem seiner generativen KI-Tools vorgenommen nachdem 404 Medien berichteten dass damit explizite Bilder von Taylor Swift erstellt wurden, die auf der sozialen Plattform X verbreitet wurden.
Zusätzliche Berichterstattung von Reece Rogers