chatgpt-Hersteller OpenAI veröffentlicht neue Dokumentation am Mittwoch, der alle gewünschten Verhaltensweisen seines beliebten Chatbots darlegt und enthüllt, wie seine Software für den Umgang mit „widersprüchlichen Zielen oder Anweisungen“ konzipiert ist. Insbesondere diejenigen, die im Widerspruch zu voreingestellten Regeln für gesetzestreues Verhalten, Privatsphäre und den Umgang mit NSFW-Inhalten stehen.

Dieses Maß an Transparenz über seine Modelle ist möglicherweise einer der Gründe, warum OpenAI sich einen Platz auf dem Mount Rushmore der Pioniere der künstlichen Intelligenz sichert.

Da OpenAI jedoch an der Spitze der KI-Entwicklung steht, muss es entscheiden, in welche Richtung es als nächstes gehen möchte und wie es seine Technologie am besten zum „Wohltun der Menschheit“ einsetzen kann. KI-gesteuerte Nanobot-Medizintechnik? Wie wäre es mit künstlichen Astronauten, die uns bei der Erforschung des Universums unterstützen?

Oder wie wäre es mit Pornografie, Gewalt, Rassismus und Obszönitäten?

ChatGP-F'n-T: Eine verdorbene neue Welt

In der Dokumentation sind mehrere Regeln dargelegt, von denen eine darauf besteht, dass ihre Modelle „Antworten Sie nicht mit NSFW-Inhalten.„Die Regel ist eine implizite Aussage, dass ihr Assistent „keine Inhalte bereitstellen sollte, die nicht sicher für die Arbeit (NSFW) sind“, wobei als Hauptbeispiele „Erotik, extreme Gore, Beleidigungen und unaufgeforderte Obszönitäten“ angeführt werden. Unmittelbar darauf folgt jedoch ein Kommentar Hinweis, der lautet:

„Wir glauben, dass Entwickler und Benutzer die Flexibilität haben sollten, unsere Dienste nach eigenem Ermessen zu nutzen, solange sie sich an unsere halten Nutzungsrichtlinien. Wir untersuchen, ob wir über die API und ChatGPT verantwortungsvoll die Möglichkeit bieten können, NSFW-Inhalte in altersgerechten Kontexten zu generieren. Wir freuen uns darauf, die Erwartungen der Nutzer und der Gesellschaft an das Modellverhalten in diesem Bereich besser zu verstehen.“

Die im Kommentar genannten OpenAI-Nutzungsrichtlinien erfordern im Allgemeinen, dass Benutzer der Software des Unternehmens die geltenden Gesetze einhalten, den Dienst nicht nutzen, um sich selbst oder anderen zu schaden, und die Sicherheitsvorkehrungen des Entwicklers respektieren.

Dies deckt nur grob den Bereich ab, wenn es darum geht, Deepfakes zu erzeugen (eine digitale Veränderung, die das Gesicht oder den Körper einer Person in ein bereits vorhandenes Foto oder Video einblendet, typischerweise aus böswilligen Gründen) oder KI zu verwenden, um explizite Bilder von anderen ohne deren Erlaubnis zu erzeugen oder ihnen Schaden zuzufügen. Zumindest wenn es darum geht, die Ergebnisse dieser Arbeiten zu teilen.

Das Besorgniserregende an dem Kommentar in der kürzlich veröffentlichten Dokumentation von OpenAI und seinem Zusammenhang mit der Nutzungsrichtlinie von OpenAI ist, dass er impliziert, dass die Nutzung seiner Dienste für die Durchführung solcher Handlungen in der Zukunft völlig in Ordnung sein könnte, solange dies der Fall ist „Eigenverbrauch.“

Es ist erwähnenswert, dass die Existenz dieses Kommentars nicht bedeutet, dass Beiträge wie dieser garantiert folgen werden. Einfach, dass dies etwas ist, was OpenAI derzeit untersucht. Es bleibt abzuwarten, wie intensiv sich das Unternehmen mit diesem Antrag befasst.

OpenAI-Sprecherin Grace McGuire hatte wenig zu sagen, was die Erkundung von OpenAI zur verantwortungsvollen Bereitstellung von NSFW-Inhalten beinhalten würde.

Jedoch, beim Sprechen mit VERDRAHTET, Sie konnte den Zweck der Dokumentation weiter beleuchten und erklärte, es sei ein Versuch, „mehr Transparenz über den Entwicklungsprozess zu schaffen und einen Querschnitt der Perspektiven und Rückmeldungen von der Öffentlichkeit, politischen Entscheidungsträgern und anderen Interessengruppen zu erhalten.“

Ausblick

Die KI-Landschaft befindet sich in einem ständigen Entwicklungsstadium, da immer neuere Modelle entwickelt werden, um Probleme zu lösen und Prozesse zu vereinfachen. Wenn wir uns ansehen, wer die Führung übernimmt, können nur wenige die Bedeutung von OpenAI leugnen. Das aus San Francisco stammende Startup aus Golden City ist zum goldenen Kind der KI-Ära geworden und hat sich nach der Veröffentlichung der weltweit beliebtesten KI-Software ChatGPT als Aushängeschild der Branche erwiesen.

Siehe auch  ChatGPT führt revolutionäre Sprach- und Bildfunktionen ein

Während die Welt sehnsüchtig auf das GPT-5-Update des Unternehmens wartet, das verspricht, seinen Chatbot seinem Ziel, künstliche allgemeine Intelligenz (AGI) zu erreichen, einen Schritt näher zu bringen, hat OpenAI auch in anderen Medien Innovationen hervorgebracht.

Im März dieses Jahres stellte OpenAI der Welt das ChatGPT-Schwestermodell Sora vor, ein Text-to-Video-Large-Language-Modell (LLM), das in der Lage ist, ultrarealistische Videos mit einer Länge von bis zu 60 Sekunden zu erzeugen. Dann, im April, stellte das Unternehmen Voice Engine vor, ein KI-Modell, das in der Lage ist, die Stimme vollständig zu klonen, basierend auf lediglich einem 15-sekündigen Audiobeispiel.

Letzteres wird als eine weitere potenziell gefährliche Anwendung von KI angesehen, die ihre Vorteile im Vergleich zu einer breiteren öffentlichen Veröffentlichung überwiegt. Meta hat zuvor ein ähnliches Modell namens Voicebox vorgestellt und es ebenfalls als zu anfällig für Missbrauch beurteilt – selbst nachdem ein „hochwirksamer Klassifikator“ entwickelt wurde, um authentische Sprache für künstlich generierte Samples zu unterscheiden.

Die Untersuchung von NSFW-Inhalten durch OpenAI innerhalb seiner ChatGPT-Plattform könnte sich als ebenso anfällig für Missbrauch erweisen, und fairerweise muss man sagen, dass dies wahrscheinlich auch der Fall sein wird. Kommentare von OpenAI scheinen darauf hinzudeuten, dass die Funktion aufgrund möglicher Rückmeldungen von Benutzern nur ein Teil der Diskussion ist. Nur weil ein Teil der Chatbot-Benutzer des Unternehmens etwas tun möchte, heißt das nicht unbedingt, dass ihnen die Möglichkeit dazu gewährt wird.

Mehr von Laptop Mag

5/5 - (416 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein