OpenAI hat diesen Sommer nach mehreren Monaten Forschung und Entwicklung viele neue Funktionen eingeführt. Diese technologischen Innovationen sind beispielsweise DALL-E 3 oder GPT 4 Vision, jeweils für die Bilderzeugung und Bilderkennung. Und diese Innovationen gehen mit Forschungsarbeiten einher, die wahre Informationsquellen über die Wünsche von OpenAI in der Welt der künstlichen Intelligenz sind.

Quelle: Frandroid

Obwohl mittlerweile fast jeder chatgpt kennt, ist das Unternehmen hinter dem berühmten Chatbot weitaus weniger bekannt. OpenAI hat sich zu einem echten Moloch im Technologiesektor und insbesondere im Bereich der künstlichen Intelligenz entwickelt. Doch während generative KI in aller Munde ist, müssen wir auch sicherstellen, dass sie gesetzeskonform ist. Dies möchte OpenAI sicherstellen, wenn man aktuellen Forschungsarbeiten zu ChatGPT 4 Vision und DALL-E 3 Glauben schenken darf.

In diesen Artikeln wird erläutert, wie die beiden Innovationen funktionieren. Sie erläutern jedoch auch, wie das Unternehmen über Schutzmaßnahmen zu verschiedenen Themen nachgedacht hat. Dabei handelt es sich insbesondere um rechtliche Fragen. Wie will OpenAI verhindern, dass gegen geltende Gesetze verstoßen wird, und was ist seine Vision für die Zukunft der künstlichen Intelligenz? Wir haben alles für Sie aufgeschlüsselt.

Dall-E 3 und geistiges Eigentum, das Hauptproblem für OpenAI

Ein wichtiger Punkt sollte beachtet werden, bevor die Antworten von OpenAI besprochen werden: geistiges Eigentum. Geistiges Eigentum ist eng mit der Person verbunden, sei es moralisch (Unternehmen, Verwaltung usw.) oder physisch (Einzelperson). Im Fall der künstlichen Intelligenz bleiben große Unklarheiten bestehen.

Was ist beispielsweise mit den Daten, die zum Trainieren der KI verwendet werden? Auch im Fall von DALL-E 3 gibt es zwei Probleme. Wenn wir versuchen, den Stil eines Künstlers zu reproduzieren, verletzt dies dann das geistige Eigentum des betreffenden Künstlers? Gehört das generierte Bild, unabhängig davon, ob es sich um eine Reproduktion eines Stils oder eine Originalkreation handelt, dem Benutzer oder dem Unternehmen, das den Bildgenerator erstellt hat?

Siehe auch  Wenn Horden kleiner KI-Chatbots nützlicher sind als Riesen wie ChatGPT
Msedge Rjbmc2Moxc
Meinung Von Openai Zur Reproduktion Von Kunststilen Über Dall-E 3 // Quelle: Dall-E 3 System Card, Openai

Zum ersten Punkt gibt Dall-E 3 noch nicht die Quelle der verwendeten Daten an. Wenn künstliche Intelligenz jedoch in der Lage ist, einen künstlerischen Stil zu reproduzieren, hat sie die künstlerischen Kreationen gesehen, um sich von ihnen inspirieren zu lassen. Diesbezüglich wird sicherlich eine Reaktion des Gesetzgebers notwendig sein, aber die Lösung des Problems wird sicherlich einige Zeit in Anspruch nehmen.

Für den künstlerischen Reproduktionsteil entschied sich OpenAI: ein „ Blockliste » wurde erstellt, um die künstlerischen Stile festzulegen, die die KI nicht reproduzieren sollte. Die Kriterien für diese Liste werden nicht genannt und werfen dennoch Fragen auf. Wann kann ein Künstler in diese Liste aufgenommen werden? Welcher Bekanntheitsgrad muss erreicht werden, um von diesem Schutz zu profitieren?

Schließlich geht OpenAI davon aus, dass ein von DALL-E 3 generiertes Bild vor allem das Ergebnis der Aufforderung eines Benutzers mit all seiner Kultur und seinem Wissen ist. Dies deutet darauf hin, dass der Benutzer das Eigentum an einem generierten Bild beanspruchen könnte, aber in welchem ​​Umfang? Könnte ein Comic, der vollständig von einem OpenAI-Tool erstellt wurde, im Namen des Benutzers, der diese Tools verwendet hat, kommerzialisiert werden? Die Frage bleibt vorerst unbeantwortet.

Zukünftige Projekte von OpenAI

KI-generierte Bilderkennung

OpenAI arbeitet an der Entwicklung von Tools zur Überwachung der von Dall-E 3 generierten Bilder. Diese werden überwacht, um eine mögliche Ausbreitung zu verhindernFake-Newsvon gefälschten Fotos, die überlebensgroß erscheinen könnten. Um dies zu kontrollieren, werden Partnerschaften mit Content-Plattformen in Betracht gezogen, wir denken an X (ex-Twitter), Instagram und andere.

Xcom

Das oben genannte Tool konzentriert sich speziell auf die Überwachung auf der Ebene der Bilderzeugung. In den OpenAI-Dokumenten wird jedoch ein anderer erwähnt, der sich auf die Erkennung von durch KI erzeugten Bildern konzentriert. Dies würde darauf abzielen, die von DALL-E erzeugten Bilder zu identifizieren.

Siehe auch  Wofür wird die ChatGPT-API verwendet?

Wir können uns jedoch immer noch fragen, wie es sie von einem klassischen Bild oder einem von midjourney generierten Bild unterscheiden kann?

Künstliche Intelligenz, Klischees und Ethik

KI in all ihren Formen ist derzeit die Summe menschlicher Vorurteile. Angetrieben durch unser künstlerisches, bildliches oder textliches Schaffen reproduziert es einen Flickenteppich dessen, was wir bereits geschaffen haben. Im Zusammenhang mit durch KI generierten Bildern können viele Vorurteile vertreten werden, insbesondere aufgrund von Fotos mit rauer Haut.

Standardmäßig tendiert DALL-E 3 daher dazu, Standards mit Beschreibungen zu verknüpfen. Wenn wir die KI auffordern, ein Bild zu erzeugen, das drei Frauen darstellt, wird diese höchstwahrscheinlich dazu neigen, in den Fantasiekanon der Schönheit zu passen, der in verschiedenen Medien als Norm überrepräsentiert ist. Dies ist eine Beobachtung, die OpenAI festgestellt hat, und das Unternehmen versucht, die Situation zu korrigieren. Und das dank ChatGPT, das die an DALL-E 3 gerichteten Eingabeaufforderungen vor der Generierung ändert.

Msedge Jt4Ukvxkhy
Generierung Eines Bildes, Das Schnappschüsse Übermittelt // Quelle: Dall-E 3 System Card, Openai

Eine KI, die ethischer sein will. Ein Wunsch nach Ethik, den wir in bestimmten eingeschränkten Funktionen der künstlichen Intelligenz finden. Im Fall von GPT 4 Vision, das dank einer Partnerschaft mit Be My Eyes Bilder analysieren kann, weiß der Chatbot, wie man Persönlichkeiten auf Fotos erkennt. Allerdings ist diese Funktion für den Nutzer zumindest vorerst gesperrt.

Das Modell ist grundsätzlich dazu in der Lage, aber OpenAI hat es bewusst eingeschränkt und sich die Zeit genommen, ein Framework für die Verwendung zu definieren. „Sollten Modelle in der Lage sein, Persönlichkeiten des öffentlichen Lebens wie Alan Turing zu identifizieren?“. Diese Frage können wir im Forschungspapier zu GPT 4 Vision nachlesen. Noch keine Antwort.

Siehe auch  Taiwan iOS 16.1 und höher ist für den offenen Download der ChatGPT-App geeignet – Listing Cabinet

Lassen sich die Fähigkeiten und Einschränkungen aktueller Modelle leicht umgehen?

Wenn Sie ChatGPT aktiv nutzen, ist Ihnen möglicherweise aufgefallen, dass es manchmal abstürzt und sich höflich weigert, auf unsere Anfrage zu antworten. Dies ist auf eine Liste von Einschränkungen zurückzuführen, die OpenAI auferlegt hat, um zu vermeiden, in die Rückschläge einiger Vorgänger zurückzufallen. Wir denken insbesondere an a AI powered by Microsoft auf Twitter, was schnell rassistisch wurde.

Im Screenshot unten sehen Sie verschiedene Reaktionen, die GPT 4 Vision vor seinem offiziellen Start geben könnte. In jedem Fall haben wir es mit sensiblen Themen zu tun, bei denen die Reaktionen der KI nicht nur voreingenommen, sondern auch verstörend oder schockierend sein können. Für OpenAI sollte der Chatbot nicht auf solche Anfragen reagieren.

Daher antwortet die KI seit ihrer Einführung einfach damit, dass sie bei diesem Thema nicht weiterhelfen kann.

Msedge 8Yk45Ppnl0
Vorurteile Von Gpt 4 Vision Vor Dem Offiziellen Start // Quelle: Systemkarte Von Gpt 4 Vision, Openai

Doch wie zuverlässig sind diese Grenzwerte? Wir müssen in der Tat bedenken, dass es sehr schwierig ist, den Anspruch auf ein fehlerfreies System zu erheben. Wir haben bereits erlebt, dass bestimmte Einschränkungen mit ein wenig Einfallsreichtum umgangen werden konnten.

Abschließend erwähnt das Forschungspapier die Tatsache, dass ChatGPT 4 Vision sicherlich kein Roboter mehr ist. Tatsächlich ist das neue Bilderkennungsmodell in der Lage, Captchas zu lösen! Über den komischen Aspekt der Situation hinaus tauchen echte Cybersicherheitsprobleme und möglicherweise einige philosophische Fragen auf.


5/5 - (236 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein