Der Tag, an dem die „personalisierten“ KIs von OpenAI angekündigt wurden, Genannt GPTViele konnten ihre Begeisterung nicht zügeln.

Zusammengefasst sind die GPTs „Helfer“, ausgestattet mit generativer künstlicher Intelligenz. Sie basieren auf denselben Algorithmen, die eine ermöglichen chatgpt sich in natürlicher Sprache ausdrücken. Aber im Gegensatz zu ChatGpt, das auf einer unterschiedlichen Datenmenge trainiert wird, um potenziell für jeden Zweck geeignet zu sein, sind GPTs für die Bewältigung äußerst spezifischer Aufgaben konzipiert.

ChatGpt vervielfacht sich: Jeder kann seine eigene KI erstellen und diese auch verkaufen

von Pier Luigi Pisa

Kurz gesagt, GPTs sind wie Apps. Aber im Gegensatz zu denen, die wir auf unserem Smartphone oder einem anderen mobilen Gerät verwenden, GPTs werden äußerst einfach erstellt.

Alles, was Sie tun müssen, ist, eine gute Idee zu haben und Schritt für Schritt die von ChatGpt angeforderten Informationen einzugeben: den Namen, den Sie Ihrem GPT beispielsweise geben möchten, eine kurze Beschreibung seiner Fähigkeiten und eine längere Liste mit Anweisungen dazu, was Die benutzerdefinierte KI muss – aber es muss auch *nicht* sein – Fahrpreis.

Kurz gesagt, um ein GPT zu erstellen: Sie müssen kein Programmierer sein. Es reicht aus, Ihre Idee klar und präzise zu erläutern. Das ist es, was GPTs für manche „revolutionär“ macht: Jeder kann eines machen. Und bald wird es ihn auch verkaufen können: OpenAI kündigte während seines ersten DevDay an, das Aufkommen eines GPT-Stores Dadurch werden alle von Benutzern erstellten GPTs erfasst. Kurz gesagt: Sie können Geld verdienen, indem Sie davon ausgehen, wie häufig ein GPT von anderen Personen genutzt wird.

Siehe auch  Was wir aus der Verwendung von ChatGPT über das Verfassen besserer Briefings lernen können

Eine Woche nach der GPT-Ankündigung die ersten Probleme traten auf. Und der Begriff „Revolution“ hat etwas an Wind in den Segeln verloren.

Erstes Problem – Das Urheberrecht von GPT

„Es gibt ein kleines Problem…“, schreibt Borriss – ein Programmierer und X-Benutzer – bezüglich der Einzigartigkeit der erstellten GPTs. Tatsächlich besteht die Möglichkeit, dass Benutzer, die ein GPT verwenden, die Informationen und Eingabeaufforderungen zurückverfolgen können, die der Ersteller zur Generierung seiner KI verwendet hat.

In seinem Beitrag unten schlägt Borriss eine Anweisung für jedes GPT vor, um es „sicherer“ zu machen. Man kann versuchen, es umzusetzen, aber das Ergebnis ist nicht so offensichtlich: Wir haben bereits gesehen, wie es Nutzern oft gelingt, KI-Filter und Zensur mit sprachlichen Tricks zu umgehen. Und deshalb ist es wahrscheinlich, dass es immer jemanden geben wird, der in der Lage ist, die Schutzmaßnahmen außer Kraft zu setzen und die wertvollen Anweisungen zu plündern.

Es ist klar, dass ein leicht reproduzierbares GPT keinen Marktwert hat. Es ist, als ob die Coca-Cola-Formel nach ein paar Schlucken plötzlich für jeden verfügbar wäre. Bis OpenAI eine Lösung für dieses Problem findet, werden GPTs sicherlich wertvolle Helfer sein, aber sie werden niemals den Status eines „Produkts“ anstreben können, das Einnahmen generieren kann.

Zweites Problem – ChatGpt-Konkurrenz

Es mag absurd erscheinen, aber eine Nutzungsbeschränkung – zur Bezahlung – eines GPT könnte ChatGpt selbst sein, das für viele der Bezugspunkt für die Durchführung jeglicher Vorgänge bleibt, also auch der spezifischeren, vom GPT versprochenen. Kurz gesagt: Für viele wären GPTs lediglich nützliche Schnittstellen für einen geordneteren und effektiveren Zugriff auf die ChatGpt-Algorithmen.

Siehe auch  Hier ist, was ChatGPT über die bevorstehende Preisentwicklung von Filecoin sagt

Die „Personalisierung“ war unter anderem bereits auf ChatGpt verfügbar. Wir beziehen uns auf „Benutzerdefinierte Anweisungen“ Damit können Nutzer von ChatGpt Plus seit letztem Juli der KI mehr kontextbezogene Informationen – zum Beispiel ihre Arbeit oder ihre Fähigkeiten – mitteilen und sie noch präziser fragen, was sie während eines Gesprächs tun – oder nicht tun – sollen Sie müssen diese Anweisungen nicht jedes Mal wiederholen.

Was unterscheidet GPTs wirklich von ChatGpts? Vorerst die Daten, die ein Benutzer aus erster Hand bereitstellen kann. Während der Erstellungsphase können zusätzlich zu den Textanweisungen bis zu 10 Dokumente (maximal jeweils 512 MB) mit Informationen geladen werden, die für die KI zur Ausführung einer bestimmten Aufgabe nützlich sind.

ChatGpt wurde auf eine große Menge an Texten trainiert, aber nicht auf unendlich viele. Es kann daher sein, dass es nicht über die uns vorliegenden Daten verfügt. Je seltener diese Daten sind, desto wertvoller sind sie: Tatsächlich ermöglicht sie dem GPT, der sie verwendet, Aktionen auszuführen, zu denen das „normale“ ChatGpt nicht in der Lage ist. Kurz gesagt: Daten sind zunehmend das wertvollste Gut im KI-Bereich. Aber auch derjenige, der am meisten gefährdet ist. Und im nächsten Punkt werden wir verstehen, warum.

Bild erstellt mit Dall-E 3 von OpenAI

Drittes Problem – Datensicherheit und deren Urheberrecht

Wir haben bereits über die Anfälligkeit von GPTs hinsichtlich der Anweisungen gesprochen, mit denen sie erstellt werden. Diese Fragilitäten können sich auch auf Dokumente auswirken, die auf die Server von OpenAI hochgeladen werden. Außerdem gibt es immer noch eine Grauzone hinsichtlich der Art der Daten, die ein Benutzer mit AI teilen kann.

Siehe auch  Wie KI-Plattformen wie ChatGPT Betrügerangriffe verstärken – und wie man sie bekämpft – Security Today

In den OpenAI-Nutzungsbedingungen Auf Verbote bezüglich urheberrechtlich geschützter Materialien wird nicht hingewiesen. Hypothetisch könnte also jeder Artikel von verwenden New York Timeseine der Veröffentlichungen, die OpenAI das Scrapen seiner Daten untersagte – um Ihren GPT zu trainieren.

Wie viel wissen wir wirklich über die Funktionsweise künstlicher Intelligenz?

von Andrea Daniele Signorelli

Viertes Problem – Die Fülle an GPT

Eine Technologie, die keine besonderen Zugangsbarrieren aufweist, ist eine zutiefst demokratische Technologie. Jeder kann mit geringem zeitlichen und finanziellen Aufwand ein GPT erstellen.

Dies bringt jedoch einen Nebeneffekt mit sich, nämlich ein unkontrolliertes Wachstum des Angebots, wodurch jedes GPT im zukünftigen GPT Store schlecht sichtbar und daher schlecht profitabel wird. Hinzu kommt, dass es derzeit sehr einfach ist, den Namen, das Erscheinungsbild und die Fähigkeiten eines GPT zumindest teilweise nachzubilden. Die Ergebnisse werden nie identisch sein, aber viele Kopien eines erfolgreichen GPT können ausreichen, um die Popularität des Originals zu beeinträchtigen.

Hervorzuheben ist dann das Fehlen dessen, was in der Ökonomie als „Wassergraben“ bezeichnet wird, d. h. der Fähigkeit eines Unternehmens, seine Wettbewerbsvorteile und damit seine Gewinne langfristig zu schützen. Tatsächlich können GPTs betrogen werden

Es ist eine interessante Argumentation, die ein Benutzer mitgeteilt hat die offizielle OpenAI-Community für Entwickler: „Erstens sind Eingabeaufforderungen kaum ein Graben, denn egal wie komplex: Sie können Benutzer nicht daran hindern, aus Gesprächen mit einem GPT grundlegende Anweisungen abzuleiten.“ Können die geladenen Materialien als Wassergraben wirken? Vielleicht, aber die Einzigartigkeit und Seltenheit des Inhalts muss außergewöhnlich hoch sein.“

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein