KI – sie ist überall, wo man gerade hinschaut.

Jeden Tag scheint es, als gäbe es eine neue Nachricht über KI, sei es ein neuer technologischer Durchbruch, ein neues Unternehmen, das in die Aktion einsteigt, oder ein KI-Kundenservice-Bot, der seine Kunden beschimpft. KI ist der neue Trend und wird höchstwahrscheinlich auch in Zukunft bestehen bleiben.

Ob Microsoft Copilot unter Windows oder etwas anderes, die Technologie funktioniert im Wesentlichen alle auf ähnliche Weise. Große Sprachmodelle (LLMs) werden auf Daten trainiert gestohlen geschabt Aus dem Internet ausgeliehen. Ob es die tollen Artikel hier auf Windows Central sind, die wirklich von Ihnen geschrieben wurden (Hm) oder neue Artikel der New York Times (die derzeit Microsoft in dieser Angelegenheit verklagen, Hoppla) oder urheberrechtlich geschützte Kunstwerke von Disney oder sogar unabhängigen Schöpfern – ohne menschliche Schöpfer ist KI nichts. Und man muss sich fragen, ob OpenAI, Microsoft, google und andere KI-Verbreiter diese Tatsache tatsächlich erkennen.

Tatsächlich haben Microsoft und seine Konkurrenten durch die Entscheidung, mit Dingen wie Microsoft Copilot Pro zuerst auf Gewinne zu setzen, anstatt eine funktionale Grundlage für eine symbiotische Beziehung zwischen Inhaltserstellung, Kuration und LLM-Schulung zu schaffen, versehentlich ihre eigenen Modelle von Anfang an zum Scheitern verurteilt – zumindest teilweise.

Sehen wir uns einige der größten Bedrohungen an, denen KI-LLMs derzeit ausgesetzt sind, und was, wenn überhaupt, Microsoft und seine Kollegen dagegen tun sollten.

chatgpt-are-killing-the-internet-x2014-and-themselves-3″>1. Microsoft Copilot, Google Bard und OpenAI ChatGPT zerstören das Internet – und sich selbst

Microsoft Copilot ist auf Bing.com verfügbar und wird bald in jeden Windows-PC integriert. (Bildnachweis: Windows Central)

Haben Sie schon einmal vom Konzept des Zusammenbruchs des LLM-Modells gehört? Es handelt sich derzeit wohl um die größte Bedrohung für Unternehmen wie OpenAI, Microsoft und Google, und keiner von ihnen scheint die Bedrohung wirklich ernst zu nehmen.

Der Modellkollaps beschreibt den degenerativen Prozess, den große Sprachmodelle wie ChatGPT durchlaufen können, wenn sie auf KI-generierten Junk-Daten trainiert werden. Ähnlich wie ein JPEG, das im Laufe der Jahre Tausende von Iterationen der Komprimierung und Weitergabe durchläuft, wird es, wenn Tools wie ChatGPT und Copilot es einfach machen, das Internet mit schlecht geschriebenen, halluzinierten Junk-Daten zu überfluten, iterativ eine kumulative und eskalierende Degeneration reproduzieren Auswirkungen auf die Qualität der LLM-Ausgabe haben.

Es kursieren bereits Memes, die beschreiben, wie ChatGPT und Copilot in den letzten Monaten „faul“ geworden sind und qualitativ schlechtere Ergebnisse liefern. Und jetzt neue Forschungsergebnisse (via Vize) deutet darauf hin, dass bereits große Mengen an geschriebenen Internetinhalten KI-generiert sind und voller Fehler, Ungenauigkeiten und gelegentlich schädlicher Lügen sind. In einem noch zu veröffentlichenden Artikel deuten die Forschungsergebnisse darauf hin, dass bis zu 57 Prozent des Internets möglicherweise bereits KI-generiert sind, wobei eine starke Tendenz zu Regionen und Sprachen besteht, die über unzureichende Ressourcen verfügen. Beispielsweise gibt es im Web mehr englischsprachige Inhalte zu allen möglichen Themen, was einer KI dabei hilft, Ergebnisse genauer zu trainieren und zu lokalisieren. Es gibt jedoch keinen Grund zu der Annahme, dass dies immer der Fall sein wird. Auch eine Fülle an englischsprachigen Inhalten wird bereits KI-generiert. Sie müssen nur zwei Minuten lang durch YouTube Shorts oder TikTok scrollen, um KI-generierte Junk-Inhalte zu finden.

Siehe auch  Welcher Chatbot mit künstlicher Intelligenz ist der beste Sprachübersetzer? ChatGPT übertrifft Google Bard, Translate und Bing AI

Microsoft und Google befinden sich in einem Wettrüsten um die Verbreitung von KI-Tools. (Bildnachweis: Zukunft)

Tatsächlich haben Google, Microsoft und OpenAI derzeit eine unhaltbare Beziehung zu menschlichen Content-Erstellern, auf die sie sich beim Training ihrer KI-Modelle verlassen. Wenn Microsoft und insbesondere Google mit seiner 90-prozentigen Kontrolle über den Suchmarkt weiterhin menschlichen Schöpfern schaden, werden sie sich auf lange Sicht ironischerweise nur selbst schaden.

Zu diesem Zweck wurde eine weitere Studie (via Gizmodo) beschreibt detailliert, wie Google den Krieg gegen KI-generierten Müll verliert. Ein großes Sprachmodell kann nicht mit einem Headset arbeiten und qualitativ hochwertige Anleitungen wie meinen Artikel zu den besten Xbox-Headsets erstellen (schamloser Stecker), sodass Leute, die schnell Geld verdienen wollen, möglicherweise künstlich ähnliche Artikel generieren, die dann darauf angewiesen sind, dass LLMs meine Sachen stehlen. Die Untersuchung legt nahe, dass Google Schwierigkeiten hat, zwischen ursprünglich von Menschen recherchierten Erfahrungen aus erster Hand und von KI generierten falschen Erfahrungen zu unterscheiden, was möglicherweise zu einem Rückgang der finanziellen Rentabilität der Inhalte führt, auf die es sich überhaupt verlässt, um diese Modelle zu trainieren.

Ein Mangel an menschlichen Schöpfern bedeutet einen Rückgang der Datenqualität, einen Rückgang der Suchfähigkeit und einen Rückgang der KI-Qualität. Wenn Microsoft, Google et al. Wenn sie den Zusammenbruch des Modells ernst nehmen wollen, müssen sie wahrscheinlich herausfinden, wie sie das (relativ) Symbiose, die derzeit zwischen Erstellern und Suchalgorithmen besteht. Wenn Google und Microsoft sich weigern, dies zu tun, können die Gerichte sie trotzdem dazu zwingen.

Ein KI-generiertes Bild von Mickey Mouse, das in einer Gefängniszelle weint, was Disney wahrscheinlich nicht gefallen würde, über Microsoft Image Creator. (Bildnachweis: Bing Image Creator)

In den frühen Tagen der Dalle-3-Integration in Bing haben wir sofort gesehen, wie Benutzer durch schnelle Tricks urheberrechtsverletzende, peinliche und möglicherweise sogar schädliche Bilder erstellen konnten. Disney war nicht gerade erfreut über Bilder von Mickey Mouse, die grausige Morde begehen, also hat Microsoft Bing Image Creator umgehend lobotomiert. Allerdings konnte ich das obige Bild zum Zeitpunkt des Schreibens erzeugen, obwohl es schwieriger ist, Gewalt einzuschleusen als früher.

In den kommenden Jahren werden Plattformen wie OpenAI und Microsoft zunehmendem Druck von Urheberrechtsinhabern aller Couleur ausgesetzt sein, die das Training von LLMs auf ihren Daten als unerlaubt betrachten. OpenAI veröffentlichte eine Erklärung als Reaktion auf eine große Klage der New York Times, in der behauptet wurde, dass das Scrapen von Artikeln für die LLM-Schulung eine „faire Verwendung“ darstelle. Es wird Sache der Gerichte sein, zu entscheiden, ob dieses Argument Bestand hat oder nicht, aber ich vermute, dass OpenAI einen harten Kampf haben wird, um einen Richter und eine Jury davon zu überzeugen, dass das Parsen urheberrechtlich geschützter Inhalte zur Entwicklung gewinnorientierter Produkte eine „faire Nutzung“ darstellt.

Siehe auch  Wie dieser Arzt Dutzende von wissenschaftlichen Arbeiten mit ChatGPT schrieb

VERWANDT: OpenAI behauptet, urheberrechtlich geschützte Materialien seien für das Training von KI „wesentlich“.

Zunehmend sperren Plattformen wie reddit und Twitter (X) den großen Technologieunternehmen den Zugriff auf ihre Daten zu Schulungszwecken aus, zum Teil, damit sie ihre eigenen Modelle trainieren können, aber auch einfach, weil Microsoft et al. machte sich nicht die Mühe, um Erlaubnis zu bitten. Auch verschiedene andere Verlage bereiten sich auf eigene Klagen vor, da Plattformen wie Copilot und Google Bard Content-Plattformen Nutzer entziehen.

Aber was können Sie tun, wenn Sie nicht über Millionen von Dollar verfügen, um vor Gericht gegen Google und Microsoft zu kämpfen? Nun, es stellt sich heraus, dass selbst unabhängige Content-Ersteller und Künstler Wege finden, sich zu wehren.

Microsoft Azure-Server

Die Azure-Rechenzentren von Microsoft geben Hunderttausende Dollar pro Tag aus, um die KI am Laufen zu halten. (Bildnachweis: Microsoft)

Was mich tatsächlich dazu veranlasste, um 5 Uhr morgens aufzustehen und diesen Artikel zu schreiben, war ein Reddit Faden Beschreibung eines Tools namens Nightshade. Nachtschatten wurde im Rahmen einer Forschungsarbeit erstellt, die sich speziell mit Möglichkeiten zum Schutz von Künstlern vor Inhaltsdiebstahl befasste – seien wir mal ehrlich, Unternehmen, die diese Tools entwickeln, sind dabei eine Menge.

Wie Nightshade funktioniert, ist ziemlich unglaublich. In Kombination mit einem ähnlichen Tool namens Glaze ermöglichen die Tools Künstlern nicht nur, ihre Stile vor Modellen der künstlichen Intelligenz zu schützen, sondern tatsächlich Müll und ungenaue Pixel in die Mischung einzubringen, die für das menschliche Auge nicht erkennbar sind.

„Während das menschliche Auge ein schattiertes Bild sieht, das im Vergleich zum Original weitgehend unverändert ist, sieht das KI-Modell eine dramatisch andere Zusammensetzung im Bild. Beispielsweise könnte das menschliche Auge ein schattiertes Bild einer Kuh auf einer grünen Wiese weitgehend unverändert sehen, aber ein Ein KI-Modell könnte eine große Lederhandtasche im Gras liegen sehen. Wenn ein Modell anhand einer ausreichenden Anzahl schattierter Bilder trainiert wird, auf denen eine Kuh zu sehen ist, wird es zunehmend davon überzeugt sein, dass Kühe schöne braune Ledergriffe und glatte Seitentaschen mit Reißverschluss haben, und vielleicht auch eine hübsche Markenlogo.“

Es ist nicht schwer vorstellbar, dass diese Art von Tools später auch für andere Arten von Entwicklern verfügbar sein werden. Von Synchronsprechern, denen die Sprache gestohlen wurde, von Musikern, deren Werke wiederhergestellt wurden, bis hin zu Schriftstellern, deren Geschichten einem anderen Zweck zugeführt wurden – ohne die oben erwähnten symbiotischen Lizenzgebühren könnten Content-Ersteller zunehmend (und zu Recht) nach Wegen suchen, LLM-Content-Scraper anstelle leistungsstarker Tools zu untergraben Anwälte.

Wie würde ein staatlich unterstütztes Anti-LLM aussehen, das darauf abzielt, falsche wissenschaftliche Erkenntnisse, spaltende politische Diskurse oder Fake News in Suchtools einzuschleusen? Nun, wir müssen uns nicht allzu sehr wundern, da es bereits passiert.

Wenn es für Content-Ersteller zur Standardpraxis wird, „vergiftete“ Daten einzuführen, die für den Menschen nicht wahrnehmbar, für die KI jedoch vollständig wahrnehmbar sind, wird dies die Wahrscheinlichkeit eines Modellzusammenbruchs nur erhöhen.

Siehe auch  Googles Bard wird in Gemini umbenannt und führt ein Premium-Angebot als Konkurrenz zu ChatGPT ein

Was kann, abgesehen von unabhängigen Urhebern, feindselige Landesregierungen davon abhalten, KI-Daten zu manipulieren? Wie würde ein staatlich unterstütztes Anti-LLM aussehen, das darauf abzielt, falsche wissenschaftliche Erkenntnisse, spaltende politische Diskurse oder Fake News in Suchtools einzuschleusen? Nun, wir müssen uns nicht allzu sehr wundern, da es bereits passiert. A Bericht von Freedom House erläuterte kürzlich, wie 47 Regierungen KI-Tools einsetzten, um den Diskurs in Online-Kommentarthreads zu manipulieren und so zu versuchen, die öffentliche Meinung zu beeinflussen. KI kratzt auch Kommentardaten, was wiederum zum Zusammenbruch des Modells beiträgt.

Ich kann mir vorstellen, dass LLM-Korps Tools entwickeln, um dem entgegenzuwirken, was zu einem Wettrüsten führen würde, ähnlich wie die heutigen Kämpfe gegen Spam-Bots. Die KI ist den Menschen ebenso ausgeliefert wie wir ihr potenziell ausgeliefert sind. Ohne Symbiose und Rücksichtnahme wird es einfach nicht funktionieren.

Selbst KI kann die Zukunft nicht vorhersagen

Microsoft-Logo-Gebäude Redmond

Ich habe die generative KI von Photoshop verwendet, um die Büsche auf der linken Seite dieses Fotos, das einer von uns zuvor aufgenommen hat, zu erweitern, da wir hier heutzutage 16:9-Bilder verwenden sollen. So nützlich KI in Mikrokosmen wie diesem auch sein kann, ist es wahrscheinlich vernünftig und gesund, skeptisch zu sein, was die Zukunft angeht. (Bildnachweis: Windows Central)

Die toxische Beziehung zwischen Plattformen wie Microsoft Copilot, Google Bard und den Modellen von OpenAI wird wahrscheinlich bis 2024 und darüber hinaus ein anhaltendes Thema von Kontroversen und Diskussionen sein. Wie jede neue bahnbrechende Technologie, wie das Internet davor und der Verbrennungsmotor davor, haben LLMs das Potenzial, ganze Branchen völlig auf den Kopf zu stellen und zu zerstören.

Wir haben Vorhersagen gesehen, dass KI sich überall auswirken oder reduzieren könnte 40 Prozent aller Stellenangebote und die globale Ungleichheit vergrößern, die bereits einen Sturm politischer Instabilität auslöst. An diesem Punkt geht es über den Zusammenbruch des Modells hinaus – wie können Sie hoffen, von einer KI-induzierten Wirtschaftskrise zu profitieren, in der Sie die Voraussetzungen für einen Kaufkraftverfall geschaffen haben?

Wir haben bereits gesehen, wie KI missbraucht werden kann, um Fake News zu produzieren, die öffentliche Meinung feindseliger staatlicher Akteure in großem Umfang zu beeinflussen und den wissenschaftlichen Diskurs mit emotionsgeladener, konträrer Propaganda zu verschleiern. Wir haben bereits gesehen, wie die Zahl der Arbeitsplatzverluste als direkte Folge von KI in die Höhe schoss, und wie OpenAI sich nun beeilt, mit dem US-Militär zusammenzuarbeiten, nachdem es zuvor versprochen hatte, dies nicht zu tun. Sogar Mark Zuckerberg von Meta angegeben diese Woche, dass er eine Open-Source-AGI erstellen möchte, die jeder nutzen kann – Ich bin mir sicher, dass es in keiner Weise missbraucht wird.

VERWANDT:Wird Microsoft OEMs dazu zwingen, KI-Windows-PCs mit 16 GB RAM auszustatten?

Während es viel Unheil darüber gibt, wie KI die Übel der Welt verschlimmern wird, gibt es unbestreitbar auch positive Aspekte, die es zu berücksichtigen gilt. KI wird eingesetzt, um zeitintensive wissenschaftliche Aufgaben zu beschleunigen, beispielsweise um die Entdeckung neuer Moleküle für medizinische Zwecke und neuer Materialien für Batterien und dergleichen zu unterstützen. Es kann das Lernen beschleunigen und komplexe Konzepte auf eine anwendungsgerechte Weise erklären. Die idealistischste Vision für KI ist, dass sie die menschliche Arbeit unterstützt und unterstützt – als Copilot und nicht als Ersatz.

Niemand kann wirklich vorhersagen, was die Zukunft bringt, aber es ist schwierig, optimistisch zu sein. OpenAI, Google und Microsoft haben sich Hals über Kopf damit beschäftigt, Möglichkeiten zu finden, mit LLMs schnell Geld zu verdienen, ohne das enorme Potenzial für negative Ergebnisse, das diese Modelle haben, umfassend und sichtbar zu berücksichtigen. Ironischerweise hängt die Funktionsweise der KI vom menschlichen Input ab. Ohne angemessene Voraussicht darüber, wie seine Vorbilder Schaden anrichten könnten, und ohne die Pflege einer gesunden Beziehung zu den menschlichen Schöpfern, auf die sie sich verlassen, sitzt das Korps möglicherweise auf einer Zeitbombe, die darauf vorbereitet ist, vor ihren eigenen Augen zu explodieren.

5/5 - (415 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.