Der Technologieriese OpenAI gibt Aufschluss darüber, wie er mehrere verschiedene verdeckte Operationen abwehren konnte, deren Ziel der Missbrauch und Beeinflussung seiner chatgpt-Modelle war.

Das Unternehmen erwähnt wie es zwischen 2023 und 2024 zu mehreren Anschlägen kam und die meisten davon angeblich russischen, iranischen, chinesischen oder israelischen Ursprungs waren.

Ihr Ziel bestehe darin, das Engagement eines weltweiten Publikums zu erhöhen, da das beliebte KI-Tool manipulatives Verhalten einbettet, heißt es in dem Bericht.

Seit Anfang dieses Monats scheinen die Kampagnen weder die Zuschauerbeteiligung erhöht noch die Reichweite dieser Dienste erhöht zu haben. OpenAI fügte jedoch hinzu, dass es eng mit mehreren Mitgliedern der Branche zusammenarbeite, beispielsweise aus der Technologiewelt, der Regierung oder dem öffentlichen Dienst, um ein solches Verhalten zu verhindern.

Die Nachricht kommt zu einer Zeit, in der viele Experten Zweifel an den Fähigkeiten der generativen KI äußern und befürchten, dass sie am Ende mehr Schaden als Nutzen anrichten könnte. Und da wir alle vor der Wahl stehen, stehen zweifelhafte Ergebnisse im Mittelpunkt.

Die Ergebnisse wurden von OpenAi veröffentlicht. Darin enthalten ist auch, wie mehrere Akteure auf komplizierte Weise versucht haben, die Funktionsweise der beliebten Chat-Assistenten zu beeinflussen, um ihre eigenen Vorteile zu erzielen. Dabei wurden nicht nur Texte, sondern sogar Bilder verändert, und zwar in größeren Mengen als je zuvor.

Gleichzeitig gab es aufgrund von Versuchen, mithilfe künstlicher Intelligenz in den in den sozialen Medien generierten Posts ungenaue und falsche Kommentare zu verfassen, eine hohe Zahl an Fake-Engagements.

In den letzten ein bis zwei Jahren wurden diesbezüglich viele Zweifel geäußert, auch darüber, was passieren könnte, wenn derart einflussreiche Kampagnen tatsächlich ins Leben gerufen würden.

Siehe auch  Künstliche Intelligenz: Mistral AI, das französische ChatGPT, das 2 Milliarden Dollar wiegt

Experten von OpenAI erklärten in einer kürzlich abgehaltenen Pressekonferenz, dass derartige Berichte Augenöffner seien und viele Fragen aufwerfen würden, unter anderem dazu, wie Schlupflöcher geschlossen werden müssten, um besser zu verstehen, was vor sich gehe.

Eine Operation von Russa mit dem Namen Doppelgänger nutzte die Modelle der Firma, um Schlagzeilen für verschiedene Geschichten zu erstellen und Medienbeiträge in Posts auf beliebten Social-Media-Seiten umzuwandeln. Dies führte zu mehr Engagement und Raum für Kommentare in verschiedenen Sprachen, um Unterstützung für kontroverse Themen wie die Ukraine und Russlands Krieg gegen sie zu zeigen.

In einem weiteren schockierenden Bericht ging es um Kampagnen zur Fehlerbehebung bei Codes der beliebten SMS-App Telegram, die kurze Kommentare aus der Welt der Politik in verschiedenen Sprachen veröffentlichte.

Durch die Rollen der chinesischen Schauspieler gelang es ihnen, einflussreiche Posts für Metas Facebook und Instagram zu verfassen und mithilfe von Models nach weiteren ähnlichen Aktivitäten zu suchen und Texte in verschiedenen Sprachen in den sozialen Medien zu veröffentlichen.

Ein ähnliches Verhalten wurde von den Machern von ChatGPT im Iran beobachtet, wo die International Union of Virtual Media KI nutzte, um Inhalte zu verbreiten, die verschiedene globale Communities ansprachen.

Die Offenlegung durch OpenAi ähnelt stark den regelmäßig veröffentlichten Veröffentlichungen verschiedener anderer Technologiegiganten.

So haben wir beispielsweise erlebt, dass Meta einen neuen Bericht zu koordiniertem Verhalten herausgebracht hat. Dabei haben iranische Marketingunternehmen falsche Konten auf Facebook genutzt, um einflussreiche Kampagnen in der gesamten App durchzuführen und gezielt Menschen in verschiedenen Regionen, darunter Asien, der EU, Kanada und den USA, anzusprechen.

Meta bestätigte zwar, dass man hart daran gearbeitet habe, die Situation zu beenden. Allerdings kann man auch hinzufügen, dass derartige Aktivitäten trotz der kontinuierlichen Bemühungen des Unternehmens, ihnen ein für alle Mal ein Ende zu setzen, immer wieder auftauchen.

Bild: DIW-Aigen

Siehe auch  Kann ChatGPT-4 Schilddrüsen- und Nieren-Ultraschallbilder genau interpretieren?

Lesen Sie weiter: HP, apple und Dell dominieren den US-Laptopmarkt; Bemerkenswerte Anteile halten Acer, Lenovo, Samsung und Microsoft

5/5 - (251 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein