Die meisten Menschen verwenden ChatGPT, um einfache Fragen zu beantworten, E-Mails zu verfassen oder nützlichen (und nutzlosen) Code zu erstellen. Aber Spyware-Unternehmen erforschen jetzt, wie sie diese und andere neue KI-Tools nutzen können, um Menschen in sozialen Medien zu überwachen.

In einer Präsentation auf der Milipol-Heimatschutzkonferenz am Dienstag in Paris demonstrierte das Online-Überwachungsunternehmen Social Links, dass ChatGPT eine „Stimmungsanalyse“ durchführt, bei der die KI die Stimmung von Social-Media-Nutzern bewertet oder häufig diskutierte Themen in einer Gruppe hervorheben kann. Das ist möglich Dann helfen Sie vorherzusagen, ob Online-Aktivitäten zu körperlicher Gewalt führen und Maßnahmen der Strafverfolgungsbehörden erfordern.

Social Links wurde 2017 vom russischen Unternehmer Andrey Kulikov gegründet und verfügt heute über Niederlassungen in den Niederlanden und New York. Zuvor hatte Meta das Unternehmen Ende 2022 als Spyware-Anbieter bezeichnet und 3.700 Facebook- und Instagram-Konten gesperrt, die es angeblich zum wiederholten Ausspähen der sozialen Netzwerke genutzt hatte. Es bestreitet jede Verbindung zu diesen Konten und die Meta-Behauptung hat dem gemeldeten Wachstum nicht geschadet: Rob Billington, Vertriebsleiter des Unternehmens, sagte, das Unternehmen habe mehr als 500 Kunden, von denen die Hälfte in Europa und etwas mehr als 100 in Nordamerika ansässig seien. Dass Social Links ChatGPT verwendet, zeigt, wie das Breakout-Tool von OpenAI im Jahr 2023 einer Überwachungsbranche, die künstliche Intelligenz als Werkzeug für die öffentliche Sicherheit anpreisen möchte, neue Kraft verleihen kann.

„Es wird niemals eine Möglichkeit geben, KI unvoreingenommen zu machen …“

Andy Martin, Cellebrite-Ingenieur

Aber laut Jay Stanley, leitender Politikanalyst der American Civil Liberties Union, wird der Einsatz von KI-Tools wie ChatGPT zur Erweiterung der Social-Media-Überwachung wahrscheinlich „die individuelle Überwachung auf eine Weise ausweiten, die mit menschlichen Überwachern niemals möglich wäre“, sagte er Forbes.

Das ist nicht nur deshalb ein Problem, weil diese Art des technologischen Abhörens Ungenauigkeiten oder Vorurteile verstärken könnte. Es könnte auch den Online-Diskurs abschrecken, weil jeder das Gefühl hat, „dass er beobachtet wird, nicht unbedingt von Menschen, sondern von KI-Agenten, die in der Lage sind, Menschen Dinge zu melden, die Konsequenzen auf den Kopf ziehen können“, fügte Stanley hinzu.

Siehe auch  Amazon plant, Alexa mit der ChatGPT-Technologie zu transformieren, um die Intelligenz und den Spaß von Sprachassistenten zu verbessern

Der ChatGPT-Hersteller OpenAI reagierte nicht auf Anfragen nach Kommentaren. In der Nutzungsrichtlinie heißt es, dass „Aktivitäten, die die Privatsphäre von Menschen verletzen“, einschließlich der „Verfolgung oder Überwachung einer Person ohne deren Zustimmung“ nicht zulässig sind.

„Wir halten uns strikt an die OpenAI-Richtlinien“, sagte Hector Talavera, Kommunikationsdirektor von Social Links. „Wir verwenden ChatGPT nur zur Textanalyse, einschließlich der Zusammenfassung von Inhalten, der Identifizierung von Themen, der Klassifizierung von Text als positiv, neutral oder negativ und der Bewertung der Stimmung für verschiedene Elemente im Text.“ (Er wiederholte auch ein früheres Stellungnahmein dem das Unternehmen sagte, es habe nie irgendwelche Verbindungen zur russischen Regierung gehabt und Kulikov verurteilte Russlands Invasion in der Ukraine.)

Meta-Sprecher Ryan Brack sagte, das Unternehmen verfüge über ein über 100-köpfiges Team, das sich auf die Bekämpfung unbefugten Scrapings konzentriere. „Wir setzen unsere Richtlinien gegen nicht autorisierte Scraper durch, einschließlich rechtlicher Schritte, wenn wir feststellen, dass gegen unsere Bedingungen verstoßen wurde“, sagte Brack.

Talavera von Social Links sagte, Meta habe bei der Verknüpfung mit den 3.700 gesperrten Konten einen Fehler gemacht und fügte hinzu, dass das Unternehmen soziale Medien nicht massenhaft durchsucht. Stattdessen fordert ein Benutzer Social Links auf, für seine Untersuchung relevante Beiträge abzurufen, die der Benutzer dann auf der Benutzeroberfläche von Social Links analysieren kann. Die Daten werden dann auf dem Computer des Benutzers gespeichert, nicht auf einem Social-Links-Server. „Es ist bequemer und effektiver als die Verwendung von google und Webbrowsern, aber im Grunde ist es dasselbe“, fügte Talavera hinzu.

Es bleibt ein leistungsstarkes Tool zur Online-Überwachung der Aktivitäten von Menschen, das das Unternehmen als nützlich für die Verfolgung von Protestbewegungen bewirbt. In einer Konferenzdemo nutzte der Social-Links-Analyst Bruno Alonso die Software, um die Online-Reaktion auf ein umstrittenes Abkommen auszuwerten, das der amtierende spanische Ministerpräsident kürzlich abgeschlossen hatte, um katalanischen Politikern Amnestie zu gewähren, die 2017 versucht hatten, regionale Unabhängigkeit zu erlangen. Das Tool scannte Twitter suchte nach Beiträgen, die Schlüsselwörter und Hashtags enthielten, darunter „Amnesty“, und ließ sie über ChatGPT laufen, das ihre Stimmung als positiv, negativ oder neutral bewertete und die Ergebnisse in einem interaktiven Diagramm anzeigte. Das Tool ist auch in der Lage, Online-Diskussionen auf großen Plattformen wie Facebook schnell zusammenzufassen und zu analysieren und dabei häufig diskutierte Themen herauszusuchen.

Siehe auch  Mark Zuckerberg enthüllt den Meta AI Chatbot, seine Antwort auf ChatGPT

Laut Alonsos Präsentation ist es innerhalb von Social Links auch möglich, nach Gesichtserkennungsübereinstimmungen zu suchen, sobald das Tool festgestellt hat, dass jemand in sozialen Medien „negative“ Gefühle äußert. Der Benutzer kann ein Gesicht annehmen und mithilfe der Algorithmen von Social Links in den sozialen Medien nach Übereinstimmungen suchen, wodurch die Polizei einen umfassenderen Einblick in die Identität der Person erhält. „Die Möglichkeiten sind wirklich endlos“, fügte Alonso hinzu. Talavera sagte, dass das Unternehmen keine Gesichtsbilder speichert, sondern das Internet nach Übereinstimmungen durchsucht. Er fügte hinzu, dass es einer umgekehrten Bildersuche bei Google ähnele, obwohl Social Links auch eine eigene Gesichtserkennungssoftware verwende, die öffentliche Social-Media-Gruppen und Fotosammlungen der Benutzer durchsuchen könne.

Die Demonstration war eine von vielen Demonstrationen zum Thema künstliche Intelligenz auf der Milipol, einer weitläufigen Fachmesse, auf der Unternehmen Waffen und Überwachungstechnologie an Strafverfolgungs- und Heimatschutzbehörden vermarkten. Andy Martin, ein britischer Ingenieur beim israelischen Smartphone-Forensik-Riesen Cellebrite, sagte, dass große Sprachmodelle wie ChatGPT für alle Arten von Strafverfolgungsmaßnahmen von großem Nutzen sein würden, von der Durchsuchung von Anrufaufzeichnungen, um Anomalien im „Lebensmuster“ einer Person zu finden. bis hin zu „erweiterten Interviews“, bei denen die KI den Interviewer während eines Verhörs mit Informationen versorgt.

Er warnte jedoch davor, dass die Strafverfolgungsbehörden beim Einsatz von KI aufgrund ihrer Zuverlässigkeit und Voreingenommenheit transparent sein müssen. „Es wird niemals eine Möglichkeit geben, KI unvoreingenommen zu machen“, sagte er und wies darauf hin, dass von Menschen programmierte Technologien die Fehlbarkeit des Menschen widerspiegeln.

Mit dabei: Das italienische Überwachungsunternehmen Cy4gate, dessen neues Tool Gens.AI aus einer Liste von Merkmalen überzeugend menschliche Social-Media-Profile erstellt. Die KI stellt nicht nur legitim aussehende Avatare dar, sie können auch als autonome KI-Personas auf Plattformen wie Facebook und Telegram freigesetzt werden. Solche gefälschten Profile werden von verdeckten Ermittlern verwendet, um mehr über einen kriminellen Verdächtigen zu erfahren, obwohl sie normalerweise von Menschen und nicht von KI gesteuert werden. Cy4gate behauptet, seine Avatare seien realistisch genug, um „nah an das Ziel heranzukommen, eine Vertrauensbeziehung aufzubauen“ und einer Entdeckung zu entgehen. Ein Avatar Forbes Das von Gens.AI erstellte und bei Milipol – einer Personal Trainerin Anfang 30 – vorgestellte Projekt war auf Social-Media-Seiten live, darunter auch auf Facebook, wo es seit 2019 aktiv war.

Siehe auch  Kalkutta: 22-jährige Studentin behauptet, ihr Einkommen sei durch ChatGPT um 90 % gesunken

Meta-Outlaws verdeckt Polizeikonten. Bald darauf Forbes Nachdem das Konto bei Meta hervorgehoben wurde, wurde es entfernt.

Die Kombination von Social Links und Gens.AI führt zu der sehr realen Möglichkeit einer bizarren Art von KI-Echokammer, in der KI-Social-Media-Überwachungssoftware eines Spyware-Unternehmens verwendet wird, um KI-Personas zu überwachen, die von einem anderen erstellt wurden, mit ChatGPT und andere LLMs im Mix. Mit einem Wort, der Beginn des Kannibalismus der KI-Überwachung.

5/5 - (190 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein