In einem aktuellen Untersuchungsbericht enthüllte Forbes, dass Social Links, ein russisches Spyware-Unternehmen, das zuvor wegen angeblicher Überwachungsaktivitäten von Metas Plattformen verbannt wurde, ChatGPT für die Spionage von Menschen im Internet genutzt hat.
Diese beunruhigende Enthüllung von ChatGPT, bei der es um das Sammeln und Analysieren von Social-Media-Daten geht, um die Stimmung der Benutzer zu beurteilen, fügt den Anwendungsfällen von ChatGPT eine weitere kontroverse Dimension hinzu.
Social Links stellte auf einer Sicherheitskonferenz in Paris seinen unkonventionellen Einsatz von ChatGPT vor und demonstrierte die Kompetenz des Chatbots bei der Zusammenfassung und Analyse von Texten. Durch die Einspeisung von Daten, die über sein proprietäres Tool gewonnen wurden und sich auf Online-Diskussionen über eine aktuelle Kontroverse in Spanien beziehen, demonstrierte das Unternehmen, wie ChatGPT Stimmungen schnell verarbeiten und als positiv, negativ oder neutral kategorisieren konnte. Die Ergebnisse wurden dann mithilfe einer interaktiven Grafik dargestellt.
Datenschützer empfinden diese Entwicklung jedoch als äußerst besorgniserregend. Abgesehen von den unmittelbaren Bedenken, die dieser konkrete Fall aufwirft, gibt es eine umfassendere Sorge hinsichtlich des Potenzials von KI, die Fähigkeiten der Überwachungsindustrie zu erweitern.
Rory Mir, stellvertretender Direktor für Community Organizing bei der Electronic Frontier Foundation, äußerte seine Besorgnis darüber, dass KI es den Strafverfolgungsbehörden ermöglichen könnte, die Überwachungsbemühungen auszuweiten, sodass kleinere Teams größere Gruppen effizienter überwachen könnten.
Mir wies auf die bestehende Praxis von Polizeibehörden hin, gefälschte Profile zu verwenden, um Online-Communities zu infiltrieren, was eine abschreckende Wirkung auf die Online-Sprache habe. Mir warnte, dass Tools wie ChatGPT mit der Integration von KI eine schnellere Analyse der bei verdeckten Operationen gesammelten Daten ermöglichen und so die Online-Überwachung effektiv ermöglichen und eskalieren könnten.
Ein wesentlicher Nachteil, den Mir feststellt, ist die Erfolgsbilanz von Chatbots, die ungenaue Ergebnisse liefern. In hochriskanten Szenarien wie Strafverfolgungseinsätzen wird es prekär, sich auf KI zu verlassen.
Mir betonte, dass, wenn KI wichtige Entscheidungen wie Bewerbungen oder polizeiliche Aufmerksamkeit beeinflusst, Vorurteile in den Trainingsdaten – die häufig von Plattformen wie Reddit und 4chan stammen – nicht nur zu berücksichtigenden Faktoren, sondern auch zu Gründen werden, den Einsatz von KI in solchen Kontexten zu überdenken.
Die Undurchsichtigkeit der KI-Trainingsdaten, die als „Black Box“ bezeichnet wird, gibt weiteren Anlass zur Sorge. Mir wies darauf hin, dass sich in den Ergebnissen des Algorithmus Verzerrungen aufgrund der zugrunde liegenden Daten manifestieren könnten, die von Plattformen stammen, die für ihre unterschiedlichen und oft extremen Meinungen bekannt sind, und ihre Antworten möglicherweise nicht vertrauenswürdig machen.
Die sich entwickelnde Landschaft der KI-Anwendungen in der Überwachung wirft wichtige Fragen zu Ethik, Vorurteilen und den möglichen Auswirkungen auf die Freiheiten des Einzelnen und die Privatsphäre auf.
(Mit Input von Agenturen)
Tritt unser … bei WhatsApp-Kanal um die neuesten globalen Nachrichten-Updates zu erhalten
Veröffentlicht am: 20. November 2023 13:26:06 IST