Seit der Einführung der künstlichen Intelligenz, die jeder als chatgpt kennt, ist sie Gegenstand von Kontroversen Wie alle technischen Hilfsmittel werden sie nicht für positive Zwecke eingesetzt.

Eine Internetüberwachungsseite namens „Social Links“ nutzt diese KI, um Social-Media-Nutzer zu untersuchen und festzustellen, ob ihre Veröffentlichungen positiv, negativ oder neutral sind, um anhand ihrer Profile herauszufinden, wie kontrovers die von ihnen übermittelten Nachrichten sind.

Dieses Tool kann von Ihrem Computer oder Mobiltelefon aus verwendet werden, egal ob Android oder iOS, Unternehmen nutzen es jedoch auch Informieren Sie sich über Ihr Surfverhalten, Ihren Geschmack und auch darüber, ob die Kommentare, die Sie in Ihren Netzwerken machen, kontrovers sind.

verwandte Themen

Das betreffende Unternehmen demonstrierte seine Forschung auf einer Sicherheitskonferenz in Paris, die mit seinen Analysen feststellen kann die Stimmung der Nutzer beim Kommentieren von Beiträgen.

Damit soll auch beurteilt werden, ob diese Kommentare zu körperlicher Gewalt führen können, die ein Eingreifen der Behörden erforderlich machen könnte.

(Sie könnten interessiert sein an: Gespräche mit Robotern: ChatGPT spricht über die Zukunft der Musik)

Der „Social-Links“-Analyst Bruno Alonso äußerte auf der Konferenz, dass Software verwendet wurde, um die Reaktionen von Online-Nutzern anhand einer spezifischen Situation in Spanien auszuwerten.

Das Tool bewertete die Beiträge auf Twitter, jetzt „X“, unter Berücksichtigung einiger Schlüsselwörter und Hashtags, dAuf diese Weise konnten sie die Gefühle von Internetnutzern bewerten, die gewalttätig, neutral oder positiv waren

Diese Situation ist umstritten, da mehrere Analysten erklärt haben, dass der Einsatz dieser Art von Tools der künstlichen Intelligenz die individuelle Überwachung verstärken wird, eine Situation, die es noch nie gegeben hat wird eine Überwachung durch einen Menschen erreichenso wie sich alle Menschen bei all ihren Handlungen im Internet beobachtet fühlen werden.

Siehe auch  100.000 ChatGPT-Anmeldungen sind ins Darknet gelangt, warnt ein Cybersicherheitsunternehmen

Sicherlich werden andere Unternehmen bereits andere Arten von KI einsetzen, um zu wissen, was die Menschen wollen, um ihnen genau das zu geben und damit sie keinen freien Willen bei der Auswahl einer Ware, eines Produkts oder einer Dienstleistung haben.

(Lesen Sie mehr: Wie hilft künstliche Intelligenz, Plastik in den Ozeanen zu erkennen?)

Dies würde bedeuten, dass die Netzwerknutzer zwar den Mangel an Wahrheit in ihren Veröffentlichungen in vielen von ihnen sehen, aber nicht mehr klarer wissen, dass es im Internet viel Unwahrheit gibt. Damit Tools der künstlichen Intelligenz Ihre wahren Absichten nicht erkennen können.

Das chinesische Unternehmen Baidu bringt seinen Konversationsroboter als Rivalen zu ChatGPT auf den Markt

LUZ ANGELA DOMÍNGUEZ KORALLE

DIGITAL SCOPE EDITORIAL

ZEIT

Mehr Nachrichten

Disneys Pocahontas: So sieht es dank KI in seiner „Live-Action“-Version aus

Demaskierung „hypnotisierter“ KI: versteckte Risiken von Sprachmodellen

Stability AI präsentiert sein neues Videogenerierungsmodell aus Text

5/5 - (426 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein