Seit der Einführung der künstlichen Intelligenz, die jeder als chatgpt kennt, ist sie Gegenstand von Kontroversen Wie alle technischen Hilfsmittel werden sie nicht für positive Zwecke eingesetzt.
Eine Internetüberwachungsseite namens „Social Links“ nutzt diese KI, um Social-Media-Nutzer zu untersuchen und festzustellen, ob ihre Veröffentlichungen positiv, negativ oder neutral sind, um anhand ihrer Profile herauszufinden, wie kontrovers die von ihnen übermittelten Nachrichten sind.
Dieses Tool kann von Ihrem Computer oder Mobiltelefon aus verwendet werden, egal ob Android oder iOS, Unternehmen nutzen es jedoch auch Informieren Sie sich über Ihr Surfverhalten, Ihren Geschmack und auch darüber, ob die Kommentare, die Sie in Ihren Netzwerken machen, kontrovers sind.
verwandte Themen
Das betreffende Unternehmen demonstrierte seine Forschung auf einer Sicherheitskonferenz in Paris, die mit seinen Analysen feststellen kann die Stimmung der Nutzer beim Kommentieren von Beiträgen.
Damit soll auch beurteilt werden, ob diese Kommentare zu körperlicher Gewalt führen können, die ein Eingreifen der Behörden erforderlich machen könnte.
(Sie könnten interessiert sein an: Gespräche mit Robotern: ChatGPT spricht über die Zukunft der Musik)
Der „Social-Links“-Analyst Bruno Alonso äußerte auf der Konferenz, dass Software verwendet wurde, um die Reaktionen von Online-Nutzern anhand einer spezifischen Situation in Spanien auszuwerten.
Das Tool bewertete die Beiträge auf Twitter, jetzt „X“, unter Berücksichtigung einiger Schlüsselwörter und Hashtags, dAuf diese Weise konnten sie die Gefühle von Internetnutzern bewerten, die gewalttätig, neutral oder positiv waren
Diese Situation ist umstritten, da mehrere Analysten erklärt haben, dass der Einsatz dieser Art von Tools der künstlichen Intelligenz die individuelle Überwachung verstärken wird, eine Situation, die es noch nie gegeben hat wird eine Überwachung durch einen Menschen erreichenso wie sich alle Menschen bei all ihren Handlungen im Internet beobachtet fühlen werden.
Sicherlich werden andere Unternehmen bereits andere Arten von KI einsetzen, um zu wissen, was die Menschen wollen, um ihnen genau das zu geben und damit sie keinen freien Willen bei der Auswahl einer Ware, eines Produkts oder einer Dienstleistung haben.
(Lesen Sie mehr: Wie hilft künstliche Intelligenz, Plastik in den Ozeanen zu erkennen?)
Dies würde bedeuten, dass die Netzwerknutzer zwar den Mangel an Wahrheit in ihren Veröffentlichungen in vielen von ihnen sehen, aber nicht mehr klarer wissen, dass es im Internet viel Unwahrheit gibt. Damit Tools der künstlichen Intelligenz Ihre wahren Absichten nicht erkennen können.
Das chinesische Unternehmen Baidu bringt seinen Konversationsroboter als Rivalen zu ChatGPT auf den Markt
LUZ ANGELA DOMÍNGUEZ KORALLE
DIGITAL SCOPE EDITORIAL
ZEIT
Mehr Nachrichten
Disneys Pocahontas: So sieht es dank KI in seiner „Live-Action“-Version aus
Demaskierung „hypnotisierter“ KI: versteckte Risiken von Sprachmodellen
Stability AI präsentiert sein neues Videogenerierungsmodell aus Text