Willkommen bei AI This Week, der wöchentlichen Zusammenfassung von Gizmodo, in der wir einen tiefen Einblick in die Entwicklungen in der künstlichen Intelligenz geben.

Diese Woche, Forbes chatgpt-becomes-a-social-media-spy-assistant/?sh=56b7f0345cf6",{"metric25":1}]]“ href=“https://www.forbes.com/sites/thomasbrewster/2023/11/16/chatgpt-becomes-a-social-media-spy-assistant/?sh=56b7f0345cf6″ target=“_blank“ rel=“noopener noreferrer“>gemeldet dass ein russisches Spyware-Unternehmen namens Social Links begonnen hatte, ChatGPT zur Durchführung von Stimmungsanalysen zu verwenden. Das gruselige Feld, mit dem Polizisten und Spione Social-Media-Daten sammeln und analysieren, um zu verstehen, wie Webnutzer über bestimmte Dinge denken, Stimmungsanalyse ist einer der skizzenhafteren Anwendungsfälle für den kleinen Chatbot, die bisher entstanden sind.

Soziale Links, was zuvor der Fall war startete Metas Plattformen wegen angeblicher Überwachung von Benutzern, stellte diese Woche auf einer Sicherheitskonferenz in Paris seinen unkonventionellen Einsatz von ChatGPT vor. Das Unternehmen war in der Lage, die Fähigkeit des Chatbots zur Textzusammenfassung und -analyse zu nutzen, um große Datenmengen zu durchsuchen und diese schnell zu verarbeiten. In einer Demonstration speiste das Unternehmen die von seinem eigenen proprietären Tool gesammelten Daten in ChatGPT ein; Die Daten, die sich auf Online-Beiträge über eine aktuelle Kontroverse in Spanien bezogen, wurden dann vom Chatbot analysiert, der sie „als positiv, negativ oder neutral bewertete und die Ergebnisse in einem interaktiven Diagramm anzeigte“, schreibt Forbes.

Offensichtlich empfanden Datenschützer dies als mehr als beunruhigend – nicht nur wegen dieses konkreten Falles, sondern auch wegen der Aussage darüber, wie KI die Macht der Überwachungsindustrie im Allgemeinen ausweiten könnte.

Rory Mir, stellvertretender Direktor für Community Organizing bei der Electronic Frontier Foundation, sagte, dass KI den Strafverfolgungsbehörden dabei helfen könnte, ihre Überwachungsbemühungen auszuweiten, sodass kleinere Polizeiteams größere Gruppen problemlos überwachen könnten. Schon jetzt nutzen Polizeibehörden häufig gefälschte Profile, um sich in Online-Communities einzubetten; Diese Art der Überwachung habe eine abschreckende Wirkung auf die Online-Sprache, sagte Mir. Er fügte hinzu: „Das Beängstigende an Dingen wie ChatGPT ist, dass sie diese Art von Betrieb ausweiten können.“ KI kann es den Polizisten „einfacher machen, die Daten, die sie während dieser verdeckten Operationen sammeln, schneller zu analysieren“, was bedeutet, dass „KI-Tools es sind.“ [effectively] „Ermöglichung“ der Online-Überwachung, fügte er hinzu.

Siehe auch  CHATGPT empfiehlt die Top 5 Städte in WA für Alleinerziehende

Mir bemerkte auch ein eklatantes Problem bei dieser Art der Nutzung von KI: Chatbots haben eine ziemlich schlechte Erfolgsbilanz darin, Fehler zu machen und schlechte Ergebnisse zu liefern. „In hochriskanten Szenarien wie diesem ist KI wirklich besorgniserregend“, sagte Mir. „Es ist eine Sache, ChatGPT einen Entwurf Ihres Artikels lesen zu lassen, damit Sie ihn fragen können: ‚Wie akzeptabel ist das?‘ Aber wenn es darum geht, beispielsweise zu bestimmen, ob jemand einen Job oder eine Wohnung bekommt, oder in diesem Fall, ob jemand übermäßige Aufmerksamkeit von der Polizei erhält oder nicht, dann werden diese Vorurteile nicht nur zu einer Sache zu berücksichtigen, aber ein Grund, es nicht auf diese Weise zu verwenden [at all].“

Mir fügte hinzu, dass es aufgrund der „Black Box“ der KI-Trainingsdaten schwierig sei, sicher zu sein, ob die Antwort des Algorithmus vertrauenswürdig sei oder nicht. „Ich meine, dieses Zeug wird auf Reddit- und 4chan-Daten trainiert“, kichert er. „Die Verzerrungen, die sich aus diesen zugrunde liegenden Daten ergeben, werden im Mosaik ihrer Ergebnisse wieder auftauchen.“

Frage des Tages: WTF hat Sam Altman gemacht?

Foto: Justin Sullivan (Getty Images)

In einer der wohl schockierendsten Überraschungen in der jüngeren Technologiegeschichte wurde Sam Altman von seiner Position als CEO von OpenAI verdrängt. Am Freitag, ein Statement wurde vom Unternehmen veröffentlicht und kündigte einen abrupten Führungswechsel an. „Herr. Altmans Abgang erfolgte im Anschluss an einen beratenden Überprüfungsprozess durch den Vorstand, der zu dem Schluss kam, dass er in seiner Kommunikation mit dem Vorstand nicht durchgängig offen war, was dessen Fähigkeit, seine Verantwortung wahrzunehmen, beeinträchtigte. Der Vorstand hat kein Vertrauen mehr in seine Fähigkeit, OpenAl weiterhin zu leiten.“ In dem unmittelbaren Machtvakuum, das durch diese schockierende Wendung der Ereignisse entstand, hat der Vorstand offenbar Mira Murati, die Chief Technology Officer des Unternehmens, als Interims-CEO ausgewählt, heißt es in der Pressemitteilung. Bisher ist völlig unklar, was Sam getan haben könnte, um solch einen katastrophalen Sturzflug in seiner Karriere zu ermöglichen. Man muss es wirklich vermasseln, um im Laufe des Tages vom Stadtprinzen des Silicon Valley zum Paria zu werden. Ich warte gespannt darauf, zu erfahren, was hier genau passiert ist.

Siehe auch  Generative künstliche Intelligenz verändert den Einzelhandel mit ChatGPT

Weitere Schlagzeilen dieser Woche

  • Die automatisierte Gesundheitsversorgung klingt nach einem zertifizierbaren Albtraum. Eine neue Klage behauptet, dass UnitedHealthcare verwendet einen zutiefst fehlerhaften KI-Algorithmus, um die Beurteilung von Ärzten in Bezug auf Patienten „außer Kraft zu setzen“ und es dem Versicherungsriesen so zu ermöglichen, alten und kranken Patienten den Versicherungsschutz zu verweigern. In der Klage, die beim US-Bezirksgericht in Minnesota eingereicht wurde, wird behauptet, dass NaviHealth, eine Tochtergesellschaft von UnitedHealth, einen Closed-Source-KI-Algorithmus, nH Predict, verwendet, der nicht nur dazu verwendet wird, Patienten den Versicherungsschutz zu verweigern, sondern auch nachweislich erfolgreich ist oft falsch. Ars Technica hat die ganze Geschichte.
  • Microsoft scheint vom abrupten Ausstieg von Sam Altman bei OpenAI „überrumpelt“ worden zu sein. Ein neuer Bericht von Axios behauptet, dass Microsoft OpenAI von zentraler Bedeutung ist Geschäftspartner (und Geldgeber) war „überrumpelt“ von der Tatsache, dass sein Chef nun mit extremen Vorurteilen entlassen wird. Viel mehr sagt der Bericht nicht und zitiert lediglich eine „mit der Situation vertraute Person“. Es genügt zu sagen, dass alle darüber immer noch ziemlich verwirrt sind.
  • Das Vereinigte Königreich reguliert die KI möglicherweise doch nicht. Es scheint, dass die Charmeoffensive der Big Tech auf der anderen Seite des großen Teichs funktioniert hat. In den letzten Wochen haben einige der größten Persönlichkeiten der KI-Branche –darunter Elon Musk– reiste nach Großbritannien, um an einem KI-Gipfel teilzunehmen. Der allgemeine Tenor der anwesenden Führungskräfte war: KI könnte die Welt zerstören, aber bitte, lasst uns vorerst nichts dagegen unternehmen. Diese Woche hat der Minister für KI und geistiges Eigentum des Landes, Jonathan Camrose, sagte der Presse dass das Land „kurzfristig“ keine „vorzeitige Regulierung“ umsetzen und eine „Hemmung der Innovation“ vermeiden wollte.
Siehe auch  Wie ChatGPT die Rede von Fed Powell analysiert hat
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein