Bild für Artikel mit dem Titel „Microsoft Calling It Quits on Creepy Emotion Recognition Tech“.

Foto: John MacDougall (Getty Images)

Microsoft kehrt ihr den Rücken zu wissenschaftlich verdächtig und ethisch fragwürdig Emotionserkennungstechnologie. Zumindest für den Moment.

In einem großen Sieg für Befürworter des Datenschutzes, die wegen unzureichend getesteter und invasiver biometrischer Technologie Alarm schlagen, kündigte Microsoft an, dass es plant, seine sogenannten „Emotionserkennungs“-Erkennungssysteme aus seinen Azure Face-Gesichtserkennungsdiensten zurückzuziehen. Das Unternehmen wird auch Funktionen auslaufen lassen, die versuchen, mithilfe von KI Identitätsattribute wie Geschlecht und Alter abzuleiten.

Die Entscheidung von Microsoft, die Bremse der umstrittenen Technologie zu ziehen, kommt inmitten eines größeren Überholung seiner Ethikpolitik. Natasha Crampton, Chief Responsible AI Officer von Microsoft, sagte, die Umkehrung des Unternehmens sei eine Reaktion auf Experten, die einen mangelnden Konsens über die Definition von „Emotionen“ und Bedenken hinsichtlich einer Überverallgemeinerung bei der Interpretation dieser Emotionen durch KI-Systeme angeführt haben.

„Wir haben mit internen und externen Forschern zusammengearbeitet, um die Einschränkungen und potenziellen Vorteile dieser Technologie zu verstehen und die Kompromisse zu bewältigen“, sagte Sarah Bird, Produktmanagerin der Azure AI Principal Group, in einem separaten Bericht Aussage. „Der API-Zugriff auf Funktionen, die vertrauliche Attribute vorhersagen, eröffnet auch eine Vielzahl von Möglichkeiten, wie sie missbraucht werden können – einschließlich der Unterwerfung von Menschen unter Stereotypisierung, Diskriminierung oder unfaire Denial-of-Services“, fügte Bird hinzu.

Bird sagte, das Unternehmen werde umziehen weg von einem Allzwecksystem in der Azure Face-API, das versucht, diese Attribute zu messen, um „Risiken zu mindern“. Ab Dienstag haben neue Azure-Kunden keinen Zugriff mehr auf dieses Erkennungssystem, bestehende Kunden haben jedoch bis 2023 Zeit, ihre Nutzung einzustellen. Entscheidend ist, dass Microsoft sagt, dass seine API nicht mehr für allgemeine Zwecke verfügbar sein wird, aber Bird sagte, dass das Unternehmen die Technologie möglicherweise immer noch in bestimmten begrenzten Anwendungsfällen untersuchen wird, insbesondere als Werkzeug zur Unterstützung von Menschen mit Behinderungen.

„Microsoft erkennt an, dass diese Funktionen wertvoll sein können, wenn sie für eine Reihe von Szenarien mit kontrollierter Zugänglichkeit verwendet werden“, fügte Bird hinzu.

Die Kurskorrektur ist ein Versuch, die Richtlinien von Microsoft an die neue 27-Seite anzupassen Verantwortlicher KI-Standard Dokumentieren Sie ein Jahr in der Herstellung. Neben anderen Richtlinien fordert der Standard Microsoft auf, sicherzustellen, dass seine Produkte einer angemessenen Datenverwaltung unterliegen, eine informierte menschliche Aufsicht und Kontrolle unterstützen und „gültige Lösungen für die Probleme bieten, die sie lösen sollen“.

Technologie zur Emotionserkennung ist „bestenfalls grob“.

In einem Interview mit Gizmodo nannte Albert Fox Cahn, Executive Director des Surveillance Technology Oversight Project, es ein „Kinderspiel“ für Microsoft, der Emotionserkennungstechnologie den Rücken zu kehren.

„Die Wahrheit ist, dass die Technologie bestenfalls grob ist und höchstens eine kleine Untergruppe von Benutzern entschlüsseln kann.“ sagte Fox Cahn. „Aber selbst wenn die Technologie verbessert würde, würde es immer noch jeden bestrafen, der neurodivergent ist. Wie bei den meisten Verhaltens-KI wird Vielfalt bestraft, und Andersdenkende werden als Gefahr behandelt.“

ACLU Senior Policy Analyst Jay Stanley begrüßte die Entscheidung von Microsoft, die seiner Meinung nach die „wissenschaftliche Verrufung“ der automatisierten Emotionserkennung widerspiegele.

„Ich hoffe, dies wird dazu beitragen, ein breiteres Verständnis zu festigen, dass diese Technologie nicht etwas ist, auf das man sich verlassen oder das sie außerhalb von experimentellen Kontexten eingesetzt werden sollte“, sagte Stanley in einem Telefongespräch mit Gizmodo. „Microsoft ist ein bekannter Name und ein großes Unternehmen, und ich hoffe, dass es eine breite Wirkung hat, indem es anderen hilft, die schwerwiegenden Mängel dieser Technologie zu verstehen.“

Siehe auch  Adil El Arbi und Bilall Fallah

Die Ankündigung vom Dienstag folgt auf jahrelangen Druck von Aktivisten und Akademikern, die sich gegen die potenziellen ethischen und datenschutzrechtlichen Fallstricke einer leicht zugänglichen Emotionserkennung ausgesprochen haben. Eine dieser Kritikerinnen, die USC Annenberg Research Professorin Kate Crawford, ging in ihrem Buch von 2021 auf die Einschränkungen der Emotionserkennung (auch „Affekterkennung“ genannt) ein Atlas der KI.Im Gegensatz zur Gesichtserkennung, die versucht, die Identität einer bestimmten Person zu identifizieren, versucht die Emotionserkennung, „Emotionen zu erkennen und zu klassifizieren, indem sie jedes Gesicht analysiert“ – ein Argument, das Crawford argumentiert, ist grundlegend fehlerhaft.

„Die Schwierigkeit, die Verbindung zwischen Gesichtsbewegungen und grundlegenden emotionalen Kategorien zu automatisieren, führt zu der größeren Frage, ob Emotionen überhaupt angemessen in eine kleine Anzahl diskreter Kategorien gruppiert werden können“, schreibt Crawford. „Es gibt das hartnäckige Problem, dass Gesichtsausdrücke möglicherweise wenig über unsere ehrlichen inneren Zustände aussagen, wie jeder bestätigen kann, der gelächelt hat, ohne sich wirklich glücklich zu fühlen.“

Crawford ist nicht allein. A 2019 Bericht durchgeführt vom NYU-Forschungszentrum AI Now argumentierte, dass Emotionserkennungstechnologie, wenn sie in die falschen Hände gerät, Institutionen möglicherweise dazu bringen könnte, dystopische Entscheidungen über die Eignung von Einzelpersonen zu treffen, an Kernaspekten der Gesellschaft teilzunehmen. Die Autoren des Berichts forderten die Regulierungsbehörden auf, die Technologie zu verbieten. Vor kurzem schrieb eine Gruppe von 27 Gruppen für digitale Rechte eine offener Brief an den CEO und Gründer von Zoom, Eric S. Yuan, und forderte ihn auf, die Bemühungen von Zoom, die Emotionserkennung in Videoanrufe zu integrieren, einzustellen.

Microsofts Dreh- und Angelpunkt für emotionale Intelligenz kommt fast genau zwei Jahre, nachdem es sich Amazon und IBM angeschlossen hat verbieten Einsatz von Gesichtserkennung durch die Polizei. Seitdem haben KI-Ethikteams bei großen Technologieunternehmen wie Google und Twitter vermehrtwenn auch nicht ohne einige hitzige Spannungen. Während die mögliche Entscheidung von Microsoft, sich von der Emotionserkennung zurückzuziehen, es davor bewahren könnte, dasselbe zu spiegeln entsetzlich Aufgrund der Probleme des öffentlichen Vertrauens, die andere Technologieunternehmen plagen, bleibt das Unternehmen unter den Befürwortern von Datenschutz und bürgerlicher Freiheit eine große Sorge seine Partnerschaften mit Strafverfolgungsbehörden und sein eifriges Interesse an Militärverträgen.

Siehe auch  TikTok führt das Bewertungssystem „Content Levels“ ein

Die Entscheidung von Microsoft wurde jedoch allgemein von Datenschutzgruppen begrüßt Fox Cahn sagte gegenüber Gizmodo, er wünschte, Microsoft würde weitere Maßnahmen ergreifen seine andere, profitablere, aber ebenso in Bezug auf Technologien.

„Obwohl dies ein wichtiger Schritt ist, hat Microsoft noch einen langen Weg vor sich, um seine Erfolgsbilanz im Bereich der Bürgerrechte zu bereinigen“, sagte Fox Cahn. „Die Firma profitiert immer noch vom Domain Awareness System, [an] Orwellsche Geheimdienstsoftware, die in Zusammenarbeit mit dem NYPD entwickelt wurde. Das Domain Awareness System und die KI-Überwachungssysteme, die es ermöglicht, werfen genau die gleichen Bedenken auf wie die Emotionserkennung, nur das DAS ist profitabel.“

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein