Eine Gruppe bekannter KI-Ethiker hat einen Kontrapunkt zu dem umstrittenen Brief dieser Woche geschrieben, in dem sie um eine sechsmonatige „Pause“ bei der KI-Entwicklung bitten, und kritisieren ihn dafür, dass er sich auf hypothetische zukünftige Bedrohungen konzentriert, wenn echte Schäden heute auf den Missbrauch der Technologie zurückzuführen sind .

Tausende von Menschen, darunter so bekannte Namen wie Steve Wozniak und Elon Musk, unterzeichneten Anfang dieser Woche den offenen Brief des Future of Life-Instituts, in dem sie vorschlugen, die Entwicklung von KI-Modellen wie GPT-4 auf Eis zu legen, um „Verluste“ zu vermeiden der Kontrolle über unsere Zivilisation“, neben anderen Bedrohungen.

Timnit Gebru, Emily M. Bender, Angelina McMillan-Major und Margaret Mitchell sind alle wichtige Persönlichkeiten in den Bereichen KI und Ethik, die (zusätzlich zu ihrer Arbeit) dafür bekannt sind, von Google über a verdrängt zu werden Papier Kritik an den Fähigkeiten von KI. Sie arbeiten derzeit am DAIR-Institut zusammen, einer neuen Forschungseinrichtung, die darauf abzielt, KI-assoziierte Schäden zu untersuchen, aufzudecken und zu verhindern.

Aber sie waren und sind nicht auf der Liste der Unterzeichner zu finden eine Rüge veröffentlicht Er rief das Versäumnis des Briefes hervor, sich mit bestehenden Problemen zu befassen, die durch die Technologie verursacht wurden.

„Diese hypothetischen Risiken stehen im Mittelpunkt einer gefährlichen Ideologie namens Langfristigkeit, die die tatsächlichen Schäden ignoriert, die sich aus dem heutigen Einsatz von KI-Systemen ergeben“, schrieben sie und verwiesen auf die Ausbeutung von Arbeitern, Datendiebstahl, synthetische Medien, die bestehende Machtstrukturen stützen, und die weitere Konzentration dieser Machtstrukturen in weniger Händen.

Die Entscheidung, sich über eine Terminator- oder Matrix-ähnliche Roboter-Apokalypse Sorgen zu machen, ist ein Ablenkungsmanöver, wenn wir im selben Moment Berichte von Unternehmen wie Clearview AI erhalten wird von der Polizei benutzt, um im Wesentlichen einen unschuldigen Mann zu beschuldigen. Keine Notwendigkeit für einen T-1000, wenn Sie Ring-Cams an jeder Haustür haben, die über Online-Stempelfabriken zugänglich sind.

Siehe auch  Die Zukunft von Epcot dreht sich um menschliche Geschichten – mit ein wenig Hilfe aus der Disney-Mythologie

Während die DAIR-Crew einigen Zielen des Schreibens zustimmt, wie der Identifizierung synthetischer Medien, betont sie, dass bei den heutigen Problemen jetzt mit den uns zur Verfügung stehenden Abhilfemaßnahmen gehandelt werden muss:

Was wir brauchen, ist eine Regulierung, die Transparenz erzwingt. Es sollte nicht nur immer klar sein, wann wir auf synthetische Medien stoßen, sondern Organisationen, die diese Systeme aufbauen, sollten auch verpflichtet werden, die Trainingsdaten und Modellarchitekturen zu dokumentieren und offenzulegen. Die Verantwortung für die Erstellung von Werkzeugen, die sicher zu verwenden sind, sollte bei den Unternehmen liegen, die generative Systeme bauen und einsetzen, was bedeutet, dass die Hersteller dieser Systeme für die von ihren Produkten erzeugten Ergebnisse verantwortlich gemacht werden sollten.

Der aktuelle Wettlauf zu immer größeren „KI-Experimenten“ ist kein vorgezeichneter Weg, bei dem unsere einzige Wahl darin besteht, wie schnell wir laufen, sondern eine Reihe von Entscheidungen, die von Profitmotiven getrieben werden. Die Handlungen und Entscheidungen von Unternehmen müssen durch Vorschriften geprägt sein, die die Rechte und Interessen der Menschen schützen.

Es ist in der Tat an der Zeit zu handeln, aber nicht imaginäre „mächtige digitale Köpfe“ sollten im Mittelpunkt unseres Interesses stehen. Stattdessen sollten wir uns auf die sehr realen und sehr gegenwärtigen ausbeuterischen Praktiken der Unternehmen konzentrieren, die behaupten, sie zu bauen, die Macht schnell zentralisieren und soziale Ungleichheiten verstärken.

Übrigens gibt dieser Brief eine Aussage wieder, die ich von Jessica Matthews, der Gründerin von Uncharted Power, auf dem gestrigen AfroTech-Event in Seattle gehört habe: „Du solltest keine Angst vor KI haben. Sie sollten Angst vor den Leuten haben, die es bauen.“ (Ihre Lösung: Werden Sie zu den Menschen, die es bauen.)

Siehe auch  Alles überall auf einmal RPG Thirsty Sword Lesbians

Während es verschwindend unwahrscheinlich ist, dass ein großes Unternehmen jemals zustimmen würde, seine Forschungsbemühungen gemäß dem offenen Brief zu unterbrechen, ist aus dem Engagement, das es erhalten hat, klar zu schließen, dass die Risiken – reale und hypothetische – der KI in vielen Segmenten von großer Bedeutung sind Gesellschaft. Aber wenn sie es nicht tun, muss es vielleicht jemand für sie tun.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein