Eine Frau aus Florida eine Klage eingereicht gegen OpenAI am Dienstag vor einem kalifornischen Gericht und forderte eine Einstellung der Entwicklung künstlicher Intelligenz durch das KI-Unternehmen wegen einer Vielzahl von Bedrohungen wie der Entwicklung von „Slaughterbots“ – autonomen Militäragenten, die sich der Zerstörung von Menschen widmen – massiven Datenschutzverletzungen und der Bedrohung der weit verbreiteten gefälschten Pornografie, neben vielen anderen Problemen.

Die Klage, die viele der Argumente von „ zusammenfasstSicherheitskräfte„Menschen, die der Meinung sind, dass das Tempo der KI-Entwicklung viel zu schnell voranschreitet, als dass sie jemals angemessen umgesetzt werden könnte, forderten eine Pause bei der KI-Entwicklung durch OpenAI und andere Unternehmen, damit die Risiken der Technologie vor dem Einsatz ordnungsgemäß berücksichtigt werden können.“

„Den Produkten müssen technische Sicherheitsmaßnahmen hinzugefügt werden, die verhindern, dass die Technologie die menschliche Intelligenz übersteigt und anderen schadet“, argumentierten die Anwälte der Kläger in der Klage.

Ein großer Teil der Klage fasste die Entwicklung von OpenAI und seinem Flaggschiff-Chatbot chatgpt zusammen. Ein Kritikpunkt ist der Wandel des Unternehmens von einem Non-Profit-Modell im Jahr 2015 zu einem ehrgeizigen Unternehmen mit einem Umsatz von fast 30 Milliarden US-Dollar, das bis Ende 2024 einen Umsatz von 1 Milliarde US-Dollar erwirtschaften soll.

Die „180-Grad-Transformation von OpenAI – von einer offenen gemeinnützigen Organisation zum Wohle der Menschheit zu einer geschlossenen, von Gier und Marktmacht angetriebenen Profitmaschinerie von Unternehmen“ habe „angesichts ihrer beispiellosen Natur und der damit verbundenen moralischen und rechtlichen Fragen für Aufsehen gesorgt“, heißt es in der Klage. Anwälte nannten auch die 10-Milliarden-Dollar-Investition von Microsoft in das Unternehmen als Beweis für die sich schnell ändernden Aufgaben des Unternehmens.

Siehe auch  5 ChatGPT-Aufforderungen zur Überwindung der Telefonsucht (holen Sie sich Ihren personalisierten Plan)

„OpenAI priorisiert kurzfristige finanzielle Gewinne gegenüber langfristigen Sicherheits- und ethischen Überlegungen“, argumentierten die Anwälte.

Die Klage warnte vor einem Unternehmensmonopol über eine transformative Technologie und befürchtete, dass die schnelle Integration der Technologie in eine Reihe alltäglicher Produkte zu massiven Datenschutzverletzungen führen würde, da das Tool eine Fülle sensibler Daten aufsaugt, den Benutzern möglicherweise nicht bewusst ist, dass sie aufgeben .

Um dem entgegenzuwirken, forderte die Klage „Transparenz“, „Rechenschaftspflicht“ und „Kontrolle“.

„OpenAI sollte die ‚Black Box‘ öffnen“, argumentierten die Anwälte, und alle Daten offenlegen, die ihre Tools sammeln, sowie wie sie gespeichert und verwendet werden.

„Die Entwickler von ChatGPT und den anderen KI-Produkten sollten für Produktaktionen verantwortlich sein“, sagten die Anwälte außerdem und argumentierten, dass der weitere kommerzielle Einsatz von KI-Produkten auf Eis gelegt werden sollte, bis KI-Produkte so entwickelt werden können, dass sie einem Kodex „menschlicher B. ethische Grundsätze und Richtlinien sowie die Achtung menschlicher Werte und Rechte“, und zwar erst, nachdem der Kläger und andere Mitglieder einer möglichen Sammelklage für die gestohlenen Daten entschädigt wurden, auf deren Grundlage die KI-Tools trainiert wurden.

Die Anwälte forderten außerdem, den Benutzern die Möglichkeit zu geben, jeglicher Datenerfassung zu widersprechen, und dass OpenAI Benutzer für „unrechtmäßig erworbene“ Daten oder alle auf diesen Daten basierenden Algorithmen löschen (oder entschädigen) soll.

„Vor jedem weiteren kommerziellen Einsatz müssen den Produkten technische Sicherheitsmaßnahmen hinzugefügt werden, die verhindern, dass die Technologie die menschliche Intelligenz übersteigt und anderen schadet.“

Die Anwälte des Klägers sagten, dass KI eine „einzigartige Bedrohung für die internationale Sicherheit und die Menschenrechte durch die Entwicklung autonomer Waffen, bekannt als ‚Slaughterbots‘“ darstelle, die sie als „Waffensysteme, die KI verwenden, um ausgewählte menschliche Ziele zu identifizieren und zu töten, ohne sie zu töten“ beschrieben Intervention“ und dass das Verhalten von OpenAI die Bedrohung verschärft.

Siehe auch  Neue Möglichkeiten, ChatGPT für SEO und Marketing zu nutzen

Aktuelle Berichte offenbaren, dass Israel möglicherweise KI eingesetzt hat für die Auswahl von Zielen in Gaza, was zusätzliche Angst vor der Technologie schürt, die sich auf das Schlachtfeld einschleicht.

Gary Marcus, emeritierter Professor für Psychologie und Neurowissenschaften an der NYU – und regelmäßiger Publikumsmagnet Kommentator Und Kritiker des KI-Hypes – erzählte dieDaily Dot sagte, dass er die Klage nach kurzem Überfliegen als „aktuell und gut durchdacht“ empfand und dass sie „wichtige Herausforderungen für die Geschäftspraktiken von OpenAI mit sich bringt“. Es wird interessant sein zu sehen, was damit passiert.“

Aber überhitzte Warnungen vor der Gefahr einer apokalyptischen Zerstörung durch die Technologie sind möglicherweise nicht unbedingt der Bereich, auf den man sich konzentrieren oder in den Mittelpunkt der Debatte rücken sollte.

„Auf dem Weg zu … Transparenz und Rechenschaftspflicht[, and control] ist sehr wichtig.“

Die Klage ist nur eine von vielen, mit denen OpenAI derzeit konfrontiert ist, obwohl sie die einzige ist, die sich direkt auf Slaughterbots bezieht.

*Erstveröffentlichung: 28. Februar 2024, 15:55 Uhr CST

Marlon Ettinger

Marlon Ettinger schreibt über Politik, Kriminalität und Kultur. Schicken Sie ihm Tipps und Ideen per E-Mail an [email protected].

Marlon Ettinger

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein