Mehrere aktuelle und ehemalige Mitarbeiter von OpenAI und google DeepMind haben in einem offenen Brief vor den Gefahren fortschrittlicher KI und dem derzeitigen Mangel an Aufsicht über Unternehmen, die an KI-Technologie arbeiten, gewarnt.

Auf dem Weg zu einer besser überwachten Entwicklung!

Nicht jeder sieht die Entwicklung der Künstlichen Intelligenz positiv. Obwohl das Konzept schon seit Jahrzehnten existiert, ist die Realität der letzten beiden – mit der Einführung von chatgpt– meine Meinung geändert.

So rufen diese Mitarbeiter hervor mehrere Risiken, denen das Unternehmen ausgesetzt sein wird : die Verschärfung bestehender Ungleichheiten, Manipulation und Desinformation sowie der Kontrollverlust autonomer KI-Systeme.

Dem Schreiben zufolge könnte diese nicht erschöpfende Liste tatsächlich dazu führen Aussterben der Menschheitinsbesondere da KI-Unternehmen diesem Risiko ausgesetzt sind starke finanzielle Anreize noch schneller in der Entwicklung voranzukommen. Unter diesen Bedingungen ist nach Ansicht der Unterzeichner nicht damit zu rechnen geben freiwillig Sicherheitsinformationen weiter.

Openai-Mitarbeiter Schlagen Alarm Wegen Der Entwicklung Von Ki

Bis es eine wirksame staatliche Aufsicht über diese Unternehmen gibt, sind aktuelle und ehemalige Mitarbeiter die wenigen Menschen, die ihre Verantwortung wahrnehmen können. Doch weitreichende Vertraulichkeitsvereinbarungen hindern uns daran, unsere Bedenken zu äußern../.. Gewöhnliche Whistleblower-Schutzmaßnahmen reichen nicht aus, da sie sich auf illegale Aktivitäten konzentrieren, während viele der Risiken, über die wir uns Sorgen machen, noch nicht reguliert sind.

Zu den Kontrollvorschlägen zählen die Unterzeichner die Schaffung eines verstärkten anonymen Prozesses um den Mitarbeitern der betroffenen Unternehmen die Möglichkeit zu geben, ihre Bedenken hinsichtlich der ihnen möglicherweise bekannten Risiken mitzuteilen. Und dies nach den Vorständen von Firmen, Aufsichtsbehörden oder unabhängigen Organisationen mit einschlägiger Fachkompetenz.

Darüber hinaus, Sie glauben, dass wir die Unternehmenskultur überprüfen müssen : Ein Risiko anzuprangern bedeutet nicht unbedingt, sich der Entwicklung eines Projekts zu widersetzen, sondern vielmehr, es besser zu regulieren. Was uns nicht davon abhält, ein Garantie- und Schutzsystem für alarmierende Mitarbeiter zu erwähnen!

Siehe auch  OpenAI imitiert Scarlett Johanssons Stimme für chatGPT, obwohl sie sich weigert

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein