OpenAI, das Forschungs- und Bereitstellungsunternehmen für künstliche Intelligenz (KI) hinter chatgpt, startet eine neue Initiative zur Bewertung einer breiten Palette von KI-bezogenen Risiken.

OpenAI baut ein neues Team auf, das sich der Verfolgung, Bewertung, Prognose und dem Schutz potenzieller katastrophaler Risiken widmet, die von KI ausgehen, so das Unternehmen angekündigt am 25. Okt.

Die neue Abteilung von OpenAI mit dem Namen „Preparedness“ wird sich speziell auf potenzielle KI-Bedrohungen im Zusammenhang mit chemischen, biologischen, radiologischen und nuklearen Bedrohungen sowie auf individualisierte Überzeugung, Cybersicherheit und autonome Replikation und Anpassung konzentrieren.

Unter der Leitung von Aleksander Madry wird das Preparedness-Team versuchen, Fragen zu beantworten, etwa wie gefährlich Grenz-KI-Systeme bei Missbrauch sind und ob böswillige Akteure in der Lage wären, gestohlene KI-Modellgewichte einzusetzen.

„Wir glauben, dass bahnbrechende KI-Modelle, die die Fähigkeiten der derzeit fortschrittlichsten bestehenden Modelle übertreffen werden, das Potenzial haben, der gesamten Menschheit zu helfen“, schrieb OpenAI und räumte ein, dass KI-Modelle auch „zunehmend schwerwiegende Risiken“ bergen. Das Unternehmen fügte hinzu:

„Wir nehmen das gesamte Spektrum der Sicherheitsrisiken im Zusammenhang mit KI ernst, von den Systemen, die wir heute haben, bis hin zu den entlegensten Bereichen der Superintelligenz. […] Um die Sicherheit hochleistungsfähiger KI-Systeme zu unterstützen, entwickeln wir unseren Ansatz zur Katastrophenrisikovorsorge.“

Dem Blogbeitrag zufolge sucht OpenAI nun Talente mit unterschiedlichem technischen Hintergrund für sein neues Preparedness-Team. Darüber hinaus startet das Unternehmen eine AI Preparedness Challenge zur Verhinderung katastrophalen Missbrauchs und bietet API-Gutschriften in Höhe von 25.000 US-Dollar für die zehn besten Einsendungen an.

OpenAI gab zuvor bekannt, dass es plant, im Juli 2023 ein neues Team zu bilden, das sich der Bekämpfung potenzieller KI-Bedrohungen widmet.

Siehe auch  Könnte ein Gericht wirklich die Zerstörung von ChatGPT anordnen? Die New York Times glaubt das, und es könnte richtig sein

Verwandt: CoinMarketCap führt das ChatGPT-Plugin ein

Die mit künstlicher Intelligenz möglicherweise verbundenen Risiken wurden häufig hervorgehoben, ebenso wie Befürchtungen, dass KI das Potenzial habe, intelligenter zu werden als jeder Mensch. Obwohl Unternehmen wie OpenAI diese Risiken anerkennen, haben sie in den letzten Jahren aktiv neue KI-Technologien entwickelt, was wiederum weitere Bedenken hervorgerufen hat.

Im Mai 2023 wurde die gemeinnützige Organisation Center for AI Safety gegründet freigegeben ein offener Brief zum KI-Risiko, in dem die Gemeinschaft aufgefordert wird, die Risiken des Aussterbens durch KI neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg als globale Priorität einzudämmen.

Zeitschrift: So schützen Sie Ihre Krypto in einem volatilen Markt – Bitcoin-OGs und Experten äußern sich

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein