Das von Microsoft unterstützte Start-up entwickelt einen „Plan“ zur Bewertung des Risikos, dass ein LLM jemandem bei der Schaffung einer biologischen Bedrohung helfen könnte.

OpenAI hat gesagt, dass GPT-4, das fortschrittlichste KI-Modell, das vom chatgpt-Hersteller entwickelt wurde, ein geringes Potenzial hat, Benutzern bei der Entwicklung biologischer Waffen zu helfen, die in Zukunft der menschlichen Sicherheit schaden könnten.

In einem gestern (31. Januar) veröffentlichten Blog sagte das Start-up aus San Francisco, dass GPT-4 „höchstens“ eine leichte Steigerung der Fähigkeit bietet, präzise biologische Bedrohungen zu erzeugen.

„Obwohl dieser Aufschwung nicht groß genug ist, um schlüssig zu sein, ist unser Ergebnis ein Ausgangspunkt für weitere Forschung und Beratung in der Gemeinschaft“, schrieb das Unternehmen.

„Wir sind uns jedoch unsicher, ob die beobachteten Steigerungen aussagekräftig sind. In Zukunft wird es von entscheidender Bedeutung sein, einen größeren Wissensbestand zu entwickeln, um die Ergebnisse dieser und künftiger Bewertungen zu kontextualisieren und zu analysieren.“

OpenAI kam zu diesem Schluss, als es einen „Plan“ zur Bewertung des Risikos entwickelte, dass ein großes Sprachmodell (LLM) jemandem bei der Schaffung einer biologischen Bedrohung helfen könnte.

Die Ergebnisse zeigten einen „klaren und dringenden“ Bedarf an mehr Arbeit in diesem Bereich, hieß es.

„Angesichts des aktuellen Fortschritts bei Grenz-KI-Systemen scheint es möglich, dass zukünftige Systeme böswilligen Akteuren erhebliche Vorteile bieten könnten“, fuhr das Unternehmen fort.

„Daher ist es von entscheidender Bedeutung, dass wir einen umfassenden Satz qualitativ hochwertiger Bewertungen für Biorisiken (sowie andere Katastrophenrisiken) aufbauen, die Diskussion darüber vorantreiben, was ein „bedeutsames“ Risiko ausmacht, und wirksame Strategien zur Risikominderung entwickeln.“

Die Möglichkeit, dass Bedrohungsakteure KI nutzen, um neben anderen Technologien, die eine Gefahr für die Menschheit darstellen können, auch biologische Waffen herzustellen, bereitet vielen Regierungen Sorgen, seit die Technologie im Jahr 2022 rasant voranzuschreiten begann.

Siehe auch  Der jüngste Entwurf von ChatGPT wurde veröffentlicht und Multimodulfunktionen werden im Jahr 2024 veröffentlicht | TechNews Technology News

Im Oktober letzten Jahres unterzeichnete US-Präsident Joe Biden eine Durchführungsverordnung zur Schaffung von KI-Schutzmaßnahmen.

„Eines ist klar: Um das Versprechen der KI zu verwirklichen und die Risiken zu vermeiden, müssen wir diese Technologie beherrschen“, sagte Biden damals. „Meiner Meinung nach führt kein Weg daran vorbei. Es muss regiert werden.“

Auf dieser Seite des Teichs verabschiedeten die europäischen Gesetzgeber im vergangenen Juni das wegweisende KI-Gesetz, um „risikoreiche“ KI-Aktivitäten einzudämmen und die Rechte der Bürger zu schützen. Durch die Regeln werden bestimmte KI-Technologien verboten, beispielsweise die Verwendung von KI zur Beeinflussung von Wählern oder in Empfehlungssystemen auf Social-Media-Plattformen, und andere werden auf eine Hochrisikoliste gesetzt, wodurch den Entwicklern der Technologie bestimmte Verpflichtungen auferlegt werden.

Erfahren Sie in unserem neuen Podcast „Future Human: The Series“, wie neue Technologietrends die Zukunft verändern werden. Hören Sie jetzt weiter SpotifyAn apple.co/496oidr” href=”https://apple.co/496OidR” target=”_blank” rel=”noreferrer noopener” aria-label=”Link Apple”>Apfel oder wo auch immer Sie Ihre Podcasts bekommen.

5/5 - (258 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein