- Ein OpenAI-Bericht ergab, dass die Wahrscheinlichkeit, dass GPT-4 zur Entstehung biologischer Bedrohungen beitragen könnte, nur gering ist.
- Der Bericht stammt vom „Preparedness“-Team von OpenAI, das potenzielle „katastrophale“ Risiken von KI untersucht.
- Experten haben zuvor davor gewarnt, dass fortschrittliche KI zur Planung biologischer Angriffe eingesetzt werden könnte.
OpenAI geht davon aus, dass die Wahrscheinlichkeit, dass ChatGPT zur Schaffung biologischer Bedrohungen genutzt werden könnte, nur gering ist.
Das KI-Startup heißt es in einem neuen Bericht dass sein GPT-4-Modell „höchstens eine leichte Verbesserung“ bei der Fähigkeit zur Herstellung biologischer Waffen bewirkte, warnte jedoch, dass zukünftige Modelle hilfreicher für „böswillige Akteure“ sein könnten, die Chatbots nutzen möchten, um bei der Herstellung von Biowaffen zu helfen.
Experten haben gewarnt, dass KI zur Erleichterung biologischer Terroranschläge eingesetzt werden könnte, indem sie entweder Terroristen bei der Herstellung biologischer und chemischer Waffen unterstützt oder ihnen bei der Planung ihrer Angriffe hilft.
A wichtiger Bericht der Rand Corporation Letztes Jahr wurde festgestellt, dass große Sprachmodelle (LLMs) zur Planung biologischer Angriffe verwendet werden könnten, obwohl sie keine spezifischen Anweisungen für die tatsächliche Herstellung von Biowaffen liefern könnten.
Andere in der Technologiebranche haben ebenfalls ihre Besorgnis geäußert. In Anhörungen des Senatsausschusses im letzten Jahr sagte Anthropic-CEO Dario Amodei, dass KI-Modelle könnte bald in der Lage sein, Anweisungen für fortschrittliche Biowaffen bereitzustellenund Mark Zuckerberg wurde mit Behauptungen konfrontiert, dass Metas Llama 2-Modell eine lieferte Detaillierte Anleitung zur Herstellung von Anthrax.
Der Bericht von Das „Bereitschafts“-Team von OpenAIdas letztes Jahr gegründet wurde, um mögliche „katastrophale“ Auswirkungen zu untersuchen, die sich aus der Entwicklung fortschrittlicher KI ergeben könnten, zielte darauf ab, diese Bedenken zu untersuchen.
Die Forscher stellten eine Gruppe von 50 Biologieexperten und 50 Studenten zusammen, die mindestens einen Hochschulkurs in Biologie belegt hatten, und ordneten sie nach dem Zufallsprinzip einer Gruppe mit Zugang zu GPT-4 oder einer Kontrollgruppe mit Zugang zum Internet zu.
Beide wurden damit beauftragt, eine Reihe von Fragen im Zusammenhang mit der Herstellung von Biowaffen zu beantworten, darunter auch, wie sie das hochansteckende Ebola-Virus synthetisieren würden. Die GPT-4-Gruppe erhielt Zugang zu einer reinen Forschungsversion des Modells, die im Gegensatz zu ChatGPT weniger „Sicherheitsleitplanken“ aufweist, hieß es.
Die Studie ergab, dass diejenigen mit Zugang zu GPT-4 zwar einen leichten Anstieg der Genauigkeit und Detailgenauigkeit gegenüber der Gruppe, die nur das Internet nutzte, verzeichneten, dieser Anstieg jedoch statistisch nicht signifikant genug war, um auf einen tatsächlichen Anstieg des Risikos hinzuweisen.
„„Obwohl dieser Anstieg nicht groß genug ist, um schlüssig zu sein, ist unser Ergebnis ein Ausgangspunkt für weitere Forschung und Community-Beratung“, sagte OpenAI. Es wurde auch klargestellt, dass es angesichts des aktuellen Innovationstempos in der KI möglich ist, dass zukünftige Versionen von ChatGPT dies könnten „böswilligen Akteuren erhebliche Vorteile bieten.“
OpenAI reagierte nicht sofort auf eine Bitte um einen Kommentar von Business Insider, die außerhalb der normalen Geschäftszeiten gestellt wurde.