Laut einem aktuellen Bericht von Bloomberg hat OpenAI eine neue Governance-Struktur eingeführt, die seinem Vorstand die Befugnis einräumt, die Veröffentlichung von KI-Modellen zurückzuhalten, selbst wenn die Unternehmensführung sie für sicher hält Bericht. Die Entscheidung wurde kürzlich veröffentlicht Richtlinien, kommt nach einer turbulenten Zeit bei OpenAI, einschließlich der vorübergehenden Absetzung von CEO Sam Altman. Diese Veranstaltung verdeutlichte das empfindliche Machtgleichgewicht zwischen den Direktoren des Unternehmens und seinem Führungsteam.
Das neu gebildete „Preparedness“-Team von OpenAI unter der Leitung von Aleksander Madry vom MIT hat die Aufgabe, die KI-Systeme des Unternehmens kontinuierlich zu bewerten. Das Team wird sich auf die Identifizierung und Eindämmung potenzieller Cybersicherheitsbedrohungen und -risiken im Zusammenhang mit chemischen, nuklearen und biologischen Gefahren konzentrieren. OpenAI definiert „katastrophale“ Risiken als solche, die einen erheblichen wirtschaftlichen Schaden oder erheblichen Schaden für Einzelpersonen verursachen können.
Madrys Team wird einer internen Sicherheitsberatungsgruppe monatliche Berichte vorlegen, die dann Altman und dem Vorstand Empfehlungen unterbreiten. Während das Führungsteam auf der Grundlage dieser Berichte über die Veröffentlichung neuer KI-Systeme entscheiden kann, behält der Vorstand das letzte Wort und kann möglicherweise alle Entscheidungen der Führungskräfte des Unternehmens außer Kraft setzen.
Der dreistufige Ansatz von OpenAI zur KI-Sicherheit
Der Ansatz von OpenAI zur KI-Sicherheit gliedert sich in drei verschiedene Teams:
- Sicherheitssysteme: Dieses Team konzentriert sich auf aktuelle Produkte wie GPT-4 und stellt sicher, dass sie den Sicherheitsstandards entsprechen.
- Bereitschaft: Das neue Team unter der Leitung von Madry bewertet unveröffentlichte, fortschrittliche KI-Modelle auf potenzielle Risiken.
- Superausrichtung: Unter der Leitung von Ilya Sutskever wird sich das Superalignment-Team auf zukünftige, hypothetische KI-Systeme konzentrieren, die über immense Macht verfügen könnten.
Jedes Team spielt eine entscheidende Rolle bei der Bewertung verschiedener Aspekte der KI-Sicherheit, von bestehenden Produkten bis hin zu zukünftigen Entwicklungen.
Das Bereitschaftsteam bewertet KI-Modelle basierend auf den wahrgenommenen Risiken als „niedrig“, „mittel“, „hoch“ oder „kritisch“. OpenAI plant, nur Modelle zu veröffentlichen, die als „mittel“ oder „niedrig“ eingestuft sind. Das Team wird außerdem Änderungen zur Reduzierung erkannter Gefahren umsetzen und die Wirksamkeit dieser Änderungen bewerten.
Madry äußerte gegenüber Bloomberg seine Hoffnung, dass andere Unternehmen die Richtlinien von OpenAI für ihre KI-Modelle übernehmen werden. Diese Richtlinien formalisieren Prozesse, die OpenAI zuvor bei der Bewertung und Veröffentlichung von KI-Technologie verwendet hat.
Madry betonte die proaktive Rolle bei der Gestaltung der Wirkung von KI: „KI ist nicht etwas, das uns einfach so passiert und das gut oder schlecht sein kann. Es ist etwas, das wir gestalten.“