Sam Altman, CEO von OpenAI, hat zusammen mit zwei anderen Experten einen Artikel verfasst, in dem er einen detaillierten Plan für die „Governance der Superintelligenz“ vorschlägt, der sich auf KI-Systeme wie chatgpt, google Bard und mehr bezieht. Altman erklärt, dass KI-Systeme in den nächsten zehn Jahren in vielen Bereichen menschliches Fachwissen übertreffen und genauso produktiv sein könnten wie Großkonzerne. Superintelligenz birgt das Potenzial sowohl großer Vorteile als auch großer Risiken. Es könnte zu einer wohlhabenderen Zukunft führen, aber es gibt auch Gefahren, die bewältigt werden müssen.
Altman vergleicht die Steuerung der Superintelligenz mit historischen Beispielen wie Kernenergie und synthetischer Biologie, die aufgrund ihrer potenziellen Risiken einer besonderen Behandlung und Koordination bedurften.
Er schlägt drei wichtige Ideen vor, um die Entwicklung der Superintelligenz erfolgreich zu steuern:
- Koordinierung: Die führenden KI-Entwicklungsbemühungen müssen koordiniert werden, um Sicherheit und eine reibungslose Integration in die Gesellschaft zu gewährleisten. Dies könnte bedeuten, dass Regierungen ein Projekt ins Leben rufen oder sich auf Grenzen für das Wachstum der KI-Fähigkeiten einigen.
- Internationale Autorität: Ab einem bestimmten Leistungsniveau sollten KI-Projekte einer internationalen Behörde unterliegen, ähnlich der Internationalen Atomenergiebehörde (IAEA) für Kernenergie. Diese Behörde würde Systeme inspizieren, Sicherheitsstandards durchsetzen und Beschränkungen für Einsatz und Sicherheit festlegen.
- Sicherheitsforschung: Es besteht Bedarf an technischer Forschung, um Superintelligenz sicher zu machen. Dies ist ein fortlaufender Forschungsbereich für OpenAI und andere.
Altman stellt klar, dass die Regulierung die Entwicklung von KI-Modellen unterhalb einer bestimmten Fähigkeitsschwelle nicht ersticken sollte. Unternehmen und Open-Source-Projekte sollten die Freiheit haben, solche Modelle ohne aufwändige Regulierung zu entwickeln.
Allerdings sollte die Steuerung der leistungsstärksten KI-Systeme eine starke öffentliche Aufsicht beinhalten. Entscheidungen über ihren Einsatz und ihre Beschränkungen sollten von Menschen weltweit demokratisch getroffen werden. Der genaue Mechanismus für öffentliche Eingaben muss noch entworfen werden, aber OpenAI plant, mit seiner Entwicklung zu experimentieren.
Lesen Sie auch: „Ich bin deswegen nervös“: OpenAI-Chef Sam Altman ist besorgt darüber, dass KI zur Kompromittierung von Wahlen eingesetzt wird
Altman und andere Autoren des OpenAI-Blogs erklären abschließend, warum OpenAI diese Technologie trotz der damit verbundenen Risiken aufbaut. Sie glauben, dass dies zu einer viel besseren Welt führen, Probleme lösen und Gesellschaften verbessern wird. Darüber hinaus wäre es äußerst schwierig, die Entwicklung der Superintelligenz zu stoppen, und die potenziellen Vorteile sind zu groß, als dass man sie ignorieren könnte. Daher ist es wichtig, seine Entwicklung mit großer Sorgfalt anzugehen.
Der OpenAI-Blog wurde von Sam Altman, Greg Brockman und Ilya Sutskever gemeinsam verfasst.
Lesen Sie auch: „Wie viele Stunden sitzt Sam Altman im Stau?“ Der ChatGPT-Hersteller reagiert auf die Kritik an seinem Vorstoß, die Fernarbeit zu beenden