Sie verglichen die Kernenergie als ein weiteres Beispiel für eine Technologie mit der „Möglichkeit existenzieller Risiken“.Dies erhöht die Notwendigkeit einer Behörde, die ihrer Art nach der Internationalen Atomenergiebehörde (IAEA), der weltweiten Atomaufsichtsbehörde, ähnelt.
Im Laufe des nächsten Jahrzehnts „ist es denkbar, dass … KI-Systeme in den meisten Bereichen über das Expertenniveau hinausgehen und ebenso viele produktive Aktivitäten ausführen wie eines der größten Unternehmen von heute“, schrieb das OpenAI-Team. „Was sowohl die potenziellen Vor- als auch die Nachteile betrifft, wird Superintelligenz leistungsfähiger sein als andere Technologien, mit denen die Menschheit in der Vergangenheit zu kämpfen hatte. Wir können eine wesentlich wohlhabendere Zukunft haben; Aber wir müssen das Risiko managen, um dorthin zu gelangen.“
Die Erklärung spiegelte Altmans Bemerkungen vor dem Kongress letzte Woche wider, wo der CEO des in den USA ansässigen Unternehmens ebenfalls die Notwendigkeit einer separaten Regulierungsbehörde bezeugte.
Kritiker warnen davor, den Regulierungsforderungen von Führungskräften der Technologiebranche zu vertrauen, die von einer uneingeschränkten Weiterentwicklung profitieren wollen. Einige sagen, dass die Geschäftsentscheidungen von OpenAI im Gegensatz zu diesen Sicherheitswarnungen stehen – da ihre schnelle Einführung ein KI-Wettrüsten ausgelöst hat und Unternehmen wie die google-Muttergesellschaft Alphabet unter Druck gesetzt hat, Produkte auf den Markt zu bringen, während sich die politischen Entscheidungsträger noch mit Risiken auseinandersetzen.
Nur wenige Gesetzgeber in Washington haben ein tiefes Verständnis für neue Technologien oder KI, und KI-Unternehmen haben sich intensiv für sie eingesetzt, wie die Washington Post zuvor berichtete, da Befürworter und Kritiker hoffen, die Diskussionen über Technologiepolitik zu beeinflussen.
Einige haben auch vor der Gefahr gewarnt, die Fähigkeit der USA zu beeinträchtigen, mit Konkurrenten – insbesondere China – in dieser Technologie zu konkurrieren.
Die OpenAI-Führer warnen in ihrer Mitteilung davor, die Entwicklung anzuhalten, und fügen hinzu: „Es wäre unintuitiv riskant und schwierig, die Entwicklung von Superintelligenz zu stoppen.“ Da die Vorteile so enorm sind, sinken die Baukosten jedes Jahr, und die Zahl der Akteure, die es bauen, nimmt rapide zu.“
In seiner ersten Aussage vor dem Kongress letzte Woche warnte Altman davor, dass KI „der Welt erheblichen Schaden zufügen könnte“, und versicherte gleichzeitig, dass sein Unternehmen die Technologie weiterhin einführen werde.
Altmans Botschaft der Bereitschaft, mit den Gesetzgebern zusammenzuarbeiten, wurde im Kongress relativ positiv aufgenommen, da Länder wie die Vereinigten Staaten anerkennen, dass sie dies tun müssenSie kämpfen damit, Innovationen zu unterstützen und gleichzeitig mit einer Technologie umzugehen, die Bedenken hinsichtlich Datenschutz, Sicherheit, Stellenabbau und Fehlinformationen auslöst.
Ein Zeuge der Anhörung, der emeritierte New York University-Professor Gary Marcus, hob die „umwerfenden“ Geldsummen hervor, um die es geht, und beschrieb OpenAI als „in der Pflicht“ seines Investors Microsoft. Er kritisierte, was er als Abweichung des Unternehmens von seiner Mission bezeichnete, die KI voranzutreiben, um „der gesamten Menschheit zugute zu kommen“, ohne den Zwängen finanzieller Zwänge ausgesetzt zu sein.
Die Popularisierung von ChatGPT und generativen KI-Tools, die Texte, Bilder oder Töne erstellen, hat die Benutzer verblüfft und auch die Debatte über Regulierung dringlicher gemacht.
Auf einem G-7-Gipfel am Samstag machten die Staats- und Regierungschefs der größten Volkswirtschaften der Welt deutlich, dass internationale Standards für KI-Fortschritte Priorität haben, haben jedoch noch keine substanziellen Schlussfolgerungen zur Bewältigung der Risiken gezogen.
Die Vereinigten Staaten sind bisher langsamer vorangekommen als andere, insbesondere in Europa, obwohl die Biden-Regierung sagt, sie habe KI zu einer zentralen Priorität gemacht. Die politischen Entscheidungsträger in Washington haben seit Jahren keine umfassenden Technologiegesetze mehr verabschiedet, was die Frage aufwirft, wie schnell und effektiv sie Vorschriften für die KI-Branche entwickeln können.
Die ChatGPT-Macher forderten kurzfristig „ein gewisses Maß an Koordination“ zwischen Unternehmen, die an der KI-Forschung arbeiten, „um sicherzustellen, dass die Entwicklung der Superintelligenz“ eine sichere und „reibungslose Integration dieser Systeme in die Gesellschaft ermöglicht“. Die Unternehmen könnten sich beispielsweise „gemeinsam darauf einigen, dass die Wachstumsrate der KI-Fähigkeiten an der Grenze auf eine bestimmte Rate pro Jahr begrenzt ist“, sagten sie.
„Wir glauben, dass Menschen auf der ganzen Welt demokratisch darüber entscheiden sollten Grenzen und Standardwerte für KI-Systeme“, fügten sie hinzu – gaben jedoch zu, dass „wir noch nicht wissen, wie wir einen solchen Mechanismus entwerfen sollen.“
Cat Zakrzewski, Cristiano Lima und Will Oremus haben zu diesem Bericht beigetragen.