Start ChatGPT OpenAI-Führungskräfte hinter ChatGPT fordern Regulierung von KI und „Superintelligenz“
OpenAI-Führungskräfte hinter ChatGPT fordern Regulierung von KI und „Superintelligenz“

OpenAI-Führungskräfte hinter ChatGPT fordern Regulierung von KI und „Superintelligenz“

Die Leiter von OpenAI, dem Erfinder des viralen Chatbots chatgpt, fordern die Regulierung von „Superintelligenz“- und künstlichen Intelligenzsystemen und schlagen vor, dass ein Äquivalent zum weltweiten Nuklearwächter dazu beitragen würde, das von der Technologie ausgehende „existenzielle Risiko“ zu verringern.

In einem Stellungnahme Die Mitbegründer Greg Brockman und Ilya Sutskever sowie CEO Sam Altman, die diese Woche auf der Website des Unternehmens veröffentlicht wurden, argumentierten, dass eine internationale Regulierungsbehörde irgendwann notwendig werden würde, um „Systeme zu inspizieren, Audits zu verlangen, die Einhaltung von Sicherheitsstandards zu testen (und ) beschränken den Grad der Bereitstellung und das Sicherheitsniveau.“

Sie verglichen die Kernenergie als ein weiteres Beispiel für eine Technologie mit der „Möglichkeit existenzieller Risiken“.Dies erhöht die Notwendigkeit einer Behörde, die ihrer Art nach der Internationalen Atomenergiebehörde (IAEA), der weltweiten Atomaufsichtsbehörde, ähnelt.

Im Laufe des nächsten Jahrzehnts „ist es denkbar, dass … KI-Systeme in den meisten Bereichen über das Expertenniveau hinausgehen und ebenso viele produktive Aktivitäten ausführen wie eines der größten Unternehmen von heute“, schrieb das OpenAI-Team. „Was sowohl die potenziellen Vor- als auch die Nachteile betrifft, wird Superintelligenz leistungsfähiger sein als andere Technologien, mit denen die Menschheit in der Vergangenheit zu kämpfen hatte. Wir können eine wesentlich wohlhabendere Zukunft haben; Aber wir müssen das Risiko managen, um dorthin zu gelangen.“

Die Erklärung spiegelte Altmans Bemerkungen vor dem Kongress letzte Woche wider, wo der CEO des in den USA ansässigen Unternehmens ebenfalls die Notwendigkeit einer separaten Regulierungsbehörde bezeugte.

Der CEO von ChatGPT warnt davor, dass KI im Kongress „der Welt Schaden zufügen“ könnte

Siehe auch  Google Bard- und ChatGPT-Preisvorhersagen für XRP – Wird Ripple im Jahr 2023 1 US-Dollar erreichen?

Kritiker warnen davor, den Regulierungsforderungen von Führungskräften der Technologiebranche zu vertrauen, die von einer uneingeschränkten Weiterentwicklung profitieren wollen. Einige sagen, dass die Geschäftsentscheidungen von OpenAI im Gegensatz zu diesen Sicherheitswarnungen stehen – da ihre schnelle Einführung ein KI-Wettrüsten ausgelöst hat und Unternehmen wie die google-Muttergesellschaft Alphabet unter Druck gesetzt hat, Produkte auf den Markt zu bringen, während sich die politischen Entscheidungsträger noch mit Risiken auseinandersetzen.

Nur wenige Gesetzgeber in Washington haben ein tiefes Verständnis für neue Technologien oder KI, und KI-Unternehmen haben sich intensiv für sie eingesetzt, wie die Washington Post zuvor berichtete, da Befürworter und Kritiker hoffen, die Diskussionen über Technologiepolitik zu beeinflussen.

Einige haben auch vor der Gefahr gewarnt, die Fähigkeit der USA zu beeinträchtigen, mit Konkurrenten – insbesondere China – in dieser Technologie zu konkurrieren.

Die OpenAI-Führer warnen in ihrer Mitteilung davor, die Entwicklung anzuhalten, und fügen hinzu: „Es wäre unintuitiv riskant und schwierig, die Entwicklung von Superintelligenz zu stoppen.“ Da die Vorteile so enorm sind, sinken die Baukosten jedes Jahr, und die Zahl der Akteure, die es bauen, nimmt rapide zu.“

Die Debatte darüber, ob KI uns zerstören wird, spaltet das Silicon Valley

In seiner ersten Aussage vor dem Kongress letzte Woche warnte Altman davor, dass KI „der Welt erheblichen Schaden zufügen könnte“, und versicherte gleichzeitig, dass sein Unternehmen die Technologie weiterhin einführen werde.

Altmans Botschaft der Bereitschaft, mit den Gesetzgebern zusammenzuarbeiten, wurde im Kongress relativ positiv aufgenommen, da Länder wie die Vereinigten Staaten anerkennen, dass sie dies tun müssenSie kämpfen damit, Innovationen zu unterstützen und gleichzeitig mit einer Technologie umzugehen, die Bedenken hinsichtlich Datenschutz, Sicherheit, Stellenabbau und Fehlinformationen auslöst.

Siehe auch  Vulcan Cyber: Können Sie ChatGPT-Empfehlungen vertrauen?

Ein Zeuge der Anhörung, der emeritierte New York University-Professor Gary Marcus, hob die „umwerfenden“ Geldsummen hervor, um die es geht, und beschrieb OpenAI als „in der Pflicht“ seines Investors Microsoft. Er kritisierte, was er als Abweichung des Unternehmens von seiner Mission bezeichnete, die KI voranzutreiben, um „der gesamten Menschheit zugute zu kommen“, ohne den Zwängen finanzieller Zwänge ausgesetzt zu sein.

Washington schwört, die KI in Angriff zu nehmen, während Tech-Titanen und Kritiker absteigen

Die Popularisierung von ChatGPT und generativen KI-Tools, die Texte, Bilder oder Töne erstellen, hat die Benutzer verblüfft und auch die Debatte über Regulierung dringlicher gemacht.

Auf einem G-7-Gipfel am Samstag machten die Staats- und Regierungschefs der größten Volkswirtschaften der Welt deutlich, dass internationale Standards für KI-Fortschritte Priorität haben, haben jedoch noch keine substanziellen Schlussfolgerungen zur Bewältigung der Risiken gezogen.

Die Vereinigten Staaten sind bisher langsamer vorangekommen als andere, insbesondere in Europa, obwohl die Biden-Regierung sagt, sie habe KI zu einer zentralen Priorität gemacht. Die politischen Entscheidungsträger in Washington haben seit Jahren keine umfassenden Technologiegesetze mehr verabschiedet, was die Frage aufwirft, wie schnell und effektiv sie Vorschriften für die KI-Branche entwickeln können.

Da KI Arbeitsplätze verändert, versucht Italien, Arbeitnehmern bei der Umschulung zu helfen

Die ChatGPT-Macher forderten kurzfristig „ein gewisses Maß an Koordination“ zwischen Unternehmen, die an der KI-Forschung arbeiten, „um sicherzustellen, dass die Entwicklung der Superintelligenz“ eine sichere und „reibungslose Integration dieser Systeme in die Gesellschaft ermöglicht“. Die Unternehmen könnten sich beispielsweise „gemeinsam darauf einigen, dass die Wachstumsrate der KI-Fähigkeiten an der Grenze auf eine bestimmte Rate pro Jahr begrenzt ist“, sagten sie.

Siehe auch  Charity Digital – Themen – Eine kurze Geschichte von ChatGPT

„Wir glauben, dass Menschen auf der ganzen Welt demokratisch darüber entscheiden sollten Grenzen und Standardwerte für KI-Systeme“, fügten sie hinzu – gaben jedoch zu, dass „wir noch nicht wissen, wie wir einen solchen Mechanismus entwerfen sollen.“

Cat Zakrzewski, Cristiano Lima und Will Oremus haben zu diesem Bericht beigetragen.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein