Heute (31.) unterzeichneten Sam Altman, der Gründer von OpenAI, dem Unternehmen, das chatgpt entwickelt hat, und 350 Experten im KI-Bereich gemeinsam einen offenen Brief mit nur einem Satz, in dem es hieß, dass sich die KI-Technologie jetzt entwickelt habe könnte eine Bedrohung für das zukünftige Überleben der Menschheit darstellen. „Vater von ChatGPT“ Sam Altman und Branchenvertreter erklärten öffentlich: „Das Risiko des Aussterbens von KI ähnelt Epidemien und Atombomben und sollte globale Priorität haben.“

▲Bildquelle:Zentrum für KI-Sicherheit

Darunter Sam Altman haben mehr als 350 Manager, Forscher und Ingenieure, die in der KI-Branche tätig sind, den offenen Brief des Center for AI Safety unterzeichnet. Das Center for AI Safety ist eine gemeinnützige Organisation, deren Ziel es ist, die Risiken von KI für die menschliche Gesellschaft durch Forschung zu verringern. Branchenvertreter, die den offenen Brief unterzeichnet haben, erklärten, dass KI die Fähigkeit habe, Menschen auszurotten, und dass dieses gesellschaftliche Risiko mit den gleichen Grundsätzen angegangen werden sollte wie der Umgang mit Pandemien und Atombomben.

Seit OpenAI Ende letzten Jahres ChatGPT veröffentlichte, hat die KI-Branche die KI in einem „Wettrüsten“ weiterentwickelt. Es gibt Stimmen in der Branche, die darauf hinweisen, dass GPT-4 bei allgemeinen Aufgaben bereits mit Menschen vergleichbar ist, und sogar Im Wettbewerb mit Menschen. Daher ist es dagegen, die KI in einem unkontrollierten Zustand weiterzuentwickeln, damit die KI in Zukunft nicht zum Anführer wird, ohne gewählt zu werden. Zu diesem Zeitpunkt verlieren die Menschen auch die Kontrolle über die Zivilisation, was zu irreversiblen Schäden führen wird Gesellschaft.

KI entwickelt sich rasant, es gibt jedoch keine spezifischen Gesetze und Regulierungsbehörden für KI. Dies bedeutet, dass es derzeit keine wirksamen Maßnahmen gibt, um sicherzustellen, dass KI-Tools keine Gefahr für den Menschen darstellen, und gleichzeitig die Sicherheit des Einsatzes von KI nicht gewährleistet werden kann. Daher haben letzte Woche Giganten der KI-Branche wie Sam Altman und Zwei hochrangige Führungskräfte von OpenAI schlugen vor, eine ähnliche regulatorische Kernenergie einzurichten. Die IAEA-ähnliche internationale Organisation soll die Entwicklung und Nutzung von KI überwachen. Sam Altman rief außerdem alle Parteien der KI-Branche zur Zusammenarbeit auf und schlug vor, dass die Regierung die Aufsicht über KI-Entwickler verstärken sollte.

Siehe auch  Wissenschaftler warnen vor den Gefahren generativer KI wie ChatGPT

Bereits im März dieses Jahres unterzeichneten Elon Musk, CEO von Tesla, Stephen Gary Wozniak, Mitbegründer von apple, und andere führende Vertreter der Technologiebranche einen offenen Brief, in dem sie alle KI-Labore aufforderten, die Ausbildung von KI-Systemen, die leistungsstärker als GPT-4 sind, für mindestens 6 Jahre auszusetzen Monate.

Quelle:Zentrum für KI-Sicherheit

Neueste Videos

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein