Bloomberg / Bloomberg über Getty Images
Sam Altman, Präsident von Y Combinator, auf einer Konferenz im Oktober 2017 in Kalifornien
TECHNOLOGIE – Eine Gruppe von Wirtschaftsführern und Experten, darunter Sam Altman, der Erfinder von chatgpt, warnte diesen Dienstag, den 30. Mai, in einer Online-Erklärung vor Bedrohungen durch„Aussterben“ für die Menschheit durch den Aufstieg der künstlichen Intelligenz (KI).
Der Kampf gegen KI-bezogene Risiken sollte sein „eine globale Priorität neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkriegen“schrieben die Unterzeichner auf der Website des Center for AI Safety, einer gemeinnützigen Organisation mit Sitz in den USA.
Geoffrey Hinton, der als einer der Gründerväter der künstlichen Intelligenz (KI) gilt und auch Unterzeichner des Forums ist, hatte bereits vor den Gefahren gewarnt, als er Anfang Mai seine Position beim Giganten google aufgab.
Die Fortschritte in der KI-Branche schreiten voran „erhebliche Risiken für Gesellschaft und Menschheit“hatte er im geschätzt New York Times.
Im März forderten der Milliardär Elon Musk – einer der Gründer von OpenAI, dessen Vorstand er später verließ – und Hunderte von globalen Experten eine sechsmonatige Pause bei der Erforschung leistungsstarker KIs „Große Risiken für die Menschheit“.
Der schnelle Einsatz einer zunehmend künstlichen Intelligenz „allgemein“das mit menschlichen kognitiven Fähigkeiten ausgestattet ist und daher wahrscheinlich viele Berufe revolutionieren wird, wurde durch die Einführung von GPT-4 durch OpenAI im März symbolisiert, einer neuen, leistungsfähigeren Version von ChatGPT, die Ende 2022 für die breite Öffentlichkeit zugänglich sein wird.
Der Amerikaner Sam Altman vervielfacht regelmäßig die Warnungen, aus Angst vor der KI „Fügt der Welt großen Schaden zu“, durch Manipulation von Wahlen oder durch Störung des Arbeitsmarktes. Letzte Woche besprach er in Paris mit Präsident Emmanuel Macron, wie man das findet „die richtige Balance zwischen Schutz und positiver Wirkung“ dieser Technologie.
Siehe auch auf Le HuffPost :