Können Weltuntergangsbunker uns vor verschiedenen Bedrohungen wie einem Atomkrieg, Naturkatastrophen oder Zombies bewahren? Und was ist dann mit der Drohung? künstliche Intelligenz (KI) wird so mächtig und intelligent, dass sie übertrifft und Schaden anrichtet Menschen? Können uns diese Bunker vor einem retten? KI-Apokalypse? Entsprechend Sam Altman, der CEO von OpenAI, lautet die Antwort nein. Altman ist einer der Technologieführer, die vor den potenziellen Gefahren der KI gewarnt haben, insbesondere der künstlichen allgemeinen Intelligenz (AGI), einer KI, die alles tun kann, was Menschen können, oder sogar noch besser. In einem Interview mit Forbes sagte Altman, dass er im Gegensatz zu einigen anderen Tech-Eliten, die angeblich Luxusbunker an abgelegenen Orten gekauft haben, keinen Bunker besitze Neuseeland. Er scherzte, dass Bunker nicht helfen würden, wenn AGI schiefgeht, denn AGI wäre in der Lage, sie zu finden und zu zerstören. Er sagte, dass die einzige Möglichkeit, eine KI-Apokalypse zu verhindern, darin bestehe, die KI mit menschlichen Werten und Zielen in Einklang zu bringen und sicherzustellen, dass Menschen die KI kontrollieren und mit ihr kooperieren können. Altman sagte auch, dass er nicht an die Idee einer Flucht auf einen anderen Planeten wie dem Mars als Lösung des KI-Problems glaube. Er sagte, dass er die Erde liebe und sie verbessern und nicht aufgeben möchte. Er sagte, dass er hinsichtlich der Zukunft der Menschheit und der KI optimistisch sei und dass er hoffe, dass KI den Menschen helfen werde, die größten Herausforderungen der Welt wie Klimawandel, Armut und Krankheiten zu lösen. Altmans Ansichten zu Bunkern und KI werden nicht von allen in der Technologiebranche geteilt. Manche Leute denken, dass Bunker eine vernünftige Vorsichtsmaßnahme gegen verschiedene Risiken darstellen, nicht nur gegen KI. Clyde Scott, der CEO von Atlas Survival Shelters, einem Unternehmen, das Bunker verkauft, sagte beispielsweise gegenüber Insider, dass zu seinen Kunden Techniker gehören, die sich über verschiedene Szenarien Sorgen machen, etwa über den Dritten Weltkrieg, China, Russland, Iran und Nordkorea. Er sagte, dass sein Geschäft in den letzten Jahren boomte. „Als der Krieg in der Ukraine ausbrach, klingelte mein Telefon etwa zwei Wochen lang alle 45 Sekunden“, sagte Clyde Scott gegenüber Atlantic. Laut einem Bloomberg-Bericht haben in den letzten zwei Jahren viele Unternehmer aus dem Silicon Valley Bunker von Rising S Co erworben und diese strategisch in Neuseeland positioniert, so Gary Lynch, der General Manager des Unternehmens. In Erwartung möglicher apokalyptischer Szenarien wie eines Atomkriegs, einer tödlichen Epidemie oder eines revolutionären Aufstands ähnlich der Französischen Revolution gegen die Elite beabsichtigen diese Kalifornier, schnell in Privatjets einzusteigen und in ihren vorbereiteten Bunkern Zuflucht zu suchen. Andere denken, dass KI nicht so gefährlich ist, wie Altman und andere es darstellen. Zum Beispiel, Geoffrey Hinton, ein Pionier des Deep Learning und ehemaliger google-Forscher, sagte der New York Times, dass er sich keine Sorgen darüber mache, dass KI böse oder übermenschlich werde. Er sagte, er glaube, dass KI für die Menschheit von Vorteil sein werde und dass der Mensch immer die Oberhand über die Maschine haben werde. Die Debatte über Bunker und KI spiegelt die Unsicherheit und Meinungsvielfalt über die Zukunft der KI und ihre Auswirkungen auf die Gesellschaft wider. Während sich die einen auf das Worst-Case-Szenario vorbereiten, hoffen andere auf das Best-Case-Szenario.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein