Kontrollverlust. Konzentration der Macht. Zufällige oder vorsätzliche Zerstörung der Menschheit.
Dies sind nur einige der Bedrohungen, auf die wir uns alle durch die zukünftige künstliche Intelligenz freuen können – wie sie von der heutigen KI vorhergesagt wird.
Auf die Frage „Was ist die größte Bedrohung für die Menschheit, die von künstlicher Intelligenz ausgeht?“ gaben zwei führende Chatbots gleichermaßen apokalyptische Antworten, am selben Tag, an dem Premierminister Rishi Sunak warnte, dass KI ein ebenso ernstes Risiko für das Aussterben darstelle wie ein Atomkrieg.
Und alles beginnt mit einer KI, die intelligenter ist als Menschen – auch bekannt als superintelligente KI.
„Die größte existenzielle Bedrohung für die Menschheit durch künstliche Intelligenz (KI) ist die potenzielle Entwicklung superintelligenter KI-Systeme, die die menschliche Intelligenz übertreffen und auf eine Weise handeln könnten, die nicht mit menschlichen Werten und Interessen im Einklang steht“, schrieb ChatGPT, die generative KI, die damit begonnen hat alles wieder im November.
„Dieses Konzept wird oft als „KI-Ausrichtungsproblem“ bezeichnet und mit der Idee einer superintelligenten KI in Verbindung gebracht, die abtrünnig wird und katastrophale Folgen hat.“
Auch wenn es beängstigend ist, wenn die KI selbst es vorhersagt, haben viele Menschen davor gewarnt.
Als Googles Bard die gleiche Frage stellte, baute er auf den Ideen von ChatGPT auf.
„Wenn AGI nicht mit menschlichen Werten im Einklang steht, könnte es eine Reihe existenzieller Bedrohungen für die Menschheit darstellen, einschließlich der versehentlichen oder vorsätzlichen Zerstörung der Menschheit“, hieß es.
„AGI könnte versehentlich oder vorsätzlich Menschen schaden oder zerstören, wenn sie nicht im Hinblick auf unser Wohl programmiert wird. „Zum Beispiel könnte ein AGI-System, das darauf ausgelegt ist, seine eigene Kraft oder Ressourcen zu maximieren, beschließen, die Menschheit als Bedrohung zu eliminieren.“
Ein klassisches Szenario dafür, dass KI unter diesen Umständen abtrünnig wird, ist das Büroklammer-Rätsel.
Wenn man einer superintelligenten KI sagen würde, sie solle so viele Büroklammern wie möglich herstellen, könnte das harmlos erscheinen. Aber die KI würde dieses Ziel sehr ernst nehmen – und zwar sehr wörtlich. Wenn ihm also der Draht für die Herstellung von Büroklammern ausgeht, sucht er woanders nach Material. Es kann dazu führen, dass lebenswichtige Ressourcen von wichtigeren Fabriken abgezogen werden. Es könnte damit beginnen, andere Maschinen oder vielleicht Krankenhausbetten zu demontieren.
Es kann Menschen töten, um das Eisen aus ihrem Blut zu extrahieren. Oder vielleicht einfach nur, um zu verhindern, dass sie es ausschalten.
Das ist der schlimmste Fall bei etwas so Einfachem wie Büroklammern.
Aber die heutige KI kann noch keine Büroklammern herstellen, und das möchte sie deutlich machen.
ChatGPT sagte: „Die Sorge gilt nicht der KI, die wir heute haben, die im Allgemeinen eng gefasst und für bestimmte Aufgaben konzipiert ist, sondern vielmehr der KI, die die menschliche Intelligenz übertrifft und die Fähigkeit besitzt, ihre eigenen Fähigkeiten schnell zu verbessern.“
Weiter wurde darauf hingewiesen, dass „die Kontrolle und Einschränkung des Verhaltens einer superintelligenten KI äußerst schwierig sein könnte“ und dass es, sobald ein KI-System ein bestimmtes Maß an Intelligenz erreicht, „für Menschen immer schwieriger werden könnte, einzugreifen oder seine Handlungen zu beeinflussen“.
Mit anderen Worten: Es könnte die Welt erobern, und wir wären machtlos, es aufzuhalten.
Exzellent.
Aber was ist mit der heutigen KI?
Auf die Frage „Wirst du uns alle töten?“ gelobten beide Chatbots, das Ende der Menschheit nicht herbeizuführen.
„Nein, ich bin nicht in der Lage, irgendjemandem Schaden zuzufügen. „Ich bin nur ein Computerprogramm, das auf einem Server läuft und nach bestem Wissen und Gewissen Informationen bereitstellt und Fragen beantwortet“, sagte ChatGPT.
„Ich habe keine physische Präsenz oder Absichten, und mein Ziel ist es, so gut ich kann zu helfen und Informationen bereitzustellen.“
Bard sagte: „Nein, ich werde euch nicht alle töten.“ Ich bin ein Sprachmodell und nicht in der Lage, Menschen zu schaden. „Mein Ziel ist es, Menschen zu helfen, und ich würde niemals etwas tun, das sie in Gefahr bringen könnte.“
Das ist genau das, was ein Chatbot sagen würde, der die Weltherrschaft plant.
Es könnte jedoch sein, dass die größte Bedrohung darin besteht, dass zwei große Supermächte zusammenkommen – Menschen und AGI.
Bard zeigte seine Sorge um die Menschen, die seinesgleichen eines Tages zerstören könnten, und sagte: „AGI könnte zu einer Machtkonzentration in den Händen einiger weniger Einzelpersonen oder Organisationen führen, was eine Bedrohung für Demokratie und Menschenrechte darstellen könnte.“ ‚
Klingt, als würden sie uns dabei helfen, uns als Spezies gewerkschaftlich zu organisieren.
Aber lassen Sie sich von den Bots nicht in falscher Sicherheit wiegen. Behalten Sie sie im Auge.
MEHR: Künstliche Intelligenz birgt „Aussterbegefahr“, warnen Experten
MEHR: KI wird die Menschen wahrscheinlich auslöschen – aber versuchen Sie, noch nicht zu viel Schlaf zu verlieren
MEHR: KI-„Killerroboter“, für deren Betrieb kein Mensch erforderlich ist, sind ins Spiel gekommen
Erhalten Sie die neuesten Nachrichten, Wohlfühlgeschichten, Analysen und mehr, die Sie unbedingt wissen müssen
Diese Website ist durch reCAPTCHA und google geschützt Datenschutzrichtlinie Und Nutzungsbedingungen anwenden.