5. Juli (Reuters) – Der Erfinder von chatgpt, OpenAI, plant, erhebliche Ressourcen zu investieren und ein neues Forschungsteam zu gründen, das sicherstellen soll, dass seine künstliche Intelligenz für Menschen sicher bleibt – und schließlich KI zur Selbstüberwachung einsetzt, hieß es am Mittwoch.
„Die enorme Macht der Superintelligenz könnte … zur Entmachtung der Menschheit oder sogar zum Aussterben der Menschheit führen“, schrieben OpenAI-Mitbegründer Ilya Sutskever und Alignment-Leiter Jan Leike in einem Blogeintrag. „Derzeit haben wir keine Lösung, um eine potenziell superintelligente KI zu steuern oder zu kontrollieren und zu verhindern, dass sie abtrünnig wird.“
Superintelligente KI – Systeme, die intelligenter sind als Menschen – könnten in diesem Jahrzehnt eintreffen, prognostizierten die Autoren des Blogbeitrags. Der Mensch wird bessere Techniken als derzeit verfügbar benötigen, um die superintelligente KI kontrollieren zu können. Daher sind Durchbrüche in der sogenannten „Alignment-Forschung“ erforderlich, die sich darauf konzentriert, sicherzustellen, dass die KI für den Menschen weiterhin von Nutzen bleibt, so die Autoren.
OpenAI, unterstützt von Microsoft (MSFT.O), widmet 20 % der Rechenleistung, die es sich in den nächsten vier Jahren gesichert hat, der Lösung dieses Problems, schrieben sie. Darüber hinaus bildet das Unternehmen ein neues Team namens Superalignment-Team, das sich rund um diese Bemühungen organisieren wird.
Das Ziel des Teams besteht darin, einen KI-Ausrichtungsforscher auf „menschlicher Ebene“ zu schaffen und ihn dann mithilfe enormer Rechenleistung zu skalieren. OpenAI sagt Das bedeutet, dass sie KI-Systeme trainieren, indem sie menschliches Feedback nutzen, KI-Systeme trainieren, um die menschliche Bewertung zu unterstützen, und schließlich KI-Systeme trainieren, um tatsächlich die Ausrichtungsforschung durchzuführen.
Der Befürworter der KI-Sicherheit, Connor Leahy, sagte, der Plan sei grundlegend fehlerhaft, da die anfängliche KI auf menschlicher Ebene Amok laufen und Chaos anrichten könne, bevor sie gezwungen werden könne, KI-Sicherheitsprobleme zu lösen.
„Man muss die Ausrichtung lösen, bevor man Intelligenz auf menschlicher Ebene aufbaut, sonst hat man sie standardmäßig nicht unter Kontrolle“, sagte er in einem Interview. „Ich persönlich halte das nicht für einen besonders guten oder sicheren Plan.“
Die potenziellen Gefahren der KI stehen sowohl für KI-Forscher als auch für die breite Öffentlichkeit im Vordergrund. Im April unterzeichnete eine Gruppe von Führungskräften und Experten der KI-Branche einen offenen Brief, in dem sie zu einer sechsmonatigen Pause bei der Entwicklung leistungsfähigerer Systeme als GPT-4 von OpenAI aufrief und dabei auf potenzielle Risiken für die Gesellschaft verwies. Eine Reuters/Ipsos-Umfrage im Mai ergab, dass mehr als zwei Drittel der Amerikaner über die möglichen negativen Auswirkungen von KI besorgt sind und 61 % glauben, dass sie die Zivilisation bedrohen könnte.
Berichterstattung von Anna Tong in San Francisco; Bearbeitung durch Kenneth Li und Rosalba O’Brien
Unsere Standards: Die Thomson Reuters Trust-Grundsätze.