[ad_1]
Mehr als 350 Entwickler und Forscher im Bereich der künstlichen Intelligenz haben einen offenen Brief unterzeichnet, in dem sie soziale Risiken aufgrund der Entwicklung von KI mit den Folgen einer Pandemie – und sogar eines Atomkriegs – gleichsetzen. Panikstimmungen (die jedoch nicht von allen geteilt werden) haben ihren Höhepunkt erreicht: In den Ländern wird bereits darüber diskutiert, wie die Sphäre reguliert werden kann, um eine Katastrophe zu verhindern G7.
Die Stellungnahme besteht nur aus einem Satz – so wollen Experten auf das Problem aufmerksam machen
im Freien Briefdas veröffentlicht wurde Zentrum für Sicherheit künstlicher Intelligenz, keine langen und abstrakten Überlegungen. Die ganze Aussage besteht aus einem Satz:
Verringerung des Risikos des Aussterbens der Menschheit durch [развития] Künstliche Intelligenz muss zu einer globalen Priorität werden – neben anderen Risiken wie Pandemien und Atomkrieg.
Dan Hendrix, Geschäftsführer des Zentrums, erklärt New York Times, dass die Organisation bewusst nicht „die Hauptidee mit einer Liste von 30 Handlungsempfehlungen verwischt“ habe. Auf der Website der Organisation ist es jedoch sehr leicht zu finden ausführliche Berichte über Forschung, deren Hauptziel gerade darin besteht, die durch KI entstehenden gesellschaftlichen Risiken zu reduzieren. Solche Bedenken hinsichtlich der Verbreitung von Desinformation und dem möglichen Verlust von Millionen von Arbeitsplätzen werden immer häufiger diskutiert.
Der offene Brief wirkt auf den ersten Blick wie eine Panikwarnung vor dem bevorstehenden Weltuntergang. Es sollte jedoch eher als Versuch betrachtet werden, eine öffentliche Diskussion anzustoßen und Experten auf dem Gebiet der KI zusammenzubringen.
Bis heute wurde der offene Brief von mehr als 350 Personen unterzeichnet, darunter den Mitbegründern des Entwicklers OpenAI chatgptSam Altman und Ilja Suzkewer (sowie viele Mitarbeiter dieses Unternehmens), Mitarbeiter google DeepMind und andere KI-Labore, Bill GatesFührungskräfte von Skype, Asana und anderen Unternehmen aus dem Silicon Valley sowie Wissenschaftler von Harvard, MIT und anderen führenden Universitäten.
Die Aussage zu den Risiken durch künstliche Intelligenz wurde beispielsweise von der kanadischen Sängerin Grimes unterstützt. Sie offen bietet an Fans drängen dazu, Cover ihrer Songs über neuronale Netze zu erstellen, während die größten Musikstudios und Künstler KI-Tracks im Gegenteil kategorisch ablehnen.
Sogar die „Paten der KI“ streiten über Risiken. Und die G7-Staaten bereiten eine Regulierung künstlicher Intelligenz vor
Der offene Brief trägt auch die Unterschriften der „Paten der künstlichen Intelligenz“ Jeffrey Hinton und Yoshua Bengio, zwei der drei Wissenschaftler, die 2018 bekommen Alan Turing Award „für die konzeptionellen und technischen Durchbrüche, die tiefe neuronale Netze zu einem Eckpfeiler der Informatik gemacht haben.“
Der Dritte, Yang LeCun, der als Vizepräsident der Meta Corporation fungiert und für die KI-Forschung verantwortlich ist, hat nicht unterzeichnet. Lange vor der Veröffentlichung der Berufung hat er erklärtdass „das Ausmaß des KI-Ausgleichsproblems.“ [с человеческом интеллектом] übertrieben und die Fähigkeit, es zu lösen, wird stark unterschätzt.“
„Ich wurde schon früher öffentlich als dumm bezeichnet, aber niemand hat das so oft getan wie diejenigen, die die Ansicht über das existentielle Risiko von KI vertreten“, sagte LeCun.
Obwohl die meisten Experten für künstliche Intelligenz die Bedrohung für hypothetisch halten, war der offene Brief des AI Security Center die zweite derartige Stellungnahme seit Jahresbeginn. Im März forderten der Chef von Tesla und SpaceX, Elon Musk, apple-Mitbegründer Steve Wozniak und viele KI-Experten, die KI-Entwicklung für mindestens sechs Monate zu pausieren, um Sicherheitsprotokolle zu erstellen. Dies ist jedoch nicht geschehen: Ein solches Szenario – in dem Unternehmen auf der ganzen Welt die Entwicklung des vielversprechendsten Technologiebereichs pausieren – einführen praktisch unmöglich.
Vielmehr ist in naher Zukunft mit dem Erscheinen erster Gesetze zu rechnen, die die Regeln für den Einsatz künstlicher Intelligenz regeln. Beispielsweise am 30. Mai erstmals Vertreter der G7-Staaten durchgeführt Treffen zur Umsetzung internationaler Standards im KI-Bereich. Regierungen sollen das tun sollte klappen Allgemeine Regeln bis zum Jahresende. Die Staats- und Regierungschefs der beiden G7-Staaten – der britische Premierminister Rishi Sunak und US-Präsident Joe Biden – planen zu besprechen AI bei einem Treffen in Washington am 7. und 8. Juni.
Es scheint, dass ein wichtiger Anreiz für Staaten auf der ganzen Welt der EU-Gesetzentwurf mit Einschränkungen des Systems war prädiktive Analytik in der Polizei und Biometrie – und soll auch im kommenden Jahr übernommen werden. Sam Altman von OpenAI sorgfältig sprach aus zu diesem Gesetzentwurf und stellte fest, dass er „viele Bedenken“ angehäuft habe:
Details sind wichtig [законопроекта]. Wir [OpenAI] Wir werden versuchen, die Anforderungen zu erfüllen [ЕС]aber wenn wir es nicht können, werden wir unsere Aktivitäten einstellen [на территории Евросоюза].
[ad_2]