Technologie&Auto
<a href=chatgpt-Entwickler werden die Risiken künstlicher Intelligenz überwachen, um die Menschheit zu retten” aria-label=”cover image” src=”https://resizer.finance.ua/a53e095f7a80608d43a225927d888e7f25a6026a.jpg?url=https://finance-news-media.fra1.cdn.digitaloceanspaces.com/prod/7/6/760ad20e049e631a163769ebee870aca&fit=cover&w=382.5&h=” srcset=”https://resizer.finance.ua/a53e095f7a80608d43a225927d888e7f25a6026a.jpg?url=https://finance-news-media.fra1.cdn.digitaloceanspaces.com/prod/7/6/760ad20e049e631a163769ebee870aca&fit=cover&w=382.5&h= 383w, https://resizer.finance.ua/4757deaeec467da7fc93134221f43d107fc801ff.jpg?url=https://finance-news-media.fra1.cdn.digitaloceanspaces.com/prod/7/6/760ad20e049e631a163769ebee870aca&fit=cover&w=765&h= 765w, https://resizer.finance.ua/e70a766f73765edd20cbeb3790a444ae2d3a2ae4.jpg?url=https://finance-news-media.fra1.cdn.digitaloceanspaces.com/prod/7/6/760ad20e049e631a163769ebee870aca&fit=cover&w=1147.5&h= 1148w, https://resizer.finance.ua/6250149291dab54ffdb240540cad1cc93804f349.jpg?url=https://finance-news-media.fra1.cdn.digitaloceanspaces.com/prod/7/6/760ad20e049e631a163769ebee870aca&fit=cover&w=1530&h= 1530w” class=”ImageStyles__StyledImage-sc-n1mc9h-0 fJeKOZ”/>
ChatGPT-Entwickler werden die Risiken künstlicher Intelligenz überwachen, um die Menschheit zu retten
Das Entwicklerunternehmen des berühmtesten Chatbots der Welt OpenAI implementiert neue Sicherheitsmaßnahmen zur Bekämpfung möglicher Bedrohungen durch künstliche Intelligenz. Experten haben eine „Sicherheitsberatungsgruppe“ eingerichtet, die die Arbeit der technischen Teams überwachen und dem Management Empfehlungen geben soll.

Der Vorstand von OpenAI hat ein Vetorecht bei den Entscheidungen des CEO. Laut Sam Altman, der in die Geschäftsführung von OpenAI zurückgekehrt ist, werden diese Maßnahmen es dem Unternehmen ermöglichen, Probleme der Transparenz und Sicherheit der Arbeit an fortschrittlichen KI-Systemen zu beseitigen. Eine der Schlüsselkomponenten des neuen Sicherheitsrahmens ist die Verwendung von Risiko-Scorecards für KI-Modelle, die verschiedene Indikatoren für potenzielle Schäden verfolgen, wie z. B. Modellfähigkeiten, Schwachstellen und Konsequenzen.

Lesen Sie auch: wie man mit künstlicher Intelligenz Geld verdient

Es gibt verschiedene Abhilfemaßnahmen, wie zum Beispiel die Zurückhaltung von ChatGPT bei der Beschreibung des Herstellungsprozesses von Napalm oder selbstgebauten Bomben. Wenn das Modell nach Durchführung risikomindernder Maßnahmen immer noch als „hohes Risiko“ eingestuft wird, wird es nicht ausgeführt.

Wenige Tage zuvor veröffentlichte Anthropic, ein von ehemaligen OpenAI-Forschern gegründetes Unternehmen, seine Richtlinien zur verantwortungsvollen Skalierung von KI. Die Entwickler stellten ein Framework vor, das spezifische Ebenen der KI-Sicherheit und entsprechende Protokolle für die Entwicklung und Implementierung von Modellen definiert.

Wenn Sie einen Fehler bemerken, markieren Sie den erforderlichen Text und klicken Sie Strg+Eingabetaste uns darüber zu informieren.

5/5 - (146 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein