Das Entwicklerunternehmen des berühmtesten Chatbots der Welt OpenAI implementiert neue Sicherheitsmaßnahmen zur Bekämpfung möglicher Bedrohungen durch künstliche Intelligenz. Experten haben eine „Sicherheitsberatungsgruppe“ eingerichtet, die die Arbeit der technischen Teams überwachen und dem Management Empfehlungen geben soll.
Der Vorstand von OpenAI hat ein Vetorecht bei den Entscheidungen des CEO. Laut Sam Altman, der in die Geschäftsführung von OpenAI zurückgekehrt ist, werden diese Maßnahmen es dem Unternehmen ermöglichen, Probleme der Transparenz und Sicherheit der Arbeit an fortschrittlichen KI-Systemen zu beseitigen. Eine der Schlüsselkomponenten des neuen Sicherheitsrahmens ist die Verwendung von Risiko-Scorecards für KI-Modelle, die verschiedene Indikatoren für potenzielle Schäden verfolgen, wie z. B. Modellfähigkeiten, Schwachstellen und Konsequenzen.
Lesen Sie auch: wie man mit künstlicher Intelligenz Geld verdient
Es gibt verschiedene Abhilfemaßnahmen, wie zum Beispiel die Zurückhaltung von ChatGPT bei der Beschreibung des Herstellungsprozesses von Napalm oder selbstgebauten Bomben. Wenn das Modell nach Durchführung risikomindernder Maßnahmen immer noch als „hohes Risiko“ eingestuft wird, wird es nicht ausgeführt.
Wenige Tage zuvor veröffentlichte Anthropic, ein von ehemaligen OpenAI-Forschern gegründetes Unternehmen, seine Richtlinien zur verantwortungsvollen Skalierung von KI. Die Entwickler stellten ein Framework vor, das spezifische Ebenen der KI-Sicherheit und entsprechende Protokolle für die Entwicklung und Implementierung von Modellen definiert.
Wenn Sie einen Fehler bemerken, markieren Sie den erforderlichen Text und klicken Sie Strg+Eingabetaste uns darüber zu informieren.