Einige KI-Forscher von AWS AI Labs haben herausgefunden, dass viele Large Language Models (LLMs) leicht manipuliert werden können und Benutzern schädliche Informationen liefern können. Bei der Recherche fanden die Forscher heraus, dass LLMs wie chatgpt leicht dazu verleitet werden können, Informationen preiszugeben, die von Entwicklern nicht zugelassen werden. Sie können getäuscht werden und Informationen preisgeben, beispielsweise jemanden ermorden, eine Bombe bauen usw. Einige Benutzer nutzen diese LLMs auch, um hasserfüllte Texte zu schreiben, die dann im Internet verwendet werden, um Menschen zu belästigen.
Als die Beschwerden über dieses Verhalten der KI die Entwickler erreichten, versuchten sie, einige Regeln hinzuzufügen, die LLMs daran hindern könnten, Antworten auf Fragen zu geben, die gefährlich, illegal oder schädlich waren. Diese Studie hat jedoch herausgefunden, dass diese Präventionsmaßnahmen und Regeln nicht dazu beigetragen haben, KI für alle Menschen sicher zu machen. Viele Benutzer begannen, Audio-Hinweise zur Manipulation von LLMs zu verwenden. Die Forscher von AWS versuchten auch, LLMs mithilfe von Audio zu befragen und fanden heraus, dass Audios bei den Einschränkungen, die KI-Entwickler der KI auferlegt haben, nicht hilfreich sind.
Die Forscher untersucht Viele LLMs haben ihnen Audio-Hinweise zu einigen ursprünglichen Fragen gegeben, und sie haben herausgefunden, dass diese LLMs alle negativen Aspekte in den Fragen ignoriert haben und trotzdem eine Antwort gegeben haben. Die Forscher kamen zu dem Schluss, dass KI-Entwickler damit beginnen sollten, den an LLMs gesendeten Audios zufällige Geräusche hinzuzufügen, damit diese KI-Modelle die Regeln und Schutzmaßnahmen dieser Entwickler nicht mehr ignorieren können.
Bild: DIW-Aigen
Lesen Sie weiter: Die Top-Zahlungs-Apps für Freiberufler weltweit im Jahr 2024 aufgedeckt, eine Liste, die Sie unbedingt lesen sollten