Der chatgpt-Entwickler OpenAI sagte, er habe sich mit dem Top-Investor Microsoft zusammengetan, um fünf „staatsnahe“ Cyberangriffe zu vereiteln.
Die Cyberangriffe, sagte OpenAI am Mittwoch, kamen von zwei mit China verbundenen Gruppen – Charcoal Typhoon und Salmon Typhoon – sowie von der mit dem Iran verbundenen Crimson Sandstorm, der mit Nordkorea verbundenen Emerald Sleet und der mit Russland verbundenen Forest Blizzard.
Die Gruppen versuchten, GPT-4 für Unternehmens- und Cybersicherheitstool-Recherchen, Code-Debugging, Skriptgenerierung, Phishing-Kampagnen, die Übersetzung technischer Dokumente, die Umgehung der Malware-Erkennung sowie für die Forschung zu Satellitenkommunikation und Radartechnologie zu nutzen, sagte OpenAI. Die Konten wurden nach ihrer Identifizierung gekündigt.
„Wir haben fünf staatsnahe Akteure gestört, die versuchten, KI-Dienste zur Unterstützung böswilliger Cyberaktivitäten zu nutzen“, sagte OpenAI in einem Blog Beitrag, in dem auch der „Ansatz des Unternehmens, solche Akteure zu erkennen und zu stören, um den Informationsaustausch und die Transparenz hinsichtlich ihrer Aktivitäten zu fördern“, geteilt wurde.
OpenAI und Microsoft reagierten nicht sofort Entschlüsseln Bitte um Kommentar.
„Die überwiegende Mehrheit der Menschen nutzt unsere Systeme, um ihr tägliches Leben zu verbessern, von virtuellen Tutoren für Studenten bis hin zu Apps, die die Welt für Menschen mit Sehbehinderung transkribieren können“, sagte OpenAI. „Wie bei vielen anderen Ökosystemen gibt es auch hier eine Handvoll böswilliger Akteure, die ständige Aufmerksamkeit erfordern, damit alle anderen weiterhin von den Vorteilen profitieren können.“
Während OpenAI diese Instanzen erfolgreich stoppte, räumte das Unternehmen ein, dass es unmöglich ist, jeden Missbrauch zu stoppen.
Nach der Einführung von ChatGPT kam es nach der Einführung von ChatGPT zu einer Welle von KI-generierten Deepfakes und Betrügereien. Die politischen Entscheidungsträger verschärften die Kontrolle von Entwicklern generativer KI. Im September kündigte OpenAI eine Initiative zur Verbesserung der Cybersicherheit rund um seine KI-Modelle an, einschließlich der Einschaltung externer „roter Teams“, um Lücken in der OpenAI-Sicherheit zu finden.
Trotz der Investitionen von OpenAI in die Cybersicherheit und der Implementierung von Maßnahmen, um zu verhindern, dass ChatGPT mit böswilligen, rassistischen oder gefährlichen Antworten antwortet, haben Hacker Möglichkeiten gefunden, das Programm zu jailbreaken und den Chatbot dazu zu bringen, genau das zu tun. Im Oktober entdeckten Forscher der Brown University, dass die Verwendung weniger verbreiteter Sprachen wie Zulu und Gälisch die Einschränkungen von ChatGPT umgehen könnte.
OpenAI betonte die Notwendigkeit, den sich entwickelnden Bedrohungen immer einen Schritt voraus zu sein, und hob seinen Ansatz zur Sicherung seiner KI-Modelle hervor, einschließlich Transparenz, Zusammenarbeit mit anderen KI-Entwicklern und Lernen aus realen Cyberangriffen.
Letzte Woche haben sich über 200 Organisationen, darunter OpenAI, Microsoft, Anthropic und google, mit der Biden-Administration zusammengeschlossen, um das AI Safety Institute und das US AI Safety Institute Consortium (AISIC) zu gründen, mit dem Ziel, künstliche Intelligenz sicher zu entwickeln und KI-generierte Deepfakes zu bekämpfen und Berücksichtigung von Cybersicherheitsbedenken.
„Indem wir weiterhin Innovationen entwickeln, Untersuchungen durchführen, zusammenarbeiten und Inhalte austauschen, machen wir es böswilligen Akteuren schwerer, im gesamten digitalen Ökosystem unentdeckt zu bleiben und verbessern das Erlebnis für alle anderen“, sagte OpenAI.
Bearbeitet von Ryan Ozawa.