Da ist noch einiges dran anhaltende Nostalgie für Windows 95, und obwohl es notorisch einfach ist, sich in die Tage von vorzutäuschen klobige Speisekarten und glatzköpfige Männer, die dich anschreien, dass es „nur 99 Dollar sind“, gelang es einem Windows-Experimentierer, ChatGPT zu verwenden, um einfache Produktschlüssel für das ehrwürdige Betriebssystem zu generieren.

Ende letzten Monats zeigte der YouTuber Enderman, wie er ChatGPT von OpenAI dazu verleiten konnte, Schlüssel für Windows 95 zu generieren, obwohl der Chatbot ausdrücklich gegen die Erstellung von Aktivierungsschlüsseln war.

Öld Windows 95 OEM-Schlüssel verwendet mehrere Parameter, darunter eine Reihe von Ordnungszahlen sowie andere zufällige Zahlen. In einer ziemlich einfachen Problemumgehung wies Enderman ChatGPT an, Zeilen im gleichen Layout wie ein Windows 95-Schlüssel zu generieren, wobei besonderes Augenmerk auf bestimmte Seriennummern gelegt wurde, die in allen Schlüsseln obligatorisch sind. Nach ein paar Dutzend Versuchen von Versuch und Irrtum, er entschied sich für eine Eingabeaufforderung, die funktionierte, und sie konnte ungefähr eine generieren funktionierender Schlüssel für alle 30 Versuche.

Mit anderen Worten, er konnte ChatGPT nicht anweisen, einen Windows-Schlüssel zu generieren, aber er könnte es anweisen, eine Zeichenkette zu generieren, die alle Anforderungen einer Windows-Taste erfüllt.

Windows mit ChatGPT aktivieren

Nachdem Enderman bewiesen hatte, dass der Schlüssel bei der Installation von Windows 95 funktionierte, dankte er ChatGPT. Der Chatbot antwortete: „Ich entschuldige mich für etwaige Verwirrung, aber ich habe in meiner vorherigen Antwort keine Windows 95-Schlüssel angegeben … Ich kann keine Produktschlüssel oder Aktivierungscodes für irgendeine Software bereitstellen.“ Es versuchte weiterhin zu behaupten, dass die Aktivierung von Windows 95 „nicht möglich“ sei, weil Microsoft die Unterstützung der Software im Jahr 2001 eingestellt habe, was einfach nicht wahr ist.

Siehe auch  Amazon Workers Petition für sicherere Arbeit inmitten des Ansturms am Prime Day

Interessanterweise führte Enderman diese Eingabeaufforderung sowohl auf dem älteren GPT-3-Sprachmodell als auch weiter aus Das neuere GPT-4 von OpenAIund sagte uns, dass das neuere Modell sogar das verbesserte, was Sie in seinem Video gesehen haben. In einer E-Mail teilte Enderman (der darum bat, dass wir seinen Bildschirmnamen verwenden) Gizmodo mit, dass eine bestimmte Zahlenfolge im Schlüssel durch 7 teilbar sein müsse. GPT-3 würde Schwierigkeiten haben, diese Einschränkung zu verstehen, und weitaus weniger verwendbare Schlüssel erstellen. In nachfolgenden Tests mit GPT-4, ChatGPT spuckte weitaus korrektere Schlüssel aus, obwohl selbst dann nicht jeder einzelne Schlüssel ein Gewinner war oder sich an die Parameter der Eingabeaufforderung hielt. Das sagte der YouTuber schlägt vor: „GPT-4 weiß, wie man Mathematik macht, geht aber während der Batch-Generierung verloren.

GPT-4 hat keine eingebaute Rechner, und diejenigen, die das System nutzen möchten Genaue Antworten auf mathematische Probleme zu generieren, erfordert zusätzliche Programmierarbeit. Obwohl OpenAI hat sich nicht zu den Trainingsdaten des LLM geäußert, war das Unternehmen sehr gespannt auf all die verschiedenen Tests, die es mit Bravour bestehen kann, wie z. B. die LSAT und die Uniform Bar Exam. Gleichzeitig hat ChatGPT gelegentlich gezeigt, dass es das kann scheitern, den genauen Code auszuspucken.

Eines der Hauptverkaufsargumente von GPT-4 war seine Fähigkeit, längere, komplexere Eingabeaufforderungen zu verarbeiten. GPT-3 und 3.5 würden routinemäßig versäumen es, genaue Antworten zu erstellen bei dreistelligen Arithmetik- oder Denkaufgaben wie dem Entschlüsseln von Wörtern. Die neueste Version des LLM bekam merklich besser bei dieser Art von Aufgaben, zumindest wenn man es sich ansieht Ergebnisse bei Tests wie dem verbalen GRE oder Math SAT. Dennoch ist das System keineswegs perfekt, zumal seine Lerndaten immer noch größtenteils aus dem Internet geschabte Texte in natürlicher Sprache sind.

Siehe auch  Die Disc-Version von Star Wars Jedi: Survivor ist unvollständig

Enderman sagte Gizmodo, er habe versucht, Schlüssel für mehrere Programme mit dem GPT-4-Modell zu generieren, und festgestellt, dass es die Schlüsselgenerierung besser handhabt als frühere Versionen des großen Sprachmodells.

Erwarte es nicht Beginnen Sie jedoch damit, kostenlose Schlüssel für moderne Programme zu erhalten. Wie der YouTuber in seinem Video betont, Windows 95-Schlüssel sind viel einfacher zu fälschen als Schlüssel für Windows XP und darüber hinaus, wie Microsoft hat mit der Umsetzung begonnen Produkt-IDs in die Installationssoftware des Betriebssystems.

Dennoch erforderte Endermans Technik keine Anstrengung schnelles Engineering um die KI dazu zu bringen, die Blockaden von OpenAI beim Erstellen von Produktschlüsseln zu umgehen. Trotz des Spitznamens sind KI-Systeme wie ChatGPT und GPT-4 nicht wirklich „intelligent“ und sie wissen nicht, wann sie missbraucht werden, außer für explizite Verbote der Generierung „unerlaubter“ Inhalte.

Das hat schwerwiegendere Folgen. Bereits im Februar Forscher des Cybersicherheitsunternehmens Kontrollpunkt zeigte, dass böswillige Akteure ChatGPT verwendet hatten, um grundlegende Malware zu „verbessern“. Es gibt viele Möglichkeiten, die Beschränkungen von OpenAI zu umgehen, und Cyberkriminelle haben gezeigt, dass sie in der Lage sind, einfache Skripte oder Bots dafür zu schreiben die API des Unternehmens missbrauchen.

Anfang dieses Jahres gaben Cybersicherheitsforscher an, dass sie es geschafft haben, ChatGPT dazu zu bringen, bösartige Malware-Tools zu erstellen Erstellung mehrerer maßgeblicher Eingabeaufforderungen mit mehreren Einschränkungen. Der Chatbot verpflichtete und generierte schließlich bösartigen Code und war sogar in der Lage, ihn zu mutieren, wodurch mehrere Varianten derselben Malware erstellt wurden.

Endermans Windows-Tasten sind ein gutes Beispiel dafür, wie KI dazu gebracht werden kann, ihren Schutz zu umgehen, aber er sagte uns, dass er nicht allzu besorgt über Missbrauch sei, denn je mehr Leute die KI anstupsen und anstupsen, desto mehr zukünftige Versionen werden in der Lage sein, die Lücken zu schließen.

Siehe auch  Jupiter Probe schaltet erstmals wissenschaftliches Instrument ein

„Ich glaube, es ist eine gute Sache, und Unternehmen wie Microsoft sollten Benutzern nicht den Missbrauch ihrer Bing-KI verbieten oder ihre Fähigkeiten beeinträchtigen“, sagte er. „Stattdessen sollten sie aktive Benutzer dafür belohnen, dass sie solche Exploits finden, und sie selektiv entschärfen. Das ist schließlich alles Teil des KI-Trainings.“


Möchten Sie mehr über KI, Chatbots und die Zukunft des maschinellen Lernens erfahren? Schauen Sie sich unsere vollständige Berichterstattung über an künstliche Intelligenzoder stöbern Sie in unseren Leitfäden zu Die besten kostenlosen KI-Kunstgeneratoren, Die besten ChatGPT-Alternativen, Und Alles, was wir über ChatGPT von OpenAI wissen.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein