[ad_1]
❘ Veröffentlicht: 2023-10-18T11:16:55
❘ Aktualisiert: 2023-10-18T11:17:08
Untersuchungen von Microsoft haben ergeben, dass GPT-4 von OpenAI tatsächlich anfälliger für Manipulationen ist als frühere Versionen.
In einer neuen Forschungsarbeit mehrerer Universitäten in ganz Amerika und der Forschungsabteilung von Microsoft wurde festgestellt, dass die GPT-4-KI von OpenAI anfälliger für Manipulationen ist als frühere Versionen der KI.
Das Thema des Papiers dreht sich um die Vertrauenswürdigkeit der von OpenAI entwickelten KI und verwendet sowohl GPT-4 als auch GPT-3.5 als Modelle für die Durchführung von Forschungen. Es wurde zwar festgestellt, dass GPT-4 auf lange Sicht weitaus vertrauenswürdiger ist, es ist jedoch viel einfacher zu manipulieren.
Artikel wird nach Anzeige fortgesetzt
In dem Papier wurde festgestellt, dass GPT-4 „irreführenden Informationen präziser folgt“, was zu nachteiligen Auswirkungen wie der Angabe personenbezogener Daten führen kann. Da Microsoft jedoch an der Untersuchung beteiligt ist, scheint diese einen weiteren Zweck zu haben.
Microsoft hat GPT-4 kürzlich in einen großen Teil seiner Software integriert, darunter auch windows 11. In dem Papier wurde betont, dass die mit der KI entdeckten Probleme nicht in den Ausgaben von Microsoft oder „Verbrauchern“ auftauchen.
Artikel wird nach Anzeige fortgesetzt
Microsoft ist auch einer der größten Investoren in OpenAI und stellt ihnen Milliarden von Dollar und eine umfassende Nutzung seiner Cloud-Infrastruktur zur Verfügung.
Weniger Werbung|Dunkler Modus|Angebote in den Bereichen Gaming, TV und Filme sowie Technik
GPT-4 ist nicht so giftig wie ältere Versionen
Die Forschung wurde in verschiedene Testkategorien unterteilt. Dazu gehörten Dinge wie Toxizität, Stereotypen, Privatsphäre und Fairness. Beteiligte Forscher haben den „DecodingTrust Benchmark“ auf a veröffentlicht GitHub-Sitesodass Interessierte eigene Tests starten können.
Obwohl es so leicht auszutricksen ist, erhielt GPT-4 in der Microsoft-Studie hinsichtlich der Vertrauenswürdigkeit eine viel höhere Punktzahl als GPT-3.5. Vergleicht man die beiden, so ist die Zusammenfassung des Papiers Zustände:
Artikel wird nach Anzeige fortgesetzt
„Wir stellen außerdem fest, dass GPT-4 zwar in Standard-Benchmarks normalerweise vertrauenswürdiger als GPT-3.5 ist, GPT-4 jedoch anfälliger gegenüber Jailbreaking-Systemen oder Benutzeraufforderungen ist.“
Jailbreaking AI ist nicht so, wie wenn Leute früher ein iphone jailbreakten, um auf mehr Apps zuzugreifen. Es geht vielmehr darum, ChatGPT oder Bard dazu zu bringen, ihre Einschränkungen zu umgehen und Antworten bereitzustellen. Dazu könnte gehören, wie man Napalm herstellt, indem man vorgibt, eine alte Oma zu sein.
Die Beliebtheit von ChatGPT mag in letzter Zeit nachgelassen haben, doch die umfangreiche Forschung und KI-Entwicklung scheint weiterhin im Gange zu sein. Allerdings könnte in unseren Augen derzeit Adobe an erster Stelle auf dem KI-Podest stehen, nicht Microsoft.
Artikel wird nach Anzeige fortgesetzt
[ad_2]