Da generative KI manchmal halluziniert und ungenaue oder falsche Informationen heraufbeschwört, werden Benutzer dazu angehalten, ihre Referenzen zu überprüfen. Wie sich herausstellt, könnte das auch zu Problemen führen. chatgpt könnte Benutzern Links zu Websites bereitstellen, die Malware hosten, heißt es in einer am Montag veröffentlichten Bericht von Futurismus.

Die Entdeckung erfolgte bei einem Test des Wissens von ChatGPT über aktuelle Ereignisse. Auf die Frage nach William GoinesTräger des Bronze Star und erster schwarzer Navy SEAL, der kürzlich verstorben ist, Futurismusberichtete, dass die Antwort von ChatGPT einen Link zu einer „betrügerischen Website“ enthielt.

Konkret schlug ChatGPT-4o vor, eine Website namens „County Local News“ zu besuchen, um weitere Informationen über Goines zu erhalten. Die Website generierte jedoch sofort gefälschte Popup-Warnungen, die beim Anklicken den Computer des Benutzers mit Malware infizieren würden. Die gleiche Website, Futurismus zur Kenntnis genommen, wurde für andere Themen vorgeschlagen.

Wann Entschlüsseln versuchte den Goines-Test und benutzte dabei die Eingabeaufforderung von Futurismus, die Antwort von ChatGPT enthielt keinen Link zu einer Website.

KI-Entwickler haben viel in die Bekämpfung von Halluzinationen und böswilligem Einsatz ihrer Chatbots investiert, doch die Bereitstellung von Links zu anderen Websites birgt zusätzliche Risiken. Eine verlinkte Website könnte eine legitime und sichere Site gewesen sein, als KI-Unternehmen sie durchsuchten, später jedoch infiziert oder von Betrügern übernommen werden.

Laut Jacob Kalvo, Mitbegründer und CEO des Internet-Daten- und Datenschutzanbieters Live-Proxysausgehende Links sollten ständig überprüft werden.

„Entwickler könnten sicherstellen, dass geeignete Filtermechanismen vorhanden sind, um zu verhindern, dass Chatbots Links zu bösartigen Websites ausgeben“, sagte Kalvo Entschlüsseln„Dies kann durch erweiterte Algorithmen zur Verarbeitung natürlicher Sprache (NLP) ergänzt werden, mit denen ein Chatbot darauf trainiert werden kann, eine URL anhand bekannter Muster bösartiger URLs zu identifizieren.

Siehe auch  GitHub Copilot vs. ChatGPT: Welches KI-Tool ist besser für die Softwareentwicklung?

„Darüber hinaus dürfen wir nicht vergessen, eine Blacklist der Websites zu führen, diese ständig zu aktualisieren und nach neuen Bedrohungen Ausschau zu halten“, fügte Kalvo hinzu.

Kalvo empfiehlt außerdem die Überprüfung von Website-Links und der Domänenreputation sowie eine Echtzeitüberwachung, um verdächtige Aktivitäten schnell zu identifizieren und zu bekämpfen.

„Dies ermöglicht eine kontinuierliche Zusammenarbeit mit Experten für Cybersicherheit, um neuen Bedrohungen bei ihrem Auftauchen zuvorzukommen“, sagte Kalvo. „Nur durch KI und menschliche Fähigkeiten können Entwickler eine viel sicherere Umgebung für Benutzer schaffen.“

Kalvo betonte außerdem, dass die Trainingsdaten der KI-Modelle sorgfältig gepflegt werden müssten, um die Aufnahme und Bereitstellung schädlicher Inhalte zu vermeiden. Zudem seien regelmäßige Prüfungen und Aktualisierungen erforderlich, um die Datenintegrität zu wahren.

Als OpenAI wegen des Berichts kontaktiert wurde, gab das Unternehmen die gleiche Antwort wie zuvor Futurismuserzählen Entschlüsseln dass das Unternehmen mit Partnern im Bereich Nachrichtenverlage zusammenarbeite, um „Konversationsfunktionen mit ihren neuesten Nachrichteninhalten zu kombinieren und dabei eine korrekte Zuordnung sicherzustellen“ – dass diese Funktion jedoch noch nicht verfügbar sei.

Herausgegeben von Ryan Ozawa.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein