WASHINGTON (7News) — Wenn Sie Programmen mit künstlicher Intelligenz (KI) eine Frage stellen würden, würden Sie dann wissen, ob ihre Antworten korrekt sind? Experten untersuchen sogenannte KI-Halluzinationen. Vereinfacht gesagt handelt es sich dabei um Informationen, die korrekt erscheinen, aber ungenau sind.
Es gibt zahlreiche Nachrichtenberichte über Plattformen wie chatgpt, die falsche Informationen liefern. Duke University Libraries skizziert Probleme mit gefälschten Zitaten, Forbes veröffentlichte eine Nachricht darüber, wie ChatGPT Wissenschaftler mit gefälschten Abstracts getäuscht hat, und Fortune zitierte eine Studie, die zeigt, dass ChatGPT in 98 % der Fälle die Mathematikaufgabe richtig beantwortete und nur noch 2 % richtig beantwortete.
Es stellt sich die Frage, ob ChatGPT lediglich Informationen erfindet, Daten falsch interpretiert oder sich auf Fehlinformationen verlässt.
LESEN SIE AUCH | 7Neuigkeiten an Ihrer Seite: Eltern navigieren mit ihren Kindern durch die Welt der KI
Lindsey Mastis von 7News On Your Side ging zu ChatGPT und fragte die KI, ob sie Halluzinationen erlebe. Es hieß, das sei nicht der Fall.
„Nein, ich habe keine KI-Halluzinationen. „Ich generiere Antworten auf der Grundlage von Mustern und Informationen, die in den Daten enthalten sind, mit denen ich bis zu meinem letzten Update im September 2021 geschult wurde“, heißt es darin.
Es gab jedoch zu, dass seine Antworten aufgrund anderer Faktoren möglicherweise falsch waren.
„Meine Reaktionen werden nicht durch Halluzinationen oder imaginäre Inhalte beeinflusst, sondern sie werden auf der Grundlage der mir gegebenen Eingaben und des Wissens, das mir beigebracht wurde, generiert. Es ist jedoch wichtig zu beachten, dass KI-Modelle wie meines falsche oder ungenaue Informationen liefern können, wenn die Eingabedaten oder die Abfrage fehlerhaft sind. Dies ist jedoch nicht dasselbe wie Halluzinationen im herkömmlichen Sinne“, heißt es darin.
SIEHE AUCH | 7Neuigkeiten auf Ihrer Seite: Haben Sie keine Angst vor KI – wahrscheinlich nutzen Sie sie bereits
Usha Jagannathan, eine KI-Innovationsleiterin, hat Halluzinationen untersucht und gibt einige konkrete Ratschläge.
„Wir müssen immer die Quellen zitieren oder Beweise dafür prüfen, dass es sich um die richtigen Informationen handelt, damit wir wissen, dass wir mit den richtigen Angaben vorgehen“, sagte sie.
Sie sagte, einige der Orte, an denen man die Informationen überprüfen könne, seien google Scholar für Studien und Berichte, Primärquellen und Experten auf diesem Gebiet.