[ad_1]
Ein Forscherteam der University of Waterloo hat ein neues Tool mit dem Spitznamen „RAGE“ entwickelt, das verrät, woher große Sprachmodelle (LLMs) wie ChatGPT ihre Informationen beziehen und ob diese Informationen vertrauenswürdig sind.
LLMs wie ChatGPT basieren auf „unüberwachtem Deep Learning“, stellen Verbindungen her und nehmen Informationen aus dem gesamten Internet auf, und zwar auf eine Art und Weise, die für ihre Programmierer und Benutzer schwer zu entschlüsseln sein kann. Darüber hinaus neigen LLMs zu „Halluzinationen“ – das heißt, sie schreiben überzeugend über Konzepte und Quellen, die entweder falsch oder gar nicht vorhanden sind.
„Man kann sich nicht unbedingt darauf verlassen, dass ein LLM sich selbst erklärt“, sagte Joel Rorseth, ein Informatik-Doktorand aus Waterloo und Hauptautor der Studie. „Vielleicht liefert er Erklärungen oder Zitate, die er ebenfalls erfunden hat.“
Das neue Tool von Rorseths Team verwendet eine kürzlich entwickelte Strategie namens „Retrieval-Augmented Generation“ (RAG), um den Kontext der Antworten von LLMs auf eine bestimmte Eingabeaufforderung zu verstehen.
„RAG ermöglicht es den Benutzern, einem LLM ihre eigenen Quellen zur Kontextualisierung bereitzustellen. Unser Tool veranschaulicht, wie unterschiedliche Quellen bei der Verwendung von RAG zu unterschiedlichen Antworten führen, und hilft so bei der Beurteilung, ob diese Informationen vertrauenswürdig sind“, sagte Rorseth.
Da sich ihr Tool auf die Erklärbarkeit der durch Abruf erweiterten Generierung konzentriert, gaben sie ihm den Spitznamen „,RAGE‘ gegen die Maschine.“
Zu verstehen, woher LLMs wie ChatGPT ihre Informationen beziehen – und sicherzustellen, dass sie keine Fehlinformationen wiederholen – wird immer wichtiger, da hochsensible, menschenzentrierte Branchen wie der medizinische und juristische Sektor diese Tools übernehmen, sagte Rorseth.
„Wir befinden uns derzeit in einer Situation, in der Innovationen schneller vorankommen als Regulierungen“, sagte er. „Die Menschen nutzen diese Technologien, ohne ihre potenziellen Risiken zu kennen. Deshalb müssen wir sicherstellen, dass diese Produkte sicher, vertrauenswürdig und zuverlässig sind.“
Die Forschungsarbeit „RAGE Against the Machine: Retrieval-Augmented LLM Explanations“ wird in den Proceedings der 40. IEEE International Conference on Data Engineering veröffentlicht. Sie ist derzeit verfügbar auf der arXiv Preprint-Server.
Mehr Informationen: Joel Rorseth et al, RAGE Against the Machine: Retrieval-Augmented LLM Erklärungen, arXiv (2024). DOI: 10.48550/arxiv.2405.13000
Zitat: Kennen Sie Ihre Quelle: RAGE-Tool enthüllt die Quellen von ChatGPT (4. Juni 2024), abgerufen am 4. Juni 2024 von https://techxplore.com/news/2024-06-source-rage-tool-unveils-chatgpt.html
Dieses Dokument unterliegt dem Urheberrecht. Außer für Zwecke des privaten Studiums oder der Forschung darf kein Teil davon ohne schriftliche Genehmigung reproduziert werden. Der Inhalt dient ausschließlich zu Informationszwecken.
[ad_2]