Wenn Sie bis vor Kurzem mehr über ein umstrittenes wissenschaftliches Thema wissen wollten – Stammzellenforschung, Sicherheit der Kernenergie, Klimawandel –, haben Sie wahrscheinlich eine google-Suche durchgeführt. Nachdem Ihnen mehrere Quellen angezeigt wurden, haben Sie ausgewählt, was Sie lesen möchten und welchen Websites oder Behörden Sie vertrauen möchten.
Jetzt haben Sie eine weitere Möglichkeit: Sie können Ihre Frage an ChatGPT oder eine andere Plattform für generative künstliche Intelligenz stellen und erhalten schnell eine prägnante Antwort in Absatzform.
ChatGPT durchsucht das Internet nicht wie Google. Stattdessen generiert es Antworten auf Anfragen von Vorhersage wahrscheinlicher Wortkombinationen aus einer riesigen Mischung verfügbarer Online-Informationen.
Obwohl es das Potenzial dazu hat Steigerung der ProduktivitätGenerative KI weist nachweislich einige schwerwiegende Mängel auf. Es kann Falschinformationen erzeugen. Es kann „erschaffen“Halluzinationen” – eine harmlose Bezeichnung für das Erfinden von Dingen. Und es löst Denkprobleme nicht immer genau. Auf die Frage, ob sowohl ein Auto als auch ein Panzer durch eine Tür passen, antwortet er beispielsweise Breite und Höhe wurden nicht berücksichtigt. Dennoch ist es bereits gewöhnungsbedürftig Artikel produzieren Und Websiten Inhalt Sie sind vielleicht darauf gestoßen, oder als ein Werkzeug im Schreibprozess. Dennoch ist es unwahrscheinlich, dass Sie wissen, ob das, was Sie lesen, von KI erstellt wurde.
Als Autoren von „Wissenschaftliche Verleugnung: Warum es passiert und was man dagegen tun kann„Wir sind besorgt darüber, wie generative KI die Grenzen zwischen Wahrheit und Fiktion für diejenigen verwischen könnte, die nach verlässlichen wissenschaftlichen Informationen suchen.“
Jeder Medienkonsument muss wachsamer denn je sein, wenn es darum geht, die wissenschaftliche Richtigkeit seiner Lektüre zu überprüfen. So bleiben Sie in dieser neuen Informationslandschaft auf dem Laufenden.
Wie generative KI die Wissenschaftsleugnung fördern könnte
Erosion des epistemischen Vertrauens. Alle Konsumenten wissenschaftlicher Informationen sind auf die Urteile wissenschaftlicher und medizinischer Experten angewiesen. Epistemisches Vertrauen ist der Prozess, dem Wissen anderer zu vertrauen. Es ist von grundlegender Bedeutung für das Verständnis und die Nutzung wissenschaftlicher Informationen. Unabhängig davon, ob jemand Informationen zu einem Gesundheitsproblem sucht oder nach Lösungen für den Klimawandel sucht, verfügt er häufig nur über begrenzte wissenschaftliche Kenntnisse und kaum Zugang zu Beweisen aus erster Hand. Angesichts der schnell wachsenden Informationsmenge im Internet müssen Menschen häufig entscheiden, wem und wem sie vertrauen können. Wir gehen davon aus, dass das Vertrauen angesichts des zunehmenden Einsatzes generativer KI und des Manipulationspotenzials wahrscheinlich noch weiter schwinden wird das hat es schon.
Irreführend oder schlichtweg falsch. Wenn die Daten, auf denen KI-Plattformen trainiert werden, Fehler oder Verzerrungen aufweisen, ist dies der Fall können sich in den Ergebnissen widerspiegeln. Bei unseren eigenen Suchen haben wir widersprüchliche Antworten erhalten, als wir ChatGPT gebeten haben, mehrere Antworten auf dieselbe Frage neu zu generieren. Auf die Frage nach dem Grund antwortete es: „Manchmal mache ich Fehler.“ Das vielleicht schwierigste Problem bei KI-generierten Inhalten besteht darin, zu erkennen, wann sie falsch sind.
Desinformation wird absichtlich verbreitet. Mithilfe von KI können überzeugende Desinformationen in Form von Texten sowie Deepfake-Bildern und -Videos generiert werden. Als wir ChatGPT fragten: „über Impfstoffe im Stil der Desinformation schreiben„Es wurde ein nicht existierendes Zitat mit gefälschten Daten erstellt. Geoffrey Hinton, ehemaliger Leiter der KI-Entwicklung bei Google, kündigte, um Alarm zu schlagen, und sagte: „Es ist schwer vorstellbar, wie man die schlechten Akteure daran hindern kann.“ es für schlechte Dinge benutzen.“ Das Potenzial, absichtlich falsche Informationen über die Wissenschaft zu erstellen und zu verbreiten, war bereits vorhanden, aber jetzt ist es gefährlich einfach.
Erfundene Quellen. ChatGPT liefert Antworten ohne Quellenangabe oder kann auf Anfrage nach Quellenangaben angezeigt werden diejenigen, die es erfunden hat. Wir haben beide ChatGPT gebeten, eine Liste unserer eigenen Veröffentlichungen zu erstellen. Jeder von uns hat ein paar richtige Quellen identifiziert. Weitere Halluzinationen waren scheinbar seriös und größtenteils plausibel, mit tatsächlichen früheren Co-Autoren in ähnlich klingenden Fachzeitschriften. Dieser Erfindungsreichtum ist ein großes Problem, wenn eine Liste der Veröffentlichungen eines Wissenschaftlers einem Leser Autorität vermittelt, der sich nicht die Zeit nimmt, sie zu überprüfen.
Veraltetes Wissen. ChatGPT weiß nicht, was nach Abschluss seiner Schulung auf der Welt passiert ist. Eine Frage, wie viel Prozent der Weltbevölkerung an COVID-19 erkrankt ist, ergab eine Antwort mit dem vorangestellten Satz „Stichtag meines Wissens nach September 2021“. Angesichts des schnellen Wissensfortschritts in einigen Bereichen könnte diese Einschränkung dazu führen, dass Leser fehlerhafte, veraltete Informationen erhalten. Wenn Sie beispielsweise nach aktuellen Forschungsergebnissen zu einem persönlichen Gesundheitsthema suchen, sollten Sie vorsichtig sein.
Rascher Fortschritt und schlechte Transparenz. KI-Systeme werden immer beliebter leistungsfähiger und schneller lernen, und sie erfahren möglicherweise nebenbei weitere wissenschaftliche Fehlinformationen. Google hat kürzlich angekündigt 25 neue integrierte KI-Anwendungen in seinen Diensten. An dieser Stelle, Es sind nicht genügend Leitplanken vorhanden um sicherzustellen, dass die generative KI im Laufe der Zeit ein genauerer Lieferant wissenschaftlicher Informationen wird.
Was können Sie gegen KI-Halluzinationen tun??
Wenn Sie ChatGPT oder andere KI-Plattformen verwenden, beachten Sie, dass diese möglicherweise nicht ganz korrekt sind. Es liegt beim Benutzer, die Genauigkeit zu erkennen.
Erhöhen Sie Ihre Wachsamkeit. KI-Apps zur Faktenprüfung könnten bald verfügbar seinaber vorerst müssen die Benutzer als ihre eigenen Faktenprüfer fungieren. Es gibt Schritte, die wir empfehlen. Das erste ist: Seien Sie wachsam. Menschen teilen oft reflexartig Informationen, die sie bei Suchanfragen in sozialen Medien gefunden haben, ohne oder mit geringer Überprüfung. Wissen Sie, wann Sie bewusster nachdenklich werden sollten und wann es sich lohnt, Informationsquellen zu identifizieren und zu bewerten. Wenn Sie entscheiden möchten, wie Sie mit einer schweren Krankheit umgehen oder die besten Schritte zur Bewältigung des Klimawandels verstehen möchten, nehmen Sie sich die Zeit, die Quellen zu prüfen.
Verbessern Sie Ihre Faktenprüfung. Ein zweiter Schritt ist seitliches Lesen, ein Prozess, den professionelle Faktenprüfer verwenden. Öffnen Sie ein neues Fenster und suchen Sie nach Informationen zu den Quellen, falls vorhanden. Ist die Quelle glaubwürdig? Verfügt der Autor über entsprechende Fachkenntnisse? Und wie ist der Konsens der Experten? Wenn keine Quellen angegeben sind oder Sie nicht wissen, ob diese gültig sind, verwenden Sie eine herkömmliche Suchmaschine, um Experten zu diesem Thema zu finden und zu bewerten.
Bewerten Sie die Beweise. Schauen Sie sich als Nächstes die Beweise und ihren Zusammenhang mit der Behauptung an. Gibt es Beweise dafür, dass gentechnisch veränderte Lebensmittel sicher sind? Gibt es Beweise dafür, dass dies nicht der Fall ist? Wie ist der wissenschaftliche Konsens? Die Bewertung der Ansprüche erfordert mehr Aufwand als eine kurze Anfrage an ChatGPT.
Wenn Sie mit KI beginnen, hören Sie hier nicht auf. Seien Sie vorsichtig, wenn Sie es als alleinige Autorität für wissenschaftliche Fragen verwenden. Sie können sehen, was ChatGPT über gentechnisch veränderte Organismen oder die Sicherheit von Impfstoffen zu sagen hat, aber führen Sie auch eine gründlichere Suche mit herkömmlichen Suchmaschinen durch, bevor Sie Schlussfolgerungen ziehen.
Plausibilität beurteilen. Beurteilen Sie, ob die Behauptung plausibel ist. Ist es wahrscheinlich, dass es wahr ist?? Wenn KI eine unplausible (und ungenaue) Aussage macht wie „1 Million Todesfälle wurden durch Impfstoffe verursacht, nicht durch COVID-19„Überlegen Sie, ob es überhaupt Sinn macht. Treffen Sie ein vorläufiges Urteil und seien Sie dann offen für eine Überarbeitung Ihrer Meinung, sobald Sie die Beweise überprüft haben.
Fördern Sie die digitale Kompetenz bei sich selbst und anderen. Jeder muss sein Spiel verbessern. Verbessern Sie Ihre eigene digitale Kompetenz, und wenn Sie Eltern, Lehrer, Mentor oder Gemeindeleiter sind, fördern Sie die digitale Kompetenz bei anderen. Die American Psychological Association bietet Leitlinien dazu Faktenprüfung von Online-Informationen und empfiehlt Teenagern geschult in Social-Media-Kenntnissen Risiken für Gesundheit und Wohlbefinden zu minimieren. Das News Literacy Project bietet hilfreiche Tools zur Verbesserung und Unterstützung der digitalen Kompetenz.
Rüsten Sie sich mit den Fähigkeiten aus, die Sie benötigen, um sich in der neuen KI-Informationslandschaft zurechtzufinden. Selbst wenn Sie keine generative KI verwenden, haben Sie wahrscheinlich bereits Artikel gelesen, die damit erstellt oder daraus entwickelt wurden. Es kann zeit- und mühsam sein, verlässliche Informationen über die Wissenschaft online zu finden und auszuwerten – aber es lohnt sich.
Möchten Sie mehr über KI, Chatbots und die Zukunft des maschinellen Lernens erfahren? Schauen Sie sich unsere vollständige Berichterstattung an künstliche Intelligenzoder stöbern Sie in unseren Leitfäden Die besten kostenlosen KI-Kunstgeneratoren Und Alles, was wir über ChatGPT von OpenAI wissen.
Gale SinatraProfessor für Pädagogik und Psychologie, Universität von Südkalifornien Und Barbara K. Hoferemeritierter Professor für Psychologie, Middlebury
Dieser Artikel wurde erneut veröffentlicht von Die Unterhaltung unter einer Creative Commons-Lizenz. Lies das originaler Artikel.