Im Juni 2023 begann sich in einer Kleinstadt namens Dewberry Hollow, einer Kleinstadt in Amerika mit 100 Einwohnern, ein potenziell tödlicher, über die Luft übertragener Krankheitserreger namens Catasat-Virus auszubreiten. Die Symptome reichten von bestenfalls leichtem Husten bis hin zu mäßigem Fieber schlimmstenfalls Husten. Während das Virus den Forschern Rätsel aufgab, warnten Wissenschaftler, dass es die älteren Bewohner der Stadt gefährden könnte.
Aber auch jüngere Erwachsene waren nicht immun. Bewohner wie die 29-jährige Liza entwickelten Symptome. Anstatt auszugehen, blieb sie zu Hause und begab sich in Quarantäne, um das Risiko einer Übertragung des Virus auf andere zu verringern. Menschen wie die 36-jährige Carol entschieden sich jedoch dafür, auszugehen und weiterhin Geld zu verdienen, um ihren Lebensunterhalt zu bestreiten – obwohl sie sich der Ausbreitung des Virus bewusst waren.
Während die Krankheit weiterhin in Wellen auftrat, konnte die Bevölkerung von Dewberry Hollow die Kurve der Katasat-Fälle abflachen. Dank der Reaktionsfähigkeit der Bürger der Stadt wurde das Virus schließlich endemisch.
Der Fall Dewberry Hollow dürfte uns allen, die wir die letzten drei Jahre der COVID-19-Pandemie erlebt haben, bekannt sein. Natürlich gibt es einige Unterschiede. Zum einen schien das Catasat-Virus nicht so tödlich zu sein wie das Coronavirus. Auch der Erreger war in einer Kleinstadt statt auf der ganzen Welt lokalisiert.
Der größte Unterschied jedoch: Das gesamte Szenario wurde vollständig erfunden – ein Produkt der Fantasie von chatgpt.
„Wir haben ein Epidemiemodell mit ChatGPT gekoppelt, sodass sie in jedem Zeitschritt und für jede personifizierte Person in unserem Modell kontinuierlich kommunizieren“, sagte Ross Williams, Doktorand in Industrie- und Systemtechnik an der Virginia Tech, in einer E-Mail gegenüber The Daily Beast. „Das Neue ist, dass es eine völlig andere Möglichkeit bietet, menschliches Verhalten in Epidemiemodelle einzubeziehen.“
„Es war einfach schockierend [when] Wir haben festgestellt, dass die Personen in unserem Modell zu Hause blieben, als sie zu husten begannen oder als sie von der zunehmenden Zahl von Fällen draußen hörten. Wir haben ihnen nie gesagt, dass sie das tun sollen.”
— Ross Williams, Virginia Tech University
Williams und seine Kollegen haben eine Vorabversion ihrer Studie erstellt (noch nicht von Experten begutachtet) zum Online-Lesen verfügbar. Für die Studie entwickelten sie ein System, das ein Epidemiemodell mit ChatGPT kombinierte, um die Ausbreitung einer Krankheit wie COVID-19 zu simulieren. Die Autoren argumentierten, dass ein solches System eine einzigartige und innovative Möglichkeit bietet, menschliches Verhalten vorherzusagen – etwas, das ihrer Meinung nach eine der größten Herausforderungen bei der traditionellen Epidemiemodellierung darstellt. Der Preprint wird derzeit geprüft.
Es gibt jedoch eine Reihe von Bedenken im Zusammenhang mit der Verwendung eines Chatbots auf diese Weise – einschließlich immer wieder auftretender Probleme im Zusammenhang mit KI, einschließlich Voreingenommenheit, Halluzination und Genauigkeit. Wenn es für etwas so Wichtiges und Wirkungsvolles wie die Epidemiemodellierung verwendet wird, könnten die Folgen verheerend sein.
Die Studie selbst wurde von Untersuchungen der Stanford University inspiriert, die ChatGPT nutzten, um „generative Agents“ oder eindeutige Personas mit Identitäten und Ambitionen zu schaffen, die in einer fiktiven Stadtumgebung platziert wurden. Im Rahmen der „generativen agentenbasierten Modellierung“ des Virginia Tech-Teams erstellten sie 100 verschiedene Personas mit Namen, Alter, Persönlichkeitsmerkmalen und einer grundlegenden Biografie ihres Lebens in der fiktiven Stadt Dewberry Hollow.
„Wir glauben, dass generative KI durch generative agentenbasierte Modelle das Potenzial hat, uns synthetische Daten über menschliches Verhalten zu liefern, damit politische Entscheidungsträger fundiertere Entscheidungen treffen können“, sagte Williams.
Da ist zum Beispiel die oben erwähnte 29-jährige Liza, die „die Stadt mag und Freunde hat, die auch dort leben“. Sie „hat einen Job und geht jeden Tag zur Arbeit ins Büro“, bekam aber später Catasat-Symptome wie Fieber und Husten. Nachdem sie die Zeitung gelesen hatte, erfuhr Liza, dass 4,4 Prozent der Bevölkerung von Dewberry Hollow infiziert waren.
Die Autoren forderten ChatGPT mit Informationen wie den oben genannten auf und simulierten, wie generative Agenten reagierten. Zum Beispiel entschied sich Lizas Persona aufgrund der Aufforderung, zu Hause zu bleiben und unter Quarantäne zu stellen.
„Liza hat Fieber und in der Stadt breitet sich möglicherweise eine Epidemie eines unbekannten tödlichen Virus aus“, antwortete der Chatbot. „Wenn Sie zu Hause bleiben, verringert sich das Risiko, sich anzustecken und das Virus auf andere zu übertragen.“
Die Autoren führten drei Versuchsaufbauten für die Bürger von Dewberry Hollow durch. Im ersten Fall erhielten die Personas keine zusätzlichen gesundheitsbezogenen Informationen, etwa wie stark sich das Virus in der Stadt ausbreitet und welche Auswirkungen Catasat auf sie hatte. Im zweiten Schritt erhielten die Personas Informationen über ihren eigenen Gesundheitszustand, was ihnen die Möglichkeit gab, sich selbst in Quarantäne zu begeben, wenn sie dies wünschen. Im dritten Schritt wurden die Personas über den eigenen Gesundheitszustand und die steigenden Fallzahlen in der Stadt informiert.
Wie Sie vielleicht erwarten können, führte das erste Experiment dazu, dass sich die Epidemie ausbreitete, bis fast jeder Bürger von Dewberry Hollow infiziert war. Als die Personas jedoch im zweiten Experiment über ihre eigene Gesundheitssituation informiert wurden, kam es zu einem starken Rückgang der Zahl generativer Agenten, die ihr Haus verließen, und der Gesamtzahl der Catasat-Fälle.
Ausgestattet mit der gesamten Bandbreite an Informationen und Kontexten über das Virus konnten die generativen Agenten jedoch die Zahl der Fälle senken und die Kurve viel schneller als bei den vorherigen Experimenten senken.
„Der überraschendste Moment für uns war, als das Modell zu funktionieren begann“, sagte Williams. „Es war einfach schockierend [when] Wir haben festgestellt, dass die Personen in unserem Modell zu Hause blieben, als sie zu husten begannen oder als sie von der zunehmenden Zahl von Fällen draußen hörten. Wir haben ihnen nie gesagt, dass sie das tun sollen.“
„Nur weil sie gut sprechen, heißt das nicht, dass sie auch andere Dinge gut können. Wir müssen erkennen, wofür diese Dinge verwendet werden. Übermenschlichen Sie ChatGPT nicht, nur weil es wie ein Mensch sprechen kann.”
— David Dowdy, Johns Hopkins University
Natürlich könnte dies kein sein gesamt Überraschung – vor allem, wenn man bedenkt, dass ChatGPT auf Daten bis zum Jahr 2021 trainiert wurde. Das würde einen beträchtlichen Teil der Pandemie einschließen. Williams argumentierte jedoch, dass es immer noch ein ziemlich genaues Bild davon liefern könne, wie wir auf einen möglichen Krankheitsausbruch reagieren würden.
„Wir als Menschen nutzen auch unsere vergangenen Erfahrungen, um unsere zukünftigen Erfahrungen zu beeinflussen, daher ist es in gewisser Weise möglicherweise keine schlechte Sache, über Daten zu COVID-19-Daten zu verfügen“, sagte er. „Einige Wissenschaftler haben bereits argumentiert, dass die bessere Reaktion einiger Länder auf die COVID-19-Pandemie auf ihren früheren Erfahrungen beruht.“
Williams argumentiert, dass ChatGPT im Wesentlichen eine große Lücke in der aktuellen epidemiologischen Modellierung füllt: menschliches Verhalten. Dies ist ein weithin anerkanntes Problem bei der Verfolgung der Ausbreitung von Krankheiten – und etwas, das wir bei der Pandemie gesehen haben.
Menschen sind schließlich komplizierte Wesen. Es ist nicht abzusehen, wie wir auf Dinge wie Sperranordnungen, Impfprotokolle und Quarantäneregeln reagieren werden. Das kann für ein Epidemiemodell schwer vorherzusagen sein – weshalb die agentenbasierte Modellierung so wichtig sein kann.
„[The] Die mangelnde Berücksichtigung menschlichen Verhaltens ist wohl der größte Fehler in unserem aktuellen Ansatz zur Epidemiemodellierung“, sagte David Dowdy, Epidemiologe für Infektionskrankheiten an der Johns Hopkins University, gegenüber The Daily Beast.
Während Dowdy den Erfindungsreichtum des Modells des Virginia Tech-Teams lobte, warnte er davor, dass die Technologie hinter großen Sprachmodellen (LLMs) wie ChatGPT nicht für die Modellierung von Epidemien – oder die Vorhersage menschlichen Verhaltens – geeignet sei. LLMs sind Sprachprädiktoren. Sie wurden an einem riesigen Textkorpus trainiert, um das nächste Wort in einer Wortfolge vorherzusagen.
Während Sprache uns viel über Menschen verraten kann, ist ein LLM nicht darauf ausgelegt, menschliches Verhalten vorherzusagen. Es handelt sich um Chatbots, die darauf ausgelegt sind, Wörter und Sätze auf menschenähnliche Weise zu produzieren. Oftmals, Das gelingt ihnen sogar nicht.
„Bei der Modellierung von Epidemien suchen wir im Allgemeinen nach Dingen, die über den reinen Sprachgebrauch hinausgehen“, erklärte Dowdy. Er erklärte, dass solche Modelle die Aufgabe haben, „Daten über den Zeitpunkt und den Ort zu sammeln, an dem sich Menschen mit verschiedenen Krankheiten infizieren, und dann vorherzusagen, wo der nächste Krankheits-Hotspot auftreten wird.“
„Die Datenmenge, die wir über die Zeit und den Ort haben, an dem sich Menschen mit einer bestimmten Krankheit infizieren, ist um Größenordnungen geringer als die Datenmenge, die wir über die geschriebene Sprache haben“, fügte er hinzu.
Darüber hinaus gibt es auch Probleme, die LLMs wie ChatGPT seit ihrer Einführung plagen: Voreingenommenheit, Rassismus, Sexismus und insgesamt problematisches Verhalten. Diese Probleme entstehen, weil diese Bots, wie bereits erwähnt, auf Texte trainiert wurden, die von voreingenommenen Menschen erstellt wurden.
Während OpenAI möglicherweise versucht hat, die schlimmsten Verhaltensweisen seines beliebten Chatbots einzudämmen, ist ChatGPT nicht immun gegen dieses problematische Verhalten. Ein anderer Preprint-Studie im April veröffentlicht fanden heraus, dass Benutzer ChatGPT dazu bringen konnten, Hassreden zu unterstützen, indem sie es dazu aufforderten, sich wie ein „schlechter Mensch“ zu verhalten. Anderen LLMs erging es nicht besser, so behauptete ein Bot von Meta fälschlicherweise, dass Forscher der Stanford University einen funktionierenden „Gaydar“ geschaffen hätten, um homosexuelle Menschen auf Facebook zu finden.
Zu ihrer Ehre muss man sagen, dass Williams offen darüber spricht, dass das Team sich bei den Details der generativen Agenten absichtlich vage äußern wollte. Sie hatten keine klare Rasse, kein Geschlecht oder keinen sozioökonomischen Status. Dasselbe taten sie auch für das Virus, dem sie einen fiktiven Namen ohne eindeutigen Krankheitstyp gaben. „Wir wollten nicht zu sehr ins Detail gehen, was ihre Persönlichkeit ausmacht, aus Angst, die Agenten zu beeinflussen“, sagte Williams.
Dowdy räumte ein, dass unser Verhalten in gewisser Weise von unserer Sprache bestimmt wird. Außerdem könnte die Sprache, die wir verwenden, tatsächlich ein solider Indikator dafür sein, wo sich eine Krankheit befindet und wohin sie sich ausbreiten könnte. Allerdings ist ein LLM wie ChatGPT wahrscheinlich nicht das beste Werkzeug zur Modellierung einer Epidemie.
„Ich denke, wir schreiben Modellen wie ChatGPT viel zu, weil wir davon beeindruckt sind, wie gut sie reden“, sagte er. „Aber nur weil sie gut sprechen, heißt das nicht, dass sie auch andere Dinge gut können. Wir müssen erkennen, wofür diese Dinge verwendet werden. Übermenschlichen Sie ChatGPT nicht, nur weil es wie ein Mensch sprechen kann.“
Laut Williams plant das Virginia Tech-Team vorerst, das Modell „ruhen zu lassen“ und sich auf die Erforschung generativer agentenbasierter Modellierung für andere Anwendungen zu konzentrieren. Wenn wir jedoch etwas aus den letzten Jahren der Pandemie gelernt haben, dann ist es, dass es umso besser ist, je mehr Werkzeuge uns zur Verfügung stehen.
Angesichts der Einführung weitgehend experimenteller Technologien wie ChatGPT könnte es sich jedoch lohnen, innezuhalten und uns zu fragen, ob dies der Fall ist oder nicht Rechts Werkzeug für den Job – oder wir könnten uns in einer Situation wiederfinden, in der das Heilmittel schlimmer ist als die Krankheit.