Es ist ein Jahr her, seit chatgpt die Weltbühne betrat. Der KI-gestützte Textgenerator zeichnete sich durch überzeugende und natürlich klingende Antworten aus und erfreute sich schnell großer Beliebtheit – inzwischen erreicht er fast 200 Millionen Nutzer. Aber nach einem Jahr bleibt die Frage, ob die großen Sprachmodelle (LLMs), die Tools wie ChatGPT ermöglichen, sich für die Wissenschaft als nützlich erweisen oder einfach nur ablenken.
„Chatbots“ sind keine neue Innovation und lassen sich bis in die 1960er Jahre zurückverfolgen. Die Möglichkeit, sie mithilfe riesiger Datenmengen zu trainieren, hat jedoch in den letzten Jahren zu einem enormen Aufschwung in diesem Bereich geführt. Einige der Bots, die auf die brodelnde, unordentliche Datenmasse des Internets trainiert sind, haben, was vielleicht nicht überraschend ist, ihre „Eltern“ mit unflätigen Tiraden in Verlegenheit gebracht. Und Forscher haben schnell herausgefunden, dass ausgefeilte Chatbots wie ChatGPT zwar sinnvolle Antworten auf grundlegende wissenschaftliche Fragen liefern konnten, bei eher technischen Fragen jedoch schnell ins Stolpern gerieten. Fälle wie diese haben dazu geführt, dass LLMs von Kritikern lediglich als „plausible Satzgeneratoren“ abgetan wurden. Das Training von LLMs im Internet, ohne es nach Inhalt und Zuverlässigkeit zu filtern, ist also eindeutig kein Erfolg für die Entwicklung eines nützlichen KI-Laborassistenten. Was ist also die Alternative?
Eine naheliegende Lösung besteht darin, sie mit vertrauenswürdigen Datenquellen zu schulen. Das haben Forscher mit ChemCrow gemacht, einem LLM, der sein Handwerk mit echten Chemie-Tools gelernt hat. Sobald ChemCrow mit einer automatisierten Syntheseplattform verbunden ist, könnte es dann beispielsweise angewiesen werden, ein Insektenschutzmittel herzustellen. Anschließend führte das Unternehmen die Forschung unter Verwendung vertrauenswürdiger Quellen durch, plante eine Synthese und führte diese durch, um eine bekannte abstoßende Verbindung herzustellen.
LLMs werden auch in Chemiezeitschriften geschult. In einem Fall wurde ein „ChatGPT-Jäger“ erstellt, der mit beeindruckender Genauigkeit feststellen konnte, ob eine Chemiearbeit mit einem LLM verfasst wurde.
Trotz solcher Beispiele besteht immer noch Skepsis gegenüber der Nützlichkeit von LLMs in der Wissenschaft. Die Demonstration von ChemCrow war zwar beeindruckend, doch die damit erzielten Ergebnisse übertrafen nicht die Fähigkeiten eines Doktoranden. Und es gibt offensichtliche Bedenken, die Überprüfung von Manuskripten an einen Bot auszulagern. Im weiteren Sinne geht es um das Problem der Reproduzierbarkeit und des Black-Box-Charakters der KI – niemand kann mit Sicherheit genau sagen, was passiert, wenn diese Tools eine Antwort finden. Was benötigt wird, ist Zeit zum Nachdenken. LLMs und dergleichen sind Werkzeuge wie alle anderen. Es wird einige Zeit dauern, sie richtig zu nutzen, da wir ihre Grenzen verstehen. Trotz dieser warnenden Worte fällt es schwer, bei der Idee eines KI-Laborassistenten nicht ein wenig Aufregung zu verspüren. Bringen Sie die Zukunft mit!