Laborleben. Nicht nur Medien, Studenten oder Künstler begeistern sich für chatgpt, den Konversationsagenten des amerikanischen Unternehmens OpenAI, der das Interesse an künstlicher Intelligenz geweckt hat. Die Wissenschaftler selbst blickten in den Neuankömmling, um ihn aus allen Blickwinkeln zu untersuchen. Fast 1.400 Vorabdrucke (Vordrucke) werden seit dem 30. November 2022 und dem Start von ChatGPT auf der Hauptseite Arxiv.org veröffentlicht. Das Erste vom 12. Dezember (zur Analyse der ersten Tweets zum Thema)…

Laut Scopus, einer der führenden Datenbanken, wurden bereits 927 Artikel veröffentlicht. Eines der am häufigsten genannten Bedenken betrifft die Antworten des Programms auf Tests für Medizinstudenten (ChatGPT würde im vierten Jahr bestanden).

A Überprüfung dieser beeindruckenden Literatur, durchgeführt von einer Gruppe von 18 Forschern in den Vereinigten Staaten und Chinawurde im August veröffentlicht und deckt nur 194 davon ab Vordrucke, bis April. In den ersten fünf Monaten verdoppelten sich die Einsendungen jeden Monat. Mittlerweile hat sich das Tempo verlangsamt und es erscheinen täglich etwa zehn Veröffentlichungen. Eine weitere Rezension, vorab veröffentlicht im Juni, von einem internationalen Team Analyse von 533 Veröffentlichungen in wissenschaftlichen Zeitschriften zeigte die Dominanz der Vereinigten Staaten, Chinas und Indiens zu diesem Thema.

Die chinesisch-amerikanische Arbeit ist wertvoll, weil sie die Studien in neun Kategorien unterteilt, anhand derer ChatGPT bewertet wurde: die Fähigkeit, Fragen zu beantworten, Texte zu klassifizieren (nach Ton, Gefühl), Texte zu generieren, Computercode, Schlussfolgerungen zu ziehen, zu extrahieren Informationen zu sammeln, Menschen zu unterstützen, mit anderer Software zu integrieren und schließlich für medizinische Anwendungen genutzt zu werden. All diese Ergebnisse nehmen ein wenig Abstriche (mit dem Nachteil, dass ein Großteil der Arbeit Version 3.5 des Programms betrifft und nicht die im März veröffentlichte Version 4).

Siehe auch  ChatGPT hat Probleme mit der Echokardiographie, zeigt aber dennoch Potenzial, Kardiologie-Auszubildenden zu helfen

Ziemlich viele Fehler

Mehreren Studien zufolge ist ChatGPT in Mathematik nicht sehr gut, schneidet aber in Physik (genauer gesagt in Mechanik) gut ab und schneidet etwas besser ab als der durchschnittliche Student im Grundstudium. Ein bekannter Fehler des Programms besteht jedoch darin, dass es viele Fehler macht und nicht in der Lage ist, neue Konzepte zu generieren (ein Team testete seine Kreativität in der Stringtheorie ohne Erfolg). Es ahmt menschliche Kardiologen recht gut nach und fasst die Ergebnisse eines Elektrokardiogramms zusammen, sein Niveau sinkt jedoch mit der Komplexität der Diagnose.

Lesen Sie auch: Artikel für unsere Abonnenten reserviert Die Konkurrenten von ChatGPT vervielfachen sich

Eine große Studie, veröffentlicht in Informationsfusion etin Polen durchgeführt, quantifizierte diese Ernüchterungen, indem es ChatGPT 25 schwierigen Tests unterzog : Identifizierung von Emotionen, Klassifizierung von Texten (hasserfüllt oder nicht), Argumentation usw. Systematisch ist der Conversational Agent weniger gut als andere Programme, die speziell für diese Aufgaben geschult wurden. Im Durchschnitt beträgt der Abstand 17 Punkte (wenn ein Programm 80 % richtige Antworten findet, findet ChatGPT nur 63 %). Seine besten Leistungen liegen in der Grammatik oder in der Klassifizierung von lustigen oder nicht lustigen Texten.

Sie haben noch 30,39 % dieses Artikels zum Lesen übrig. Der Rest ist Abonnenten vorbehalten.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein