Zwei Biologen aus Israel haben mit chatgpt in weniger als einer Stunde einen wissenschaftlichen Artikel erstellt. Der Text war leicht lesbar, witzig und erfüllte die Anforderungen an die Struktur eines wissenschaftlichen Artikels. Allerdings mussten sie, wie die Autoren beklagten, viele Schwierigkeiten überwinden, bevor sie zu einem solchen Ergebnis gelangen konnten. Und die Benutzerfreundlichkeit dieses Tools und seine Nachteile geben Anlass zur Sorge über die Zukunft der Wissenschaft.

Der Zweck des Experiments bestand darin, die Möglichkeiten von ChatGPT als Partner beim Schreiben wissenschaftlicher Artikel zu erkunden. Laut Wissenschaftlern ist es notwendig, in der akademischen Gemeinschaft eine Diskussion über die Vor- und Nachteile von KI-Modellen anzustoßen, um den sichersten und einfachsten Weg zu entwickeln, diese Technologie zum Nutzen der Wissenschaft zu nutzen.

Roy Kishoni und Tal Ifargan vom Technion Institute in Haifa haben ChatGPT gebeten, Code zu schreiben, der zum Auffinden von Mustern in Daten verwendet werden kann. Beim ersten Versuch generierte der Chatbot einen nicht funktionsfähigen Code voller Fehler. Aber als die Wissenschaftler an den Käfern arbeiteten, gab ihnen die Maschine, was sie wollten: schreibt Natur.

Da die Daten strukturierter waren, baten Kishoni und Ifargan ChatGPT um Hilfe bei der Studie. Der Bot riet ihnen, zu untersuchen, wie sich körperliche Aktivität und Ernährung auf ihr Diabetesrisiko auswirken. Durch die Generierung von mehr Code zeigte der Bot Ergebnisse: Obst- und Gemüsekonsum sowie körperliche Aktivität korrelierten mit einem geringeren Diabetesrisiko. Anschließend stellte ChatGPT die wichtigsten Ergebnisse tabellarisch dar und verfasste ein Kapitel über die Ergebnisse selbst. Schritt für Schritt baten die Wissenschaftler den Bot, die notwendigen Kapitel zu schreiben: Einführung, Forschungsmethodik und andere. Schließlich zwangen sie ihn, die Präsentation des Materials zu verbessern.

Siehe auch  10 realistische Geschäftsanwendungsfälle für ChatGPT

Allerdings ist der Artikel in dieser Form zwar lesbar und wissenschaftlich geworden, aber noch lange nicht perfekt. Insbesondere stießen die Autoren auf die Tendenz von ChatGPT, Fakten zu fabrizieren (das Halluzinationsphänomen). In diesem Fall hat der Bot nicht vorhandene Zitate verfasst und Informationen falsch übermittelt.

Das zweite Problem, das Wissenschaftler beunruhigt, ist die Möglichkeit, dieses Tool für die falsche Methode des P-Hackings (blindes Durchkämmen von Daten) zur Suche nach statistisch signifikanten Mustern zu verwenden, wenn dem Leser nur ein für den Autor geeignetes Ergebnis übermittelt wird. Das dritte Problem besteht darin, dass die Einfachheit, einen Artikel mithilfe von KI-Sprachmodellen zu schreiben, zu einer Flut von Veröffentlichungen von geringer Qualität führt (ähnlich bereits). geht weiter in anderen Bereichen der Verlagstätigkeit).

Im Frühjahr der PRC-Behörden inhaftiert Mann, der ChatGPT zum Schreiben gefälschter Nachrichten verwendet hat. Der Verdächtige wollte mit dem Internetverkehr Geld verdienen. Dies ist eine der ersten Festnahmen wegen Verstoßes gegen die neuen Anforderungen der chinesischen Behörden, den Einsatz von KI zur Erstellung und Verbreitung falscher Informationen zu verbieten.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein