Die Deutschen Forschungsgemeinschaft (DFG) – die zentrale Selbstverwaltungsorganisation der Wissenschaft – hat Leitlinien für den Umgang mit generativen KI-Modellen wie chatgpt und DALL-E vorgestellt. Diese sollen Wissenschaftlern sowie bei der DFG an dem „Begutachtungs-, Bewertungs- und Entscheidungsprozess beteiligten Personen“ als Orientierung dienen.
Anzeige
Da für Dritte nicht direkt erkennbar ist, ob ein Text oder eine Abbildung KI-generiert ist oder ob die wissenschaftlichen Ideen mithilfe generativer Modelle entwickelt wurden. Daher seien bei der wissenschaftlichen Qualitätssicherung ein transparenter Umgang und verbindliche Rahmenbedingungen erforderlich.
Transparenz statt Plagiate
Als Erstes nennt die DFGdass Außenstehende den Forschungsprozess und die gewonnenen Erkenntnisse nachvollziehen können. Ein weiterer Punkt fordert von Wissenschaftlern, offenzulegen, „ob und welche generativen Modelle sie zu welchem Zweck und in welchem Umgang eingesetzt haben“: Außerdem müssen die Forscher sicherstellen, dass durch den Einsatz der KI kein geistiges Eigentum verletzt wird. Im Antragsprozess sollte der Einsatz der generativen KI-Modelle neutral gewertet werden. Bei dem Verfassen von Gutachten sei der Einsatz jedoch unzulässig – aufgrund der Vertraulichkeit des Verfahrens. Daher dürfen eingereichte Unterlagen nicht als Eingabe für generative Modelle zum Einsatz kommen.
Zu den Leitlinien hat die DFG auch eine Arbeitsgruppe „Digitaler Wandel“ eingerichtet, die sich mit „übergreifenden epistemischen und mit fachspezifischen“ Anwendungsfragen generativer KI-Modelle befassen will. Der Einfluss generativer Modelle auf die Wissenschaften könne derzeit lediglich ansatzweise erfasst werden. Daher müssten zunächst weitere Erfahrungen gesammelt werden, weitere Stellungnahmen folgen.
Lesen Sie auch
(mack)