Start ChatGPT Die KI-generierten Trainingseinheiten von ChatGPT waren unvollständig und zu vorsichtig, heißt es...
Die KI-generierten Trainingseinheiten von ChatGPT waren unvollständig und zu vorsichtig, heißt es in einer Studie

Die KI-generierten Trainingseinheiten von ChatGPT waren unvollständig und zu vorsichtig, heißt es in einer Studie

Sie könnten versucht sein, künstliche Intelligenz als Hilfe bei der Gestaltung eines Trainingsplans in Anspruch zu nehmen, aber Tools wie chatgpt könnten Sie in die Irre führen, wie eine aktuelle Analyse zeigt.

Als Forscher die Trainingsempfehlungen von ChatGPT untersuchten, stellten sie fest, dass das Tool nicht den Richtlinien entsprach, die unter Medizinern als Standard gelten. laut einer veröffentlichten Analyse in der Zeitschrift JMIR Medical Education. Die Forscher nutzten KI, um personalisierte Trainingsempfehlungen zu generieren und bewerteten dann die empfohlenen Trainingspläne auf Verständlichkeit, Genauigkeit und Lesbarkeit.

Ein Forscher forderte ChatGPT auf, Trainingsempfehlungen für 26 Bevölkerungsgruppen bereitzustellen, die in den Richtlinien für Übungstests und Verschreibungen des American College of Sports Medicine aufgeführt sind, die als Goldstandard in diesem Bereich gelten. Zu den Populationen gehörten unter anderem gesunde Erwachsene, Kinder und Jugendliche, ältere Erwachsene, Menschen mit Herz-Kreislauf-Erkrankungen und Menschen mit Fettleibigkeit.

Die meisten ChatGPT-Empfehlungen waren sachlich korrekt, mit einer Genauigkeitsrate von 90,7 Prozent im Vergleich zu „einer Goldstandard-Referenzquelle“. Doch die Empfehlungen seien nicht umfassend genug gewesen und deckten nur 41,2 Prozent der Leitlinien ab, schreiben die Forscher.

Das Tool generierte auch Fehlinformationen, wenn es um Bewegung für Menschen mit Bluthochdruck, Fibromyalgie, Krebs und anderen Erkrankungen ging. Die Antworten waren für Menschen mit Bluthochdruck am ungenauesten und empfahlen sogar von der intensiven körperlichen Betätigung, die für die meisten in dieser Gruppe geeignet ist.

Die von der KI generierten Antworten informierten die Leser auch falsch darüber, ob sie überhaupt Sport treiben sollten, und veranlassten sie in 53 Prozent der Fälle, vor dem Sport eine ärztliche Genehmigung einzuholen, selbst wenn die betreffende Bevölkerung keinen Arzt fragen musste, bevor sie mit dem Training begann. Dies könnte Menschen davon abhalten, Sport zu treiben, warnen die Forscher, was zu übermäßiger Besorgnis und unnötigen Arztbesuchen führen könnte.

Siehe auch  Personoids Lite – Autonome KI-Agenten direkt in chatGPT

Auch seien die Empfehlungen nicht so lesbar gewesen, wie sie hätten sein sollen, sagen die Forscher: Sie galten im Durchschnitt als „schwer lesbar“ und seien auf Hochschulniveau verfasst worden.

Insgesamt kommen die Forscher zu dem Schluss, dass Gesundheitsdienstleister und Patienten gleichermaßen Vorsicht walten lassen sollten, wenn sie sich bei Trainingsempfehlungen ausschließlich auf KI verlassen, und dass sich zukünftige Studien auf die Messung von „Angemessenheit, Kosten, Durchführbarkeit“ und anderen Faktoren konzentrieren sollten.

5/5 - (368 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein