Wenn sich Technologie und Gesundheit überschneiden, können die Ergebnisse bahnbrechend sein oder, wie aktuelle Forschungsergebnisse zeigen, ein warnendes Beispiel sein. Eine im JMIR Medical Education Journal veröffentlichte Studie gibt Aufschluss darüber, wie sich die Übungsempfehlungen von chatgpt im Vergleich zu den Richtlinien des American College of Sports Medicine schlagen. Die Forscher wollten verstehen, ob KI den Goldstandard in der Fitnessberatung erreichen kann, und kamen zu Ergebnissen, die zu einer tiefergehenden Betrachtung der Rolle der KI in der Gesundheitsberatung führen.

Genauigkeit und Vollständigkeit auf dem Prüfstand

Die Studie begann mit einer ehrgeizigen Aufgabe und veranlasste ChatGPT, Trainingspläne für 26 verschiedene Bevölkerungsgruppen zu entwickeln, die in den Richtlinien des American College of Sports Medicine beschrieben sind. Diese Gruppen reichten von gesunden Erwachsenen bis hin zu Personen mit bestimmten Gesundheitsproblemen wie Herz-Kreislauf-Erkrankungen und Fettleibigkeit. Überraschenderweise wiesen die Antworten von ChatGPT eine Genauigkeitsrate von 90,7 Prozent auf, gemessen an den Richtlinien. Der Teufel liegt jedoch im Detail – oder in diesem Fall im Fehlen davon. Die Empfehlungen der KI deckten nur 41,2 Prozent der umfassenden Leitlinien ab, wodurch erhebliche Lücken in der Beratung entstanden.

Fehlinformationen und Unzugänglichkeit

Noch besorgniserregender waren die von ChatGPT generierten Fehlinformationen, insbesondere für Personen mit Bluthochdruck, Fibromyalgie und Krebs. Am gravierendsten waren die Ungenauigkeiten bei Menschen mit Bluthochdruck, wobei ChatGPT manchmal von kräftigen Übungen abriet, die laut Gesundheitsstandards von Vorteil wären. Darüber hinaus schlug die KI häufig vor, vor Beginn des Trainings eine ärztliche Genehmigung einzuholen, eine Empfehlung, die für viele der untersuchten Bevölkerungsgruppen unnötig war. Dieser konservative Ansatz könnte Menschen davon abhalten, Sport zu treiben, was möglicherweise mehr schadet als nützt. Darüber hinaus wurde festgestellt, dass die Empfehlungen mangelhaft lesbar waren und eine Komplexität aufwiesen, die mit der von Lehrbüchern für Hochschulen vergleichbar war, wodurch die Informationen für die breite Öffentlichkeit weniger zugänglich waren.

Siehe auch  ChatGPT wählt drei Kryptowährungen für den Datenschutz aus, um die Überwachung abzusichern

Mit Vorsicht fortfahren

Angesichts dieser Ergebnisse ist die Schlussfolgerung klar: KI wie ChatGPT kann zwar eine unterstützende Rolle bei Gesundheit und Fitness spielen, kann aber die differenzierte und personalisierte Beratung durch medizinisches Fachpersonal noch nicht ersetzen. Die Autoren der Studie warnen davor, sich bei der Trainingsführung ausschließlich auf KI zu verlassen, und fordern weitere Untersuchungen zur Angemessenheit, Kosten und Machbarkeit einer solchen Technologie im Gesundheitswesen. Während sich die KI weiterentwickelt, ist ihr Potenzial, das Gesundheitswesen zu unterstützen, unbestreitbar. Diese Studie unterstreicht jedoch, wie wichtig es ist, mit Vorsicht vorzugehen und sicherzustellen, dass KI-Anwendungen hohe Standards an Genauigkeit und Vollständigkeit erfüllen.

Die Implikationen dieser Studie gehen über reine Übungsempfehlungen hinaus. Sie berühren umfassendere Themen wie das Vertrauen in KI-generierte Gesundheitsberatung und die dringende Notwendigkeit einer kontinuierlichen Bewertung und Verbesserung von KI-Technologien im Gesundheitswesen. Während wir uns an dieser vielversprechenden, aber prekären Schnittstelle zwischen KI und Gesundheit bewegen, sollte das Ziel klar bleiben: Technologie nutzen, um die Gesundheitsergebnisse zu verbessern und nicht zu untergraben.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein