[ad_1]
{„id“:837467,“type“num“,“link“https:\/\/vc.ru\/flood\/837467-chatgpt-tochno-prodiagnostiroval-hronicheskuyu-bol-rebenka-postle- togo-kak-17-vrachey-poterpeli-neuudachu“,“gtm“:““,“prevCount“:null,“count“:1,“isAuthorized“:false}
{„id“:837467,“type“:1,“typeStr“:content“,showTitle“:false,“initialState“:{„isActive“:false},“gtm“:“}
{„id“:837467,“gtm“:null}
24 zeigte
32 Entdeckungen
Die Mutter kämpfte drei Jahre lang darum, eine Diagnose für die chronischen Schmerzen ihres Sohnes zu erhalten. ChatGPT lieferte dann Berichten zufolge die richtige Diagnose. Es ist jedoch wichtig zu beachten, dass dies zum jetzigen Zeitpunkt höchstwahrscheinlich ein Zufall ist. Schließlich kann ein neuronales Netzwerk entweder ein ideales oder ein völlig falsches Ergebnis liefern.
Nach Angaben der Mutter besuchte sie im Laufe von drei Jahren 17 Spezialisten, die alle in ihrem Fachgebiet nach einer möglichen Ursache für die Erkrankungen des Jungen suchten. Doch kein Arzt und keine Ärztin könne die chronischen Schmerzen ihres Sohnes lindern, sagte die Mutter, die anonym bleiben möchte.
Anschließend gab sie alle Symptome und MRT-Daten ihres Sohnes in ChatGPT (ChatGPT und andere neuronale Netze, die Sie über unser nutzen können) ein Service von KolerskyAi). Das künstliche Intelligenzsystem OpenAI „schlug“ eine Diagnose vor, die Mediziner zuvor nicht gestellt hatten: Occult Tethered Cord Syndrome.
Hierbei handelt es sich um eine Erkrankung, bei der das Rückenmark mit der Hirnhaut oder dem umgebenden Gewebe verbunden ist. Die daraus resultierende Spannung der Nervenfasern kann Kopfschmerzen und andere Symptome verursachen. Der Neurochirurg bestätigte die Diagnose und führte eine Operation am Jungen durch, der sich derzeit in Behandlung befindet.
Nun zur Sache
Anekdoten wie die oben genannten veranschaulichen das Potenzial großer Sprachmodelle zur Beantwortung medizinischer Fragen auf Expertenebene, wie bereits in der Forschung nachgewiesen wurde. GPT-4 steht in diesem Bereich an der Spitze. Mit Med-PaLM will google den Bereich spezialisierter Sprachmodelle für die Medizin kommerzialisieren.
Im Vergleich zur herkömmlichen Online-Suche verfügen LLMs möglicherweise über ein breiteres Fachwissen und einen stärkeren Fokus auf ein bestimmtes Thema. Recherche funktioniert schneller. Allerdings besteht die Gefahr von Halluzinationen, also falschen Antworten, die besonders schwerwiegende gesundheitliche Folgen haben können.
Aber wie das obige Beispiel zeigt, machen Menschen Fehler. Die Diskussion über den Einsatz medizinischer Chatbots ähnelt möglicherweise der Diskussion über selbstfahrende Autos: Reichen Systeme aus, die auf menschlicher Ebene oder leicht darüber funktionieren, oder müssen sie fehlerfrei sein? Wer ist verantwortlich, wenn ein Fehler auftritt?
PS. Bitte kommentieren! Dies trägt zur Werbung für den Artikel bei.
Es gibt angeheftete Bots für den Zugriff Chat-GPT und midjourney ohne VPN
[ad_2]