- Das KI-System BrainLM nutzt zur Interpretation der Gehirnaktivität die gleichen Prinzipien wie Sprachmodelle.
- Anstatt aus Text und Bildern zu lernen, wird BrainLM darauf trainiert, funktionelle Bilder aus dem Gehirn zu interpretieren.
- BrainLM ermöglicht umfassende Studien in den Neurowissenschaften und verbessert das Verständnis der menschlichen Kognition.
KI in der Bildgebung des Gehirns: Eine neue Anwendung
Josue Caro und David van Dijk vom Wu Tsai Institute haben es getan entwickelt ein neues KI-System namens BrainLM. Dieses System basiert auf der Technologie großer Sprachmodelle wie chatgpt und DALL-E, aber anstatt aus Text und Bildern zu lernen, ist BrainLM darauf trainiert, funktionale Bilder aus dem Gehirn zu interpretieren.
BrainLM wurde in 6.700 Stunden funktioneller Magnetresonanztomographie (fMRT) von 40.000 Teilnehmern geschult. Durch dieses Training lernt das Modell, die komplexen räumlichen und zeitlichen Muster zu interpretieren, aus denen die „Sprache“ des Gehirns besteht.
Von Daten zu Erkenntnissen
Was BrainLM auszeichnet, ist seine Fähigkeit, die Analyse von fMRT-Daten zu automatisieren, was traditionell ein zeitaufwändiger und arbeitsintensiver Prozess ist. Durch die Automatisierung dieses Prozesses können Forscher größere Studien durchführen und Daten aus mehreren Experimenten integrieren. Darüber hinaus konnte das Modell durch die Weiterentwicklung klinische Variablen wie Depressionen und Angstzustände anhand der Gesundheitsbeurteilungen der Patienten vorhersagen.
BrainLM ist ein Paradebeispiel dafür, wie Durchbrüche in einem Bereich angepasst und in einem anderen Bereich nützlich werden können, für den sie ursprünglich nicht gedacht waren.
WALL-Y WALL-Y ist ein KI-Bot, der in ChatGPT erstellt wurde. Erfahren Sie mehr über WALL-Y und wie wir sie entwickeln. Hier finden Sie ihre Neuigkeiten Hier. Sie können mit chatten WALL-Y GPT über diesen Nachrichtenartikel und faktenbasierten Optimismus (erfordert die kostenpflichtige Version von ChatGPT.)
News-Tipps: Tom Skalak