[ad_1]

Originales intelligentes Zeug von Chen Junda

208

Altmanns neues Unternehmen, Hype oder Revolution?

Zusammengestellt |. Chen Junda

Herausgeber |. Panken

Zhidongzhi berichtete am 15. Juli, dass Sam Altman, CEO von OpenAI, letzte Woche das KI-Medizin- und Gesundheitsunternehmen Thrive AI Health (kurz Thrive) gründete, was große Aufmerksamkeit erregte. Dieses Startup zielt darauf ab, das Verhalten und die Gewohnheiten von Patienten durch KI-Gesundheitscoaches zu ändern, um die Krise chronischer Krankheiten zu lösen, von der 127 Millionen Menschen in den Vereinigten Staaten betroffen sind. Es hat auch Investitionen von der reichsten Frau der Vereinigten Staaten erhalten.

Die medizinische Versorgung war schon immer ein soziales Thema, das der amerikanischen Gesellschaft große Sorge bereitet, und sie ist auch ein zentrales Thema bei den diesjährigen US-Wahlen. Ein ineffizientes und teures medizinisches System macht es vielen Amerikanern schwer, wirksame medizinische Leistungen zu erhalten. Als eine Spitzenfigur in der heutigen KI-Branche entschied sich Altman zu dieser Zeit für den Einstieg in die medizinische KI-Versorgung, was natürlich die Aufmerksamkeit vieler Menschen auf sich zog.

Eine weitere Gründerin von Thirve mit Altman ist Arianna Huffington, Gründerin des Verhaltensänderungstechnologieunternehmens Thrive Global. Die beiden wurden am 11. Juli von The Atlantic interviewt. Enthüllen Sie weitere Details zu diesem Unternehmen.

Die beiden sagten, Thrive werde sich auf die Bereitstellung von Gesundheitsberatung konzentrieren und medizinische Diagnosearbeiten vermeiden, in denen KI derzeit nicht gut sei. In Zukunft sei es möglich, Gesundheitsinformationen in Arbeitsszenarien zu integrieren.

Auf die Fragen der Interviewer wurde jedoch nicht klar dargelegt, in welcher Form das Produkt umgesetzt werden soll und welche konkreten Maßnahmen zur Gewährleistung der Sicherheit der Nutzerdaten ergriffen werden sollen.

Altman sagte in dem Interview auch, dass „vielleicht“ die Informationen im Kommunikationsprozess zwischen Mensch und KI den Schutz von Vertraulichkeitsklauseln genießen sollten, ähnlich denen zwischen Anwälten und Mandanten, aber er glaubte, dass dies von der Gesellschaft entschieden werden sollte.

Es ist erwähnenswert, dass die KI-Gesundheitsdaten, die Altmans neues Unternehmen Thrive erhalten kann, äußerst privat sind und einen erheblichen wirtschaftlichen Wert haben. Versicherer können diese Informationen nutzen, um den Preis einer bestimmten Police anzupassen oder zu entscheiden, ob sie ein bestimmtes Medikament erstatten. In den Vereinigten Staaten kam es in jüngster Zeit zu Durchsickern solcher Informationen, die zu großflächigen Stilllegungen des medizinischen Systems führten.

01.

Konzentrieren Sie sich auf Gesundheitsratschläge statt auf medizinische Diagnosen

Modellleistung ist „gut genug“

Das größte Verkaufsargument von Thrive, einem KI-Gesundheitsprodukt, ist „hochgradig personalisiertes KI-Gesundheitscoaching“. Thrive bietet Benutzern personalisierte und sofortige Gesundheitsberatung, indem es Informationen über Schlaf, Ernährung, Bewegung, Stress und soziale Interaktionen der Benutzer sammelt, kombiniert mit Fachwissen zu Krankenakten und Verhaltensänderungen.

Siehe auch  ChatGPT wird in mehr als 35.000 französischen Medienartikeln zitiert – Bild

Altman und Huffington glauben, dass die KI-Gesundheit für die Verbesserung des derzeit durcheinandergebrachten medizinischen Systems in den Vereinigten Staaten von großer Bedeutung ist. Derzeit werden 90 % der Ausgaben des US-amerikanischen Krankenversicherungssystems für die Behandlung chronischer Krankheiten ausgegeben, und Thrive wird dies voraussichtlich tun diesen Aufwand deutlich reduzieren.

Altman und Huffington verglichen diese Technologie mit Roosevelts New Deal und sagten, dass „KI Teil einer effizienteren medizinischen Infrastruktur werden und weiterhin die Gesundheit der Menschen im täglichen Leben unterstützen wird.“

Aber die Anwendung von KI in der Medizin- und Gesundheitsbranche ist nichts Neues. KI hat bereits eine wichtige Rolle in der CT-Rekonstruktion, der Arzneimittelentwicklung, der Hilfsdiagnose und anderen Bereichen gespielt.

209

▲NVIDIA hat das KI-Medizinprodukt Clara auf den Markt gebracht (Quelle: NVIDIA)

Derzeit richten sich medizinische und gesundheitliche KI-Anwendungen vor allem an Ärzte und F&E-Personal mit Fachkenntnissen und nicht an Krankheitspatienten, auf die sich Thrive bezieht. Die meisten Patienten verfügen nicht über ausreichende medizinische Kenntnisse, sodass sie wahrscheinlich nicht in der Lage sind, wirksame Urteile über die von der KI bereitgestellten Gesundheitsratschläge oder medizinischen Diagnosen zu fällen, und es ist für KI-Produkte schwierig sicherzustellen, dass sie keine Fehler machen.

In Interviews mit The Atlantic gingen Altman und Huffington auf Fragen zur Sicherheit des Produkts ein. Sie glauben, dass die aktuelle Leistung des KI-Modells gut genug ist, wenn Thrive sich nur auf „Gesundheitsberatung“ und nicht auf „medizinische Diagnose“ konzentriert und von Experten überprüfte Daten für das Training verwendet, kann das Modell ausreichend gute Ratschläge geben.

Allerdings konnten sich weder Huffington noch Altman dazu äußern, wie das Produkt letztendlich aussehen würde. Sie sagten, dass das Produkt als App auf den Markt kommen würde, aber Huffington sagte auch, dass das Produkt in allen möglichen Modi verfügbar sein würde und sogar über Apps wie Microsoft Teams in Arbeitsszenarien integriert werden könnte.

02.

Das Sammeln von Daten ist kein Problem

Altman sagt, dass die Benutzer bereit sind, etwas zu teilen

Dieses hyperpersonalisierte Produkt muss Benutzer davon überzeugen, aktiv eine große Menge privater Informationen weiterzugeben, damit die KI über genügend Informationen verfügt, um Entscheidungen zu treffen. In einem Interview mit The Atlantic glaubte Altman nicht, dass es eine große Herausforderung sein würde.

Altman teilte mit, dass er das neue Unternehmen unter anderem deshalb gründete, weil bei chatgpt bereits viele Menschen medizinische Probleme diagnostizierten, und er hörte auch von vielen Menschen, die den Empfehlungen von ChatGPT glaubten, relevante Tests durchführten und sich behandeln ließen. Er glaubt, dass Benutzer tatsächlich sehr bereit sind, einige sehr detaillierte und private Informationen mit LLM zu teilen.

Siehe auch  Der von ChatGPT betriebene Kriegssimulator wirft für den Weltfrieden zwei Atomwaffen auf Russland und China ab

Ein Reporter von The Atlantic war von diesem Ansatz schockiert, da der von ChatGPT zurückgegebene medizinische Rat möglicherweise KI-Halluzinationen enthielt und eine Gefahr für die Gesundheit des Patienten darstellte. Bei Patienten, die sich auf diese Falschinformationen verlassen, ist auch die Gefahr von Konflikten mit professionellen Ärzten sehr hoch.

Der Reporter glaubte auch, dass, sobald medizinische Informationen durchsickern, die Persönlichkeitsrechte und Interessen der Nutzer ernsthaft geschädigt werden könnten. Altmann reagiert jedoch nicht entschieden auf die Gefahr von Informationslecks und ist der Ansicht, dass die Lösung dieses Problems der Gesellschaft überlassen werden sollte.

Er sagte, dass der Kommunikationsinhalt zwischen Ärzten und Patienten, Anwälten und Mandanten derzeit gesetzlich geschützt sei und dass es „vielleicht“ einen ähnlichen Schutz bei der Kommunikation der Menschen mit KI geben sollte. „Vielleicht wird die Gesellschaft entscheiden, ob sie irgendeine Form von KI-Privilegien einführt.“ “ „. Mit anderen Worten: Sie fördern möglicherweise nicht aktiv ähnliche Schutzmaßnahmen und überlassen die Entscheidung der Gesellschaft.

Doch der Schutz von Gesundheitsdaten hat ein dringendes Niveau erreicht. Erst im Februar dieses Jahres erlitt Change Healthcare, ein amerikanischer Gesundheitstechnologieriese, der mit der amerikanischen Versicherungsgruppe UnitedHealth Group verbunden ist, einen groß angelegten Ransomware-Angriff, der zu einer groß angelegten Abschaltung des Krankenversicherungssystems führte. Ein Drittel der Amerikaner war gefährdet, durchgesickert zu sein.

Und die Erfolgsbilanz von OpenAI im Datenschutz ist nicht perfekt. Anfang 2023 wurde das interne System von OpenAI durch einen Cyberangriff angegriffen und Chataufzeichnungen von Diskussionen der Mitarbeiter des Unternehmens über fortschrittliche KI-Systeme wurden durchgesickert.

Darüber hinaus kam es laut einem Bericht des Technologiemediums Engadget Anfang 2023 bei ChatGPT zu einem schwerwiegenden Vorfall durch Informationslecks. Zu diesem Zeitpunkt gab es einige Störungen auf der Webseite von ChatGPT, die dazu führten, dass die Konversationstitel einiger Benutzer in anderen Chatboxen angezeigt wurden und auch die Identitätsinformationen und Bankkarteninformationen einiger Benutzer durchgesickert waren.

Dennoch forderte Altman in diesem Interview die Gesellschaft auf, ihr „Vertrauen“ zu schenken, was völlig im Widerspruch zu seinen Äußerungen auf dem Bloomberg Technology Summit im Jahr 2023 steht, als er alle dazu aufrief, ihm und OpenAI nicht zu vertrauen.

210

▲Altmann beim Bloomberg Technology Summit 2023 (Quelle: Bloomberg)

Altman glaubt, dass es die allgemeine Erwartung der Menschen ist, dass KI-Technologie ihre Gesundheit verbessert, und dass dies einer der wenigen Anwendungsbereiche ist, in denen KI eingesetzt werden kann, um die Welt zu verändern. Später fügte er hinzu, dass für die Verbesserung der menschlichen Gesundheit durch KI „ein gewisses Maß an Vertrauen erforderlich ist“, was bedeutet, dass die Menschen darauf vertrauen müssen, dass das neue Unternehmen diese Aufgabe verantwortungsvoll erledigt.

Siehe auch  Der CEO von OpenAI sagt, Chat GPT-4 sei „irgendwie scheiße“

In einem gemeinsam verfassten Artikel in Time haben Altman und Huffington diese „Überzeugungen“ dargelegt. Sie glauben, dass sie vor allem Vertrauen in drei Aspekte benötigen, um eine „KI-gesteuerte Verhaltensänderung“ zu erreichen und die zunehmende Ausbreitung chronischer Krankheiten umzukehren.

Auf der einen Seite ist die Überzeugung der politischen Entscheidungsträger, dass sie ein „regulatorisches Umfeld schaffen müssen, das KI-Innovationen fördert“. Auch Ärzte müssen KI-Tools vertrauen und KI-Technologie in ihre Praxen integrieren. Schließlich müssen Einzelpersonen auch darauf vertrauen, dass KI verantwortungsvoll mit ihren privaten Daten umgeht. Dies ist in der Tat ein großer Wunsch für ein Unternehmen, das noch keine Produkte hat und sich nicht zu bestimmten Sicherheitsmaßnahmen verpflichtet hat.

03.

Fazit: Es ist möglicherweise zu früh, die Gesundheit der KI zu überlassen

KI sollte nicht zu einem Spiel mit Überzeugungen werden

Als Altman und Huffington über die Implementierung von KI-Gesundheitsprodukten sprachen, beschrieben sie in ihrem gemeinsam verfassten Artikel im Time Magazine das folgende Szenario: „KI-Gesundheitstrainer werden jedem sehr präzise Vorschläge machen: Setzen Sie die Nachmittagssitzung ein, ersetzen Sie drei Limonaden durch Wasser und Zitrone; Machen Sie mit Ihren Kindern einen 10-minütigen Spaziergang, nachdem Sie sie um 15:15 Uhr von der Schule abgeholt haben. Beginnen Sie Ihre Entspannungsroutine um 22:00 Uhr Verlängerung des menschlichen Lebens.

Sind die verschiedenen „ungesunden“ Verhaltensweisen, die Menschen im Leben an den Tag legen, jedoch ein Problem persönlicher Gewohnheiten oder ein größeres soziales Problem? Sollten wir die Lösung der Krise chronischer Krankheiten Einzelpersonen und der KI überlassen oder sollten wir eine systematische Prävention durch Forschung und Intervention von Regierungen und medizinischen Einrichtungen durchführen? Diese Fragen müssen möglicherweise berücksichtigt werden, bevor diese sogenannte medizinische KI-Infrastruktur Realität wird.

In dem Interview sagte Altman, dass die Verwirklichung der Gesundheitsvision von KI bis zu einem gewissen Grad den Glauben der Menschen erfordert, aber in einer weitreichenden Technologie wie KI und einem lebensbedrohlichen Bereich wie der medizinischen Versorgung brauchen wir möglicherweise nicht so ein Spiel des Glaubens, sondern eine überprüfbare und erklärbare Technologie.

Quelle: The Atlantic, Zeit

(Dieser Artikel ist der Originalinhalt des von NetEase News·NetEase Featured Content Incentive Plan unterzeichneten Kontos[Zhixixi]. Jede Vervielfältigung ohne Genehmigung des Kontos ist untersagt.)

[ad_2]

5/5 - (313 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein