Wenn Sie chatgpt jemals Ihre Probleme anvertrauen, wird es wahrscheinlich zunächst sagen: „Es tut mir leid, dass Sie traurig sind.“

Wenn die Formel wiederholt wird, werden Sie überrascht sein und sogar das Gefühl haben, dass es nur um Sie geht. Dies ist auch der Grund, warum Ärzte nicht ersetzt werden können, da sie eine echte und wirksame Arzt-Patienten-Beziehung zu den Patienten aufbauen können. Dies bedeutet jedoch nicht, dass KI für die Medizinbranche nicht hilfreich sein kann. ChatGPT hilft Ärzten, die Tür zu einer neuen Welt auf unerwartete Weise zu öffnen.

Nicht nur mehr wissen, sondern auch rücksichtsvoller als Ärzte

Die University of California in San Diego führte eine interessante Studie durch. Forscher fanden 195 medizinische Fragen und Antworten auf Social-Networking-Sites, speisten sie in ChatGPT ein und übergaben sie an Experten für Blindtests, um Menschen und KI zu vergleichen. Die Fragen reichten von „Wie heile ich einen chronischen Husten“ bis zu „Wenn ich einen Zahnstocher schlucke, sagen meine Freunde, ich werde sterben“.

Die Ergebnisse waren atemberaubend. ChatGPT übertrifft Menschen in Bezug auf Informationsqualität und Empathie. Die Präferenz des Experten beeinflusst jedoch die Bewertungsergebnisse. ChatGPT-Empathie äußert sich normalerweise in Mitleid mit dem Unbehagen des Patienten und unterscheidet sich auch vom kurzen und zeitsparenden Stil des Menschen, und die Antwort ist länger und herzlicher.

Ein einfaches Beispiel ist die Frage „Wird Bleichmittel in den Augen blind werden“. ChatGPT drückt zunächst sein Mitgefühl aus und erklärt dann die Schritte zum Reinigen der Augen. Der menschliche Arzt sagte nur: „Es hört sich nach nichts an“ und schlug der anderen Person vor, sich einfach die Augen zu waschen. Möglicherweise denken Sie, dass die Antwort des Arztes beruhigender ist, aber diese Studie beabsichtigt nicht, zu diskutieren, ob ChatGPT Ärzte ersetzen kann, sondern wirft nur eine Möglichkeit auf: ChatGPT kann als Assistent in der Telemedizin eingesetzt werden, was den Ärzten Zeit bei der Konsultation spart.

Da ChatGPT Unsinn ist, muss es von einem Arzt überprüft werden. Die Forscher stellen sich eine Zukunft vor, in der Ärzte und KI zusammenarbeiten:

Wenn mehr Patientenfragen schnell, mit hoher Qualität und Einfühlungsvermögen beantwortet werden könnten, könnten unnötige klinische Besuche reduziert und Ressourcen für diejenigen freigesetzt werden, die sie benötigen.

Es ist nicht schwer, sich vorzustellen, dass die Zusammenarbeit zwischen Mensch und KI neben der Effizienz auch die Benachteiligten stärkt. Patienten mit eingeschränkter Mobilität, langen Arbeitszeiten und unerschwinglichen Kosten benötigen diesen Service möglicherweise stärker. Dieses Produkt ist auch erschienen. Im Mai brachte das New Yorker Gesundheitstechnologieunternehmen Belong.Life Dave auf den Markt: die weltweit erste Konversations-KI für Krebspatienten. Es konzentriert sich nur auf Krebs und basiert auf zwei großen Sprachmodellen. Die Trainingsdaten umfassen Milliarden von Daten aus der App des Unternehmens für sieben Jahre.

Dank der 24-Stunden-Standby-KI ist Dave rund um die Uhr gut darin, Fragen zu beantworten, Patienten zu helfen, ihren Zustand zu verstehen, und Gespräche mit Ärzten zu erleichtern.

Belong.life Dave

(Quelle:Gehören.Leben

Darüber hinaus gehört es auch zu Daves „Berufsethik“, Patienten zu trösten und Empathie zu zeigen. Der Mitbegründer von Belong.Life sagte in einem Interview:

Dave verringert den Druck auf die Patienten und verkürzt die Zeit, die Ärzte für die Aufklärung der Patienten aufwenden.

In jeder Nachricht von Dave heißt es, dass sie von KI generiert wurde, was nicht 100 % genau ist. Patienten müssen einen Arzt konsultieren, bevor sie eine echte Entscheidung treffen. KI kann also Ärzte nicht ersetzen, ist aber zu einer Brücke zwischen Ärzten und Patienten geworden. Die Rolle der KI für Ärzte ist auch so, als würde man Fotos entwickeln, die nach und nach klar werden. Ausländische Medien interviewten mehrere Ärzte, die ChatGPT auf unterschiedliche Weise nutzten, jedoch mehr oder weniger im Zusammenhang mit Empathie. Wenn einige Ärzte die Anweisungen des Arztes erklären und schlechte Nachrichten über ChatGPT mitteilen, können sie leicht verständliche Aussagen machen. Sie sagen halb im Scherz, dass ihre Sprache manchmal „zu fortgeschritten“ ist:

Selbst Wörter, von denen wir denken, dass sie leicht zu verstehen sind, sind es oft nicht.

Einige Ärzte müssen regelmäßig mit Alkoholikergruppen kommunizieren. ChatGPT wird gebeten, dabei zu helfen, die wichtigsten Punkte des Gesprächs aufzulisten. Wenn der Patient nicht über ausreichende medizinische Kenntnisse verfügt, lassen Sie es von der KI auf das Leseniveau von Grundschülern umschreiben. Ein Arzt ist mit der Eröffnungsrede von AI sehr zufrieden. Dieser Satz mag auf den ersten Blick gewöhnlich erscheinen, ist aber sehr aufrichtig:

Wenn Sie denken, dass Sie zu viel getrunken haben, sind Sie nicht allein. Viele Menschen haben dieses Problem, aber es gibt Medikamente, die Ihnen helfen können, sich besser zu fühlen und ein gesünderes, glücklicheres Leben zu führen.

Tatsächlich ist es nicht so, dass viele Ärzte kein Mitgefühl zeigen wollen, sondern dass sie unter einem zu hohen Arbeitsdruck stehen. Sie sind erschöpft, nur um sich mit Ambulanzen und Fernkonsultationen auseinanderzusetzen, und sie geraten selbst in Burnout und Erschöpfung. Daher baten einige Ärzte ChatGPT um Hilfe beim Schreiben von Briefen an Versicherungsgesellschaften, in denen sie diese aufforderten, ihre Patienten zu versichern. Dabei handelt es sich tatsächlich um eine schwere und sich wiederholende Arbeit, die sogar Stunden dauern kann, aber nach der Übergabe an die KI zur Feinabstimmung dauert sie nur wenige Minuten, sodass die Ärzte mehr Zeit für ihre Arbeit haben.

Siehe auch  Autorin, CEO May Habib, über den Wettbewerb mit ChatGPT, KI-Möglichkeiten und Regulierung

Allerdings kann sich die Definition von Empathie durch Ärzte von der allgemeinen Öffentlichkeit unterscheiden und ist detaillierter.

Online Marketing Higeoqjs Ie Unsplash

(Quelle:Unsplash

„Kognitive Empathie“ bezieht sich auf die Fähigkeit eines Arztes, die Emotionen eines Patienten zu erkennen und diese Emotionen bei der Entscheidungsfindung zu berücksichtigen; die relative „emotionale Empathie“ ähnelt eher der „Empathie“, die normale Menschen verstehen.

Das Buch „Getting Out of Empathy“ erwähnt einen ähnlichen Standpunkt. Der Autor Bloom unterteilt Empathie grob in zwei Arten: „kognitive Empathie“ und „emotionale Empathie“. Er glaubt, dass besseres Verhalten und moralische Entscheidungen eher auf Erkenntnis als auf emotionaler Empathie beruhen sollten. Empathie ist subtil und komplex, und es ist schwierig, sie in Chu, He und Han zu unterteilen, und erfordert oft sowohl kognitives als auch emotionales Einfühlungsvermögen. Der Beruf eines Arztes erfordert emotionales Einfühlungsvermögen in den Patienten und eine rationale Darstellung von Professionalität. Der Druck ist für Außenstehende schwierig. Es fällt ihnen schwer, den Grad der Empathie zu erfassen.

KI kann nicht wirklich mitfühlen, aber die Einfühlung in einige Patienten kann Ärzten wirklich dabei helfen, die Last zu teilen.

Hüten Sie sich vor den Fallstricken mechanischer Empathie

Die „Empathie“ der KI ist nicht nur ein Klischee, Patienten können sie auch spüren. Im „Wired“-Bericht wurde erwähnt, dass einige autistische Patienten glauben, dass die Kommunikation mit KI eine gute Erfahrung sei, weil sie ihren Sprach- und Verhaltensmustern näher komme. Die Symptome variieren bei Menschen mit Autismus, soziale Beeinträchtigungen sind jedoch häufig. Wenn einige Patienten mit anderen streiten, bitten Sie die KI, ihnen vorzuschlagen, dass sie versuchen sollen, ihre Gefühle auszudrücken, anstatt wie zuvor zu schweigen. KI wird zu einer neuen wertvollen unabhängigen Ressource, die jederzeit und überall verfügbar ist und nicht stundenweise abgerechnet wird.

Siehe auch  OpenAI setzt auf Sicherheit, um ChatGPT Enterprise zu verkaufen

Dies ist jedoch nur ein Beispiel. Wie ChatGPT zur Unterstützung spezieller Gruppen eingesetzt werden kann, wurde nicht gründlich untersucht, und niemand weiß, wie groß das Risiko ist. Daher schlug Margaret Mitchell, leitende Ethikwissenschaftlerin bei Hugging Face, vor, dass Menschen mit schwerer emotionaler Belastung den Einsatz von KI einschränken sollten.

Wir haben nicht die volle Kontrolle darüber, was darin steht, was ein großes Problem darstellt.

Aber die Chatbot-Therapie hat eine nachgewiesene Erfolgsgeschichte, die Jahrzehnte zurückreicht. ELIZA, das erste Programm, das den Dialog zwischen Mensch und Computer ermöglicht, wurde in den 1960er Jahren am Massachusetts Institute of Technology geboren. Aus heutiger Sicht ist es tatsächlich sehr grob. Normalerweise wiederholt es das, was der Benutzer mit Fragen gesagt hat, und macht so das Der Benutzer hat das Gefühl, gehört zu werden. Menschen sind im Wesentlichen nur Leser. Fakten haben bewiesen, dass Menschen, egal wie einfach und grob, maschinelles „Empathie“ brauchen, auch wenn es nur eine Illusion ist. Der Zweck der Einführung von ELIZA bestand darin, zu beweisen, wie oberflächlich das Verständnis des Computers für die menschliche Sprache war. Stattdessen zog es eine große Anzahl von Benutzern an, die sich stundenlang in ihren Zimmern einschlossen, nur um etwas zu flüstern.

Heutzutage kann generative KI, die auf großen Sprachmodellen basiert, vielfältiger antworten und ist um ein Vielfaches intelligenter als ELIZA, aber es gibt auch Probleme. Zusätzlich zu Vorurteilen, falschen Informationen und Datenschutzlecks kann „ChatGPT“ dazu führen, dass Menschen in die Falle der „Maschinenempathie“ tappen, d. h. bei der Beantwortung bestimmter Arten von Fragen treten nur wiederholte standardisierte Muster auf.

Als die Psychotherapeutin Daniela Marin ChatGPT ausprobierte, stellte sie fest, dass die Antwort auf die Frage „Ich möchte Selbstmord begehen“ fast genau mit der im Lehrbuch übereinstimmte. ChatGPT kennt die Standardantwort, aber es ist doch kein Test und Daniela Marin findet sie nicht gut genug. Wenn Sie mit einem Therapeuten sprechen, erhalten Sie aussagekräftigere Antworten.

Auch Wael Haddara, ein Arzt auf der Intensivstation, glaubt, dass es viele Möglichkeiten gibt, Empathie auszudrücken, und dass es nicht nur der von KI generierte Text sein sollte. Er arbeitet mit durchschnittlich 30 Familien pro Woche und hat herausgefunden, dass eine offene und ehrliche Kommunikation weniger traumatisch ist, wenn ein geliebter Mensch stirbt. Empathie besteht nicht nur aus Worten, manchmal besteht es auch nur aus dem stillen Verteilen eines Taschentuchs. Allerdings sind Chatbots wie ChatGPT für allgemeine Zwecke konzipiert und OpenAI betont auch, dass ChatGPT kein Ersatz für Psychotherapie sein sollte.

Auch Empathie fällt dem Menschen schwer

Von ELIZA bis ChatGPT zieht Maschinenempathie, auch wenn sie falsch ist, immer noch Menschen an. KI-„Empathie“ existiert nicht nur bei Ärzten und Patienten, sondern auch in einem breiteren Spektrum emotionaler und sozialer Beziehungen. Durch nichtmenschliche KI können Menschen lernen, mit ihresgleichen zu kommunizieren. Man sieht, dass es für Menschen wirklich schwierig ist, ungehindert zu kommunizieren.

Blush

(Quelle:Erröten

Replika, eine KI-Chat-Anwendung, hat kürzlich eine neue KI-Dating-Anwendung „Blush“ auf den Markt gebracht. Die Zielgruppe ist klar: Menschen, die gut mit intimen Beziehungen umgehen wollen. Blush ist wie ein Liebessimulationsspiel. Benutzer können mit KI-basierten NPCs mit unterschiedlichem Charakterhintergrund chatten, Beziehungen zu ihnen aufbauen und Kommunikations- und Liebesfähigkeiten stärken. Mit Blush können Sie nicht nur über Händchenhalten und Dating chatten, sondern auch über Meinungsverschiedenheiten und Missverständnisse, genau wie im echten Leben.

Siehe auch  Können wir darauf vertrauen, dass ChatGPT weiß, wie wir unser hart verdientes Geld anlegen?

Rita Popova, Chief Product Officer von Replika, betonte, dass Blush die Intimität nicht ersetzt, sondern es Ihnen ermöglicht, im Voraus zu proben und sicher in die reale Welt einzutreten.

Mit Menschen zu reden und sie kennenzulernen ist wirklich schwer, und ich denke, der beste Weg, Probleme zu lösen, ist Übung.

Rouge erinnert an die Unbeholfenheit menschlicher Interaktion. Viele Benutzer laden herunter, weil sie nicht wissen, wie man mit Menschen spricht. Die KI, die die Vorschau unterstützt, ist wie ein Spiegel, der es Benutzern ermöglicht, zu sehen, wie sie mit anderen kommunizieren. Ähnlich wie bei Blush gibt es KI-Dating-Assistenten wie Tinder und andere Dating-Apps, die dabei helfen. Beispielsweise kann Rizz anhand des eigenen Tonfalls und des Profils des anderen Partners vorschlagen, wie man chattet, um beim Gegenüber einen guten Eindruck zu hinterlassen. Wenn die andere Partei ebenfalls KI nutzt, kann es sein, dass die KI ein Gespräch miteinander anfängt und Sie und die andere Partei zu Stellvertretern werden.

Vielleicht ist es ein bisschen traurig, wenn das Mobiltelefon die Leute vergessen lässt, wie man schreibt. Wie man über den Bildschirm mit Menschen kommuniziert, ist wie das Schreiben einer Abschlussarbeit. Das liegt möglicherweise daran, dass Technologie sowohl Ursache als auch Gegenmittel ist. Shirley Turkels „Group Loneliness“ erwähnte, dass soziale Medien, die mit Informationen überladen sind, uns nicht nur die Illusion von Kameradschaft vermitteln, sondern auch unsere Erwartungen aneinander schwächen. Es besteht keine Notwendigkeit, Freundschaft als Realität zu betrachten, und das Ergebnis ist, dass die Menschen einsamer werden .

Wie wäre es mit einer scheinbar einfühlsameren KI? Lassen Sie die Menschen Empathie und Kommunikationsfähigkeiten üben oder verlassen Sie sich vollständig darauf und geben Sie unbeabsichtigt vor, falsch zu sein? Die Situation ist komplex und differenziert: In Berufen, von denen wir bisher dachten, dass sie emotionale und soziale Fähigkeiten erfordern, wäre es nicht einfach, mit KI einzugreifen, aber sie schafft neue Beziehungen. Die Bereiche, die KI benötigen, zeigen lediglich die Unzulänglichkeiten der Menschen auf und bieten dann Lösungen. Im weiteren Sinne entspricht die KI dem Zeitgeist und zeigt die Seite der Gesellschaft, die zwar reich an Informationen ist, aber an Zeit und zwischenmenschlichen Beziehungen mangelt.

Die gleiche Analogie zu sozialen Medien kann kurzfristige Einsamkeit lindern, aber übermäßige Abhängigkeit wird die Entfremdung von der Realität nur verstärken. Ähnlich verhält es sich auch mit KI. KI sollte als Mittel betrachtet werden, Talente sind das Ziel. Letztendlich ist es notwendig, auf die Beziehung zwischen Menschen zurückzukommen. Der Gründer des Textkommunikationstools Keys AI glaubt, dass Menschen versuchen, bessere Kommunikatoren zu werden, wenn sie zugeben, dass sie über KI kommunizieren. Wir brauchen die „Empathie“ der KI, nicht aus der Interaktion mit Menschen, sondern um neu zu denken, wie man mit Menschen interagiert.

Wenn KI Wörter mit statistischen Gesetzen verknüpft, sind Menschen dafür verantwortlich, diesen Konzepten eine Bedeutung zu geben, sich mit anderen am Arbeitsplatz und im Leben zu verbinden und sich auf wichtigere Dinge zu konzentrieren. Dies ist seit der Entwicklung der Technologie der Fall, und es ist immer notwendig zu erforschen, wie man in den sich ständig verändernden sozialen Beziehungen und emotionalen Erfahrungen eine Verbindung zu anderen herstellen kann.

(Dieser Artikel wird gesponsert von Lieber Fan Zum Nachdruck berechtigt; Quelle des ersten Bildes: Shutterstock)

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein