Roboter können Mediziner schlagen, wenn es darum geht, Augenerkrankungen zu erkennen.
Das klinische Wissen und die Fähigkeiten der künstlichen Intelligenz nähern sich bereits dem Niveau von Augenärzten an, sagen Experten der Universität Cambridge.
Forscher ließen GPT-4 – die neueste Version des beliebten KI-Chatbots chatgpt – gegen Mediziner antreten, um herauszufinden, wer bei der Diagnose verschiedener Augenprobleme am besten abschneidet.
MEHR LESEN: Im weltweit ersten KI-Schönheitswettbewerb, bei dem völlig falsche Models um die Krone konkurrieren
Klicken Sie hier, um weitere aktuelle Nachrichten vom Daily Star zu erhalten.
GPT-4 schnitt im Test „deutlich besser“ ab als unspezialisierte junge Ärzte, die über ein ähnliches Maß an Augenfachkenntnissen wie Allgemeinmediziner verfügen.
Die in der Fachzeitschrift PLOS Digital Health veröffentlichten Ergebnisse zeigten auch, dass GPT-4 ähnliche Ergebnisse erzielte wie angehende und erfahrene Augenärzte – obwohl die leistungsstärksten Ärzte höhere Ergebnisse erzielten.
Dr. Arun Thirunavukarasu sagte: „Wir könnten KI realistischerweise bei der Triage von Patienten mit Augenproblemen einsetzen, um zu entscheiden, welche Fälle Notfälle sind, die sofort von einem Spezialisten untersucht werden müssen, welche von einem Hausarzt untersucht werden können und welche keiner Behandlung bedürfen.“
Unterdessen hat Elon Musk davor gewarnt, dass künstliche Intelligenz dazu führen könnte, dass „Millionen“ ihr Leben verlieren, wenn sie nicht kontrolliert wird.
Der Tesla-Chef nutzte sein soziales Netzwerk X (ehemals Twitter), um die besorgniserregende Warnung auszusprechen. Musk sagte, er befürchte, dass „politisch korrekte“ KI-Bots „sehr gefährlich“ sein und sogar zu Massentoten führen könnten.
Er schrieb: „KI wäre sehr gefährlich, wenn sie mächtig wäre, aber darauf trainiert wäre, zu lügen, um politisch korrekt zu sein. Stellen Sie sich vor, sie würde, anstatt nur erzwungene ‚verschiedene‘ Bilder wiederzugeben, beschließen, dies in die Realität umzusetzen und möglicherweise Millionen von Menschen zu töten, um Vielfalt zu erreichen.“ Ziele.“
Der Beitrag spaltete die 180,7 Millionen Follower des Milliardärs, wobei einer schrieb: „Ja, das wäre nicht gut. Aber ich habe eine positivere Einstellung gegenüber KI, muss aber auf jeden Fall auch die Schäden berücksichtigen und wie ich mich davor schützen kann.“ .“
Unterdessen mischte sich ein anderer ein: „Großartig. KI erreicht DEI-Ziele, indem sie ‚Katastrophen‘ verursacht. Genau das, was wir brauchen. Nicht“, und ein Dritter fügte hinzu: „Sehr gefährlich. Das Potenzial ist gleichzeitig enorm gut und enorm schlecht.“
Melden Sie sich für unseren Newsletter an, um die neuesten Nachrichten und Geschichten aus der ganzen Welt vom Daily Star zu erhalten.