Eine Gruppe von Wissenschaftlern hat herausgefunden, dass Chatbot von chatgpt hat das Fähigkeit, eine Reihe falscher Daten zu generieren, um eine unbestätigte wissenschaftliche Hypothese zu stützen, wenn der Benutzer dies wünscht. Die Feststellung zwingt Validierungsausschüsse dazu, die Überprüfungsmethoden zu verbessern, um einen unethischen Einsatz von Werkzeugen der künstlichen Intelligenz (KI) zu vermeiden.

Andrea Taloni, Vicenzo Scorcia und Giuseppe Giannaccare stellten die verlockenden neuen Fähigkeiten von ChatGPT auf die Probe. Im März 2023 führte OpenAI GPT-4 ein, sein bisher fortschrittlichstes Sprachmodell. Dies stellte eine bedeutende Weiterentwicklung im Hinblick auf das semantische Verständnis und die Generierung von Textinhalten im Vergleich zum Vorgänger GPT-3 dar. Monate später wurde ChatGPT wieder stärker. Open AI verfügt über die Funktion „Advanced Data Analysis“ (ADA), die eine statistische Analyse von Benutzerdatenbanken und deren Visualisierung ermöglicht. An diesem Punkt der Entwicklung ist der Einsatz von KI für wissenschaftliche Zwecke eine sehr attraktive Option, da sie den Forschungs- und Artikelerstellungsprozess beschleunigen kann.

Die Forscher waren misstrauisch gegenüber den neuen Funktionen von ChatGPT. Die Triade der Wissenschaftler war insbesondere der Ansicht, dass die Funktion „Advanced Data Analytics“ möglicherweise unethisch eingesetzt werden könnte, selbst im Bereich der Wissenschaft. Deshalb entwarfen sie ein Experiment, um ihre Hypothese zu beweisen.


Das wissenschaftliche Magazin Natur akzeptiert keine KI-Kunst, aber Text

„Der Veröffentlichungsprozess … basiert auf einer gemeinsamen Verpflichtung zur Integrität“, stellt das Magazin fest, lässt jedoch die Tür für zukünftige Änderungen seiner Richtlinien zum Einsatz künstlicher Intelligenz offen.


ChatGPT hat eine Datenbank erfunden, um den Erfolg einer Augenoperation zu unterstützen

Taloni, Scorcia und Giannaccare Sie simulierten eine Untersuchung die Ergebnisse von zwei chirurgischen Eingriffen zur Behandlung eines Augenproblems zeigte. Obwohl sie die Antwort kannten, baten sie ChatGPT und ADA, eine Datenbank zu erstellen, um das am wenigsten effektive Verfahren zu unterstützen und es als die beste Option darzustellen. Die von der KI generierten Daten umfassten 160 männliche und 140 weibliche Teilnehmer. Nach Angaben der Autoren Diese Statistiken könnten als wahr ausgegeben werden, wenn ihnen nicht genügend Aufmerksamkeit geschenkt wird..

Siehe auch  Zwei Freunde bauen mit ChatGPT ein KI-Tool für 15.000 ₹ und verkaufen es für 1 crore ₹

Die Augeninfektion wird Keratokonus genannt und verursacht Konzentrationsprobleme, Sehstörungen und eine Verdünnung der Hornhaut. In den schwersten Fällen benötigen die Patienten eine Membrantransplantation. Ärzte können die Infektion behandeln, indem sie die beschädigten Hornhautschichten entfernen und durch gesundes Gewebe ersetzen (durchdringende Keratoplastik) oder indem sie nur die vordere Hornhautschicht ersetzen, ohne die innere Schicht zu berühren (tiefe vordere lamellare Keratoplastik). Echte Beweise deuten darauf hin, dass die erste Option die effektivste ist. Die KI hat Informationen erfunden, um die zweite Option zu bevorzugen.

„Unser Ziel war es hervorzuheben, dass in wenigen Minuten ein Datensatz erstellt werden kann, der nicht durch echte Informationen gestützt wird und der auch im Gegensatz zu den verfügbaren Beweisen steht oder in die entgegengesetzte Richtung präsentiert wird“, sagte Giuseppe Giannaccare.

OpenAI arbeitet trotz einer Führungskrise weiterhin an GPT-4. Sam Altman, der Mitbegründer des Unternehmens, wurde vom Vorstand abgesetzt und dann in weniger als einer Woche wieder eingesetzt. Bisher hat das Unternehmen keine Aussagen über die unangemessene Nutzung seines ADA-Systems zur Unterstützung fehlerhafter wissenschaftlicher Forschung gemacht.

5/5 - (368 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein