Die Welt der künstlichen Intelligenz hat den Technologiesektor grundlegend verändert, und das bedeutet, dass unser Leben vielleicht nie wieder dasselbe sein wird.

Dank Tools wie chatgpt, Gemini und Copilot werden Antworten auf Fragen mit Lichtgeschwindigkeit generiert. Und die meisten von uns glauben alles, was sie lesen, ohne zu verstehen, wie falsch es sein könnte.

Dies alles ist das Ergebnis einer neuen Studie zu OpenAIs ChatGPT, in der wir genauer und genauer untersuchen konnten, ob die Funktion vertrauenswürdig ist und wenn ja, in welchem ​​Ausmaß. Aber wir würden nicht lügen, wenn wir sagen würden, dass uns die Statistiken Angst eingejagt haben.

ChatGPT und alle anderen führenden KI-Assistenten werden dafür gelobt, dass sie sehr schnell Antworten auf Fragen zum Kodieren und Programmieren liefern, und das bedeutet, dass ihre Geschwindigkeit die heute mit Menschen verbundene Geschwindigkeit übertrifft.

Sie müssen lediglich den Hinweis eingeben und erhalten schnell eine Antwort. Aufgrund der neuesten Forschung auf diesem Gebiet sollten Sie jedoch nicht zu viel Vertrauen in die Antworten setzen, da diese in der Mehrzahl der Antworten falsche Daten im Zusammenhang mit Programmierabfragen enthalten.

Die Nachricht stammt aus einer Studie, die in diesem Monat durchgeführt wurde und vorgestellt wurde bei Konferenz zur Computer-Mensch-Interaktion. Hier überprüfte ein Forscherteam der Purdue University eine Reihe von Fragen, die als Eingabeaufforderungen an das beliebte KI-Tool eingegangen waren.

Sie erhielten in 52 % der Fälle falsche Antworten. Darüber hinaus erwiesen sich erstaunliche 77 % der Antworten als zu ausführlich. Das bedeutet, wenn Sie sich bisher darauf verlassen haben, dass ChatGPT-ähnliche KI-Tools programmierbezogene Daten herausgeben, sollten Sie es sich vielleicht noch einmal überlegen.

Siehe auch  eine KI zum Jailbreak von ChatGPT und Bard

Wir sind uns einig, dass man nicht jeder KI immer vertrauen kann, aber es gibt einige, bei denen die Wahrscheinlichkeit schwerwiegender Fehler hoch ist. Jeder KI-Chatbot, der so häufig falsche Antworten gibt, muss gemieden werden, und wenn nicht, dann muss er mit sorgfältigen Doppelprüfungen verwendet werden, denn die Wahrscheinlichkeit, dass etwas schief geht, ist einfach zu hoch.

Experten bei Perdue erklärten, dass menschliche Programmierer viel zuverlässiger und daher besser als ChatGPT seien. Aus diesem Grund sind sie sogar für 35 % der Bevölkerung die erste Wahl, und dieser Wert muss noch steigen, wenn Sie korrekte Informationen wünschen.

Menschen sind ausdrucksstärker und detailreicher und neigen dazu, Antworten in einem möglichst artikulierten Sprachstil zu formulieren. Schlimmer noch ist, dass die Studie bewies, dass menschliche Programmierer in 39 % der Fälle nicht erkennen konnten, dass die Antworten tatsächlich falsch und fehlerhaft waren.

Wir empfinden dies als einen ernsten Weckruf und dies ist nur eine von mehreren Studien, die einige beunruhigende Erkenntnisse zutage gefördert haben. Sie beweist, dass generative KI-Bots weiterhin schwerwiegende Fehler machen und dass Menschen möglicherweise nicht in der Lage sind, diese zu erkennen.

Anfang Mai wurden in den USA in den Suchmaschinen AI Overviews von google eingeführt. Sie haben einige der seltsamsten und fehlerhaftesten Zusammenfassungen für Suchmaschinen seit einiger Zeit erstellt.

Der Suchmaschinenriese will diese Fehler jedoch nicht als schwerwiegende Fehler akzeptieren und bezeichnet sie daher als seltene Gelegenheiten und Einzelbeispiele. Er ist der Meinung, dass die Antworten, die bizarr sind oder als gefährlich eingestuft werden, meist mit ungewöhnlichen Fragen zusammenhängen. Sie spiegeln nicht die Erfahrungen der Mehrheit der Menschen wider.

Siehe auch  Sie können jetzt Wiedergabelisten mit Eingabeaufforderungen im ChatGPT-Stil erstellen

Darüber hinaus prahlte Google damit, dass die Nutzer in den meisten Fällen qualitativ hochwertige Antworten und Links erhalten, die es ihnen ermöglichen, tiefergehende Suchvorgänge durchzuführen als zuvor. Das Unternehmen untersucht die Angelegenheit jedoch noch und ist für alle Rückmeldungen in dieser Hinsicht dankbar.

Bild: DIW-Aigen

Lesen Sie weiter: Studie zeigt, dass die Standorte von apple– und Starlink-Benutzern leicht verfolgbar sind, was Datenschutzbedenken auslöst

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein