Von: Dale ArasaVor 8 Minuten

Es ist leicht anzunehmen, dass Technologieunternehmen besser als normale Einzelpersonen darin sind, zwischen durch KI erstellten und von Menschen erstellten Inhalten zu unterscheiden. Schließlich sind sie auf Technologie spezialisiert. Warum sollten sie also nicht besser sein? Ein aktuelles Experiment zeigt jedoch, dass diese Unternehmen auch wachsamer sein müssen, um zu verhindern, dass Menschen ihre Regeln mit KI umgehen.

Interviewing.io, eine Website, die Menschen dabei hilft, in Vorstellungsgesprächen erfolgreich zu sein, hat Vorstellungsgespräche getestet, um zu sehen, ob sie Kandidaten mithilfe von chatgpt in Codierungsrunden erkennen können. Das Website-Team stellte fest, dass das KI-Programm ihre Fragen so gut beantworten kann, dass es Interviewer täuschen kann. Infolgedessen berichteten viele Nachrichtenagenturen wie Business Insider über die Ergebnisse.

Wie funktionierte das ChatGPT-Experiment?

Die Abbildung Zeigt Eine Laborumgebung Mit Wissenschaftlern, Die Experimente Durchführen, Und Stellt Den Prozess Des Chatgpt-Experimentes Dar.
Kostenloses Stockfoto Von Pexels

Business Insider India erklärt, dass Vorstellungsgespräche im Technologiebereich in der Regel Programmierrunden umfassen, in denen Bewerber technische Probleme lösen. Oftmals sind Personalmanager dafür verantwortlich.

Sie beantworten häufig Fragen von der LeetCode-Plattform zur Vorbereitung auf Vorstellungsgespräche. Folglich können Kandidaten ChatGPT und andere KI-Programme zum Betrügen nutzen.

Interviewing.io hat dieses Phänomen mit einem Experiment bewiesen. Die Interviewer überprüften drei Gruppen von Bewerbern und stellten drei Arten von Fragen:

  • Verbatim-LeetCode-Fragen
  • Modifizierte LeetCode-Fragen
  • Benutzerdefinierte Fragen

Auf der Website hieß es zu den Interviewern: „[This] Die Forschungsstudie zielt darauf ab, die Trends in der Vorhersagbarkeit der Entscheidungen eines Interviewers im Laufe der Zeit zu verstehen – insbesondere wenn es darum geht, Standard- und Nicht-Standard-Interviewfragen zu stellen.“

LESEN SIE: Die NASA braucht Freiwillige für die Marssimulation

Das Experiment ergab, dass 73 % der Verbatim-Gruppe ihre Interviews bestanden. Noch wichtiger ist, dass keiner der Interviewer die ChatGPT-Betrüger auf frischer Tat ertappte.

Siehe auch  Chinesische ChatGPT-App gelöscht?Hunderte KI-bezogene Apps wurden aus den Regalen entfernt

India Today teilte eine Antwort von Aline Lerner, der Gründerin von Interviewing.io. Sie sagte, Interviewer könnten sich von KI-Tools täuschen lassen, weil sie von Kandidaten perfekte Antworten erwarten.

LESEN: Ein Gespräch mit ChatGPT

„Bis vor einem Jahr war es ziemlich schwierig, diese zu betrügen. Jetzt können Sie es buchstäblich einfach in ChatGPT eingeben und erhalten in Echtzeit eine Antwort“, sagte Lerner.

Zusammenfassend empfiehlt Interviewing.io, benutzerdefinierte Fragen zu stellen, um Betrug bei der Verwendung von ChatGPT zu verhindern.

5/5 - (287 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein