Unternehmen, die sich mit künstlicher Intelligenz beschäftigen, haben in den letzten Monaten Änderungen eingeführt, um die Genauigkeit ihrer Sprachmodelle zu verbessern, aber einige Probleme bestehen weiterhin.
Ein amerikanischer Rechtsprofessor hat beschrieben, wie ChatGPT ihn mit einer Klage wegen sexueller Belästigung in Verbindung gebracht hat. Dies wurde nie eingereicht. Der Sachverhalt dürfte sich während einer Studentenreise zugetragen haben, die nie stattgefunden hat. Und der als Informationsquelle genannte Artikel der Washington Post existierte nicht.
Durch KI erzeugte Verzerrungen, wie fehlerhafte biografische Angaben und verwechselte Identitäten – ein Phänomen, das als „Frankenpeople“ (eine Kombination der Begriffe „Frankenstein“ und „Menschen“) bezeichnet wird – können das Ergebnis eines Mangels an verfügbaren Informationen über das Internet in Bezug auf a sein spezielle Person.
Die meisten Gesprächsagenten assoziieren Wörter und Phrasen, die sie während ihrer Ausbildung als häufig korrelierend erkannt haben. Auf diese Weise verlieh ChatGPT Ellie Pavlick, einer Assistenzprofessorin für Informatik an der Brown University, wahrscheinlich eine Reihe von Auszeichnungen in ihrem Fachgebiet, die sie nicht erhielt.
„Was ihn so schlau erscheinen lässt, ist seine Fähigkeit, Verbindungen herzustellen, die nicht explizit hergestellt werden“, sagte sie im New York Times. „Aber diese Fähigkeit zur Verallgemeinerung bedeutet auch, dass sie nicht unbedingt auf der Realität basiert, wo die wahren Fakten von den Annahmen abweichen, die sich letztendlich als richtig erweisen könnten.“
Microsoft macht seine Nutzer darauf aufmerksam, dass sein Chatbot Fehler machen kann, und fordert sie auf, sich nicht ausschließlich auf von Bing generierte Inhalte zu verlassen. Ebenso stellte OpenAI klar, dass Benutzer die Möglichkeit haben, das Unternehmen über etwaige ungenaue Antworten von ChatGPT zu benachrichtigen.
Angesichts der Zunahme „schädlicher Vorfälle im Zusammenhang mit KI“ gab die Federation of American Scientists (FAS) in einem Bericht mehrere Empfehlungen ab Brief vom 7. Juli, adressiert an das Department of Homeland Security, einschließlich Punkt 5, Seite 7, mit dem besonderen Vorschlag, dass das Department of Homeland Security eine Datenbank mit Vorfällen im Zusammenhang mit KI erstellen sollte:
„Das Department of Homeland Security (DHS) sollte KI-bedingte Schäden in einer zentralen KI-bezogenen Vorfalldatenbank dokumentieren und sicherstellen, dass kritische Informationen über Verstöße, Systemausfälle, missbräuchliche Nutzungen und unerwartetes Verhalten von KI-Systemen systematisch gesammelt, klassifiziert und zugänglich gemacht werden.“ “.
Die KI-Vorfallsdatenbank
Allerdings gibt es eine Datenbank mit KI-bezogenen Vorfällen mit dem Namen „KI-Vorfalldatenbank„, Ist bereits vorhanden. Dies ist eine öffentliche Zusammenstellung, die versucht, konkrete Beispiele für Schäden zu identifizieren, die durch künstliche Intelligenz verursacht werden.
Es ist in Englisch, Spanisch und Französisch (in der Beta-Version) verfügbar und hat seit Jahresbeginn mehr als 550 Zugriffe verzeichnet. Die Art der Meldung von KI-Vorfällen wurde bewusst erweitert.
Beispiele beinhalten:
-
Selbstfahrendes Fahrzeug tötet Fußgänger – Handelsalgorithmus löst „Flash-Crash“ an der Börse aus
-
Ein Gesichtserkennungssystem, das zur Festnahme einer unschuldigen Person führt
-
Eine Stimmsynthese, die von Einzelpersonen ausgenutzt wird, um ihre Verwandten nachzuahmen und von ihnen Geld zu erpressen
-
Eine falsche Aussage über eine von ChatGPT verursachte Korruption
Es fehlt jedoch in der Liste erste Anzeige wegen Verleumdung eingereicht von einem amerikanischen Radiomoderator am 5. Juni. Falsche Anschuldigungen von ChatGPT, die ihm Betrug und Unterschlagung durch eine Stiftung vorwarfen, zu der er eigentlich keine Verbindung hatte.
Quellen: Die New York Times/Überprüfung von Virtualisierung und Cloud
Haben Sie einen Fehler gefunden? Teilen Sie uns dies bitte mit.
– Bei chatgpt schädigen „Halluzinationen“ den Ruf einzelner Personen
Chatbots generieren manchmal fiktive Geschichten über Menschen oder schreiben ihnen Dinge zu, die sie nie gesagt haben, was ihren Ruf schädigt und ihnen kaum die Möglichkeit lässt, sich zu verteidigen oder Wiedergutmachung zu fordern.