Die US-amerikanische Federal Trade Commission (FTC) wird prüfen, ob die chatgpt-Anwendung von OpenAI den Ruf von Menschen geschädigt hat, indem sie falsche Informationen über sie veröffentlicht hat. Darüber schreibt Das Wall Street Journal zitierte die Behauptungen der FTC gegen OpenAI, veröffentlicht am Donnerstag, 13. Juli. Die Regulierungsbehörde verfügt über weitreichende Befugnisse, um unlautere Geschäftspraktiken, die den Verbrauchern schaden könnten, und unlauteren Wettbewerb einzudämmen, erinnert die Zeitung.

Die Regulierungsbehörde sagte in einer Erklärung, dass die Untersuchung von ChatGPT feststellen wird, ob OpenAI „böswillige oder irreführende Praktiken anwendet, die das Risiko einer Schädigung der Verbraucher, einschließlich Rufschädigung, mit sich bringen“. Das Unternehmen wird gebeten, im Detail zu beschreiben, was es getan hat, um die Risiken der Generierung von „Behauptungen über reale Personen, die falsch, irreführend oder erniedrigend sind“ mithilfe großer Sprachmodelle zu beseitigen oder zu mindern. OpenAI reagierte nicht auf Zeitungsanfragen nach Kommentaren.

Die Regulierungsbehörde stellte OpenAI Fragen zu seinen Datenschutzpraktiken. Die Erklärung bezieht sich auf einen Vorfall im Jahr 2020, bei dem das Unternehmen einen Fehler offenlegte, der es Benutzern ermöglichte, die Chat-Informationen anderer Benutzer und einige zahlungsbezogene Informationen einzusehen. Die Anfrage der FTC an OpenAI umfasst auch die Marketingbemühungen des Unternehmens, seine maschinellen Lernpraktiken für KI-Modelle und die Verarbeitung persönlicher Daten der Benutzer.

„Wir haben von Berichten gehört, bei denen vertrauliche Informationen von Personen als Reaktion auf eine Anfrage einer anderen Person ans Licht kommen. Wir hörten von Verleumdungen, verleumderischen Aussagen und völlig unwahren Aussagen. „Das ist die Art von Betrug, die uns Sorgen macht“, sagte die Vorsitzende der FTC, Lina Khan, am Donnerstag, dem 13. Juli, vor dem Justizausschuss des Repräsentantenhauses.

Siehe auch  ChatGPT: die in Frankreich offiziell verfügbare mobile Anwendung

„Wenn ChatGPT etwas Falsches über jemanden meldet und es seinem Ruf schaden könnte, fällt dies dann in die Zuständigkeit der FTC? Ich glaube nicht, dass es überhaupt klar ist“, sagte Adam Kovacevich, Gründer von Chamber of Progress, einer Branchengruppe. Seiner Meinung nach beziehen sich solche Fragen „eher auf den Bereich der Rede, und dieser wird zur Regulierung der Rede“, was über die Befugnisse der Kartellbehörde hinausgeht.

Mark Rothenberg, Präsident des Center for Artificial Intelligence and Digital Policy (Leiter der Gruppe, die im März 2023 die ChatGPT-Beschwerde bei der FTC eingereicht hat), sagte, es sei möglicherweise nicht klar, ob die FTC für die Verleumdung von Menschen zuständig sei. Ihm zufolge fallen irreführende Werbung sowie Desinformation über Geschäftspraktiken in den Zuständigkeitsbereich der FTC.

In einer Beschwerde bei der FTC bezeichnete die Rotenberg-Gruppe die Aktivitäten von ChatGPT als „voreingenommen, irreführend und eine Bedrohung für die Privatsphäre und die öffentliche Sicherheit“. Den Beschwerdeführern zufolge entspricht es keiner der FTC-Richtlinien zum Einsatz von KI. Sogar die Macher von ChatGPT haben eine stärkere staatliche Aufsicht über die KI-Entwicklung gefordert.

Bei einer Kongressanhörung im Mai forderte OpenAI-Chef Sam Altman den Kongress auf, Lizenz- und Sicherheitsstandards für KI zu entwickeln. „Wenn diese Technologie schief geht, könnten die Dinge sehr schief gehen“, sagte Altman bei einer Anhörung des Unterausschusses des Senats.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein