Start ChatGPT Die FTC untersucht OpenAI wegen Datenlecks und der Ungenauigkeit von ChatGPT
Die FTC untersucht OpenAI wegen Datenlecks und der Ungenauigkeit von ChatGPT

Die FTC untersucht OpenAI wegen Datenlecks und der Ungenauigkeit von ChatGPT

[ad_1]

Die Federal Trade Commission hat eine umfangreiche Untersuchung zu OpenAI eingeleitet und untersucht, ob der Hersteller des beliebten chatgpt-Bots gegen Verbraucherschutzgesetze verstoßen hat, indem er den persönlichen Ruf und die Daten gefährdet hat.

Laut einem von der Washington Post überprüften Dokument hat die Agentur diese Woche dem Unternehmen aus San Francisco eine 20-seitige Aufforderung zur Vorlage von Aufzeichnungen darüber geschickt, wie es mit Risiken im Zusammenhang mit seinen KI-Modellen umgeht. Die Salve stellt die bisher stärkste regulatorische Bedrohung für das Geschäft von OpenAI in den Vereinigten Staaten dar, da das Unternehmen eine globale Charmeoffensive startet, um die Zukunft der Politik der künstlichen Intelligenz zu gestalten.

Analysten haben ChatGPT von OpenAI als die am schnellsten wachsende Verbraucher-App aller Zeiten bezeichnet, und ihr früher Erfolg löste ein Wettrüsten unter Unternehmen aus dem Silicon Valley aus, um konkurrierende Chatbots einzuführen. Der Vorstandsvorsitzende des Unternehmens, Sam Altman, hat sich als einflussreiche Persönlichkeit in der Debatte über die KI-Regulierung erwiesen, indem er auf dem Capitol Hill aussagte, mit Gesetzgebern speiste und sich mit Präsident Biden und Vizepräsident Harris traf.

Big Tech ging bei der KI vorsichtig vor. Dann kam ChatGPT.

Doch nun steht das Unternehmen in Washington vor einer neuen Bewährungsprobe, wo die FTC mehrfach gewarnt hat, dass bestehende Verbraucherschutzgesetze für KI gelten, obwohl die Regierung und der Kongress Schwierigkeiten haben, neue Vorschriften festzulegen. Der Mehrheitsführer im Senat, Charles E. Schumer (DN.Y.), hat vorausgesagt, dass eine neue KI-Gesetzgebung noch Monate entfernt sein wird.

Die Forderungen der FTC an OpenAI sind der erste Hinweis darauf, wie sie diese Warnungen durchsetzen will. Wenn die FTC feststellt, dass ein Unternehmen gegen Verbraucherschutzgesetze verstößt, kann sie Bußgelder verhängen oder ein Unternehmen einem Einwilligungsdekret unterwerfen, das vorschreiben kann, wie das Unternehmen mit Daten umgeht. Die FTC hat sich zum obersten Polizisten der Bundesregierung im Silicon Valley entwickelt und hohe Geldstrafen gegen Meta, Amazon und Twitter wegen angeblicher Verstöße gegen Verbraucherschutzgesetze verhängt.

Die FTC forderte OpenAI auf, detaillierte Beschreibungen aller Beschwerden vorzulegen, die es über seine Produkte erhalten hatte, die „falsche, irreführende, herabwürdigende oder schädliche“ Aussagen über Menschen machten. Die FTC untersucht, ob das Unternehmen unlautere oder betrügerische Praktiken anwendete, die zu einem „Reputationsschaden“ für die Verbraucher führten, heißt es in dem Dokument.

Siehe auch  ChatGPT prognostiziert den Tesla-Aktienkurs nach dem Start von Cybertruck

Die FTC forderte das Unternehmen außerdem auf, Aufzeichnungen zu einem Sicherheitsvorfall vorzulegen, den das Unternehmen im März bekannt gab, als ein Fehler in seinen Systemen es einigen Benutzern ermöglichte, zahlungsbezogene Informationen einzusehen.sowie einige Daten aus dem Chatverlauf anderer Benutzer. Die FTC prüftob die Datensicherheitspraktiken des Unternehmens gegen Verbraucherschutzgesetze verstoßen. OpenAI sagte in ein Blogbeitrag dass die Zahl der Nutzer, deren Daten an jemand anderen weitergegeben wurden, „extrem gering“ sei.

OpenAI und die FTC reagierten nicht sofort auf Anfragen nach Kommentaren, die am Donnerstagmorgen gesendet wurden.

Die Nachricht von der Untersuchung kommt zu einem Zeitpunkt, zu dem die Vorsitzende der FTC, Lina Khan, am Donnerstag voraussichtlich vor dem Justizausschuss des Repräsentantenhauses einer kontroversen Anhörung gegenübersteht, bei der die republikanischen Gesetzgeber ihre Durchsetzungsbilanz analysieren und ihr vorwerfen sollen, die Behörde schlecht geführt zu haben. Khans ehrgeizige Pläne, das Silicon Valley einzudämmen, haben vor Gericht erhebliche Verluste erlitten. Am Dienstag lehnte ein Bundesrichter den Versuch der FTC ab, den 69-Milliarden-Dollar-Deal von Microsoft zum Kauf des Videospielunternehmens Activision zu blockieren.

Die Agentur hat in Reden wiederholt davor gewarnt, dass Maßnahmen in Sachen KI bevorstehen. Blogeinträge, Leitartikel und Pressekonferenzen. In eine Rede an der Harvard Law School Im April sagte Samuel Levine, der Direktor des Büros für Verbraucherschutz der Agentur, dass die Agentur bereit sei, „schnell“ vorzugehen, um aufkommenden Bedrohungen zuvorzukommen.

„Die FTC begrüßt Innovationen, aber innovativ zu sein ist kein Freibrief für Rücksichtslosigkeit“, sagte Levine. „Wir sind bereit, alle unsere Instrumente, einschließlich der Durchsetzung, einzusetzen, um schädliche Praktiken in diesem Bereich zu bekämpfen.“

Die FTC hat auch mehrere farbenfrohe Blogbeiträge über ihren Ansatz zur Regulierung von KI veröffentlicht und sich dabei teilweise auf populäre Science-Fiction-Filme berufen, um die Branche davor zu warnen, gegen das Gesetz zu verstoßen. Die Agentur hat vor KI-Betrug gewarnt, bei dem generative KI zur Manipulation potenzieller Kunden eingesetzt und die Fähigkeiten von KI-Produkten fälschlicherweise überschätzt werden. Khan nahm auch an einer Pressekonferenz mit Beamten der Biden-Regierung teilim April über die Gefahr der KI-Diskriminierung.

„Es gibt keine KI-Ausnahme von den geltenden Gesetzen“, sagte Khan bei dieser Veranstaltung.

Siehe auch  Wie Safran ChatGPT in den Mittelpunkt seines Industrie 4.0-Projekts stellt

Zu den Informationen, die die FTC von Open AI einholt, gehören Untersuchungen, Tests oder Umfragen, die bewerten, wie gut Verbraucher „die Genauigkeit oder Zuverlässigkeit der von ihren KI-Tools generierten Ergebnisse“ verstehen. Die Agentur stellte umfangreiche Anforderungen an Aufzeichnungen darüber, wie die Produkte von OpenAI abfällige Aussagen hervorbringen könnten, und forderte das Unternehmen auf, Aufzeichnungen über die Beschwerden vorzulegen, die Menschen über seinen Chatbot mit falschen Aussagen verschickten.

ChatGPT hat einen Skandal um sexuelle Belästigung erfunden und einen echten Juraprofessor als Angeklagten benannt

Die Agentur konzentriert sich auf solche Fälschungen, nachdem zahlreiche aufsehenerregende Berichte darüber stattgefunden haben, dass der Chatbot falsche Informationen produziert hat, die den Ruf der Menschen schädigen könnten. Mark Walters, ein Moderator einer Radio-Talkshow in Georgia, verklagte OpenAI wegen Verleumdung und behauptete, der Chabot habe rechtliche Ansprüche gegen ihn erhoben. Die Klage behauptet, ChatGPT habe fälschlicherweise behauptet, Walters, der Moderator von „Armed American Radio“, sei des Betrugs und der Veruntreuung von Geldern der Second Amendment Foundation beschuldigt worden. Die Antwort erfolgte als Antwort auf eine Frage zu einem Rechtsstreit über die Stiftung, an dem Walters der Beschwerde zufolge nicht beteiligt ist.

ChatGPT sagte außerdem, dass ein Anwalt sexuell anzügliche Kommentare abgegeben und versucht habe, einen Schüler auf einer Klassenfahrt nach Alaska zu berühren, und berief sich dabei auf einen Artikel, der angeblich in der Washington Post erschienen sei. Aber es gab keinen solchen Artikel, die Klassenfahrt fand nie statt und der Anwalt sagte, er sei nie beschuldigt worden, einen Schüler belästigt zu haben, berichtete The Post zuvor.

Die FTC forderte das Unternehmen in seiner Anfrage außerdem auf, ausführliche Angaben zu seinen Produkten und der Art und Weise, wie es diese bewirbt, bereitzustellen. Außerdem wurden Einzelheiten zu den Richtlinien und Verfahren verlangt, die OpenAI anwendet, bevor ein neues Produkt der Öffentlichkeit zugänglich gemacht wird, einschließlich einer Liste der Zeiten, in denen OpenAI ein großes Sprachmodell aufgrund von Sicherheitsrisiken zurückgehalten hat.

Die Agentur forderte außerdem eine detaillierte Beschreibung der Daten, die OpenAI zum Trainieren seiner Produkte verwendet, die durch die Aufnahme von Text, der größtenteils aus Wikipedia, Scribd und anderen Websites im offenen Web stammt, menschliche Sprache nachahmen. Die Agentur hat OpenAI außerdem gebeten, zu beschreiben, wie es seine Modelle verfeinert, um deren Tendenz zur „Halluzination“ entgegenzuwirken und Antworten zu erfinden, wenn die Modelle die Antwort auf eine Frage nicht kennen.

Siehe auch  Greg Brockman, Mitschöpfer von ChatGPT, spricht beim UND – Grand Forks Herald

OpenAI muss außerdem Angaben dazu machen, wie viele Menschen von dem Sicherheitsvorfall im März betroffen waren, und Informationen über alle Schritte, die zur Reaktion unternommen wurden.

Die Aktenanfrage der FTC, die als „Civil Investigative Demand“ bezeichnet wird, konzentriert sich in erster Linie auf potenzielle Verstöße gegen den Verbraucherschutz, fordert OpenAI aber auch auf, einige Einzelheiten darüber anzugeben, wie es seine Modelle an andere Unternehmen lizenziert.

Europa kommt bei der KI-Regulierung voran und fordert die Macht der Technologiegiganten heraus

Die Vereinigten Staaten sind bei der Ausarbeitung von KI-Gesetzen und der Regulierung der mit der Technologie verbundenen Datenschutzrisiken hinter anderen Regierungen zurückgeblieben. Länder innerhalb der Europäischen Union haben Schritte unternommen, um die Chatbots von US-Unternehmen gemäß dem Datenschutzgesetz des Blocks, der Allgemeinen Datenschutzverordnung, einzuschränken. Italien hat ChatGPT aus Datenschutzgründen vorübergehend daran gehindert, dort zu arbeitengoogle musste den Start seines Chatbots Bard verschieben, nachdem von der irischen Datenschutzkommission Anfragen zu Datenschutzbewertungen eingegangen waren. Es wird erwartet, dass auch die Europäische Union bis Ende des Jahres ein KI-Gesetz verabschieden wird.

In Washington herrscht reger Aufholbedarf. Am Dienstag veranstaltete Schumer ein Briefing aller Senatoren mit Vertretern des Pentagons und der Geheimdienste, um die nationalen Sicherheitsrisiken künstlicher Intelligenz zu erörtern, während er mit einer überparteilichen Gruppe von Senatoren an der Ausarbeitung neuer KI-Gesetze arbeitet. Schumer sagte Reportern nach der Sitzung, dass es „sehr schwierig“ sein werde, KI zu regulieren, da die Gesetzgeber versuchen, die Notwendigkeit von Innovationen mit der Gewährleistung angemessener Schutzmaßnahmen für die Technologie in Einklang zu bringen.

Am Mittwoch empfing Vizepräsident Harris eine Gruppe von Verbraucherschützern und Vertretern der Bürgerrechte im Weißen Haus zu einer Diskussion über die Sicherheitsrisiken von KI.

„Es ist eine falsche Entscheidung zu behaupten, dass wir entweder Innovationen vorantreiben oder die Verbraucher schützen können“, sagte Harris. „Wir können beides.“

Will Oremus hat zu diesem Bericht beigetragen.

[ad_2]

4.6/5 - (67 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein