DATEI – Das OpenAI-Logo ist auf einem Mobiltelefon vor einem Computerbildschirm zu sehen, auf dem die Ausgabe von chatgpt vom 21. März 2023 in Boston angezeigt wird. Berichten der Washington Post und der New York Times zufolge hat die US-amerikanische Federal Trade Commission eine Untersuchung gegen den ChatGPT-Entwickler OpenAI eingeleitet und untersucht, ob das Unternehmen für künstliche Intelligenz gegen Verbraucherschutzgesetze verstoßen hat, indem es öffentliche Daten ausspionierte und über seinen Chatbot falsche Informationen veröffentlichte. (AP Photo/Michael Dwyer, Datei)

Von DAVID HAMILTON (AP-Wirtschaftsjournalist)

Die US-amerikanische Federal Trade Commission hat eine Untersuchung gegen den ChatGPT-Entwickler OpenAI eingeleitet und untersucht, ob das Unternehmen für künstliche Intelligenz gegen Verbraucherschutzgesetze verstoßen hat, indem es öffentliche Daten stiehlt und über seinen Chatbot falsche Informationen veröffentlicht.

Die Agentur schickte OpenAI einen 20-seitigen Brief mit der Bitte um detaillierte Informationen zu ihrer KI-Technologie, ihren Produkten, Kunden, Datenschutzmaßnahmen und Datensicherheitsvereinbarungen.

Ein FTC-Sprecher äußerte sich nicht zu der Untersuchung, über die erstmals am Donnerstag die Washington Post berichtete.

Das FTC-Dokument, das die Post veröffentlichte, teilte OpenAI mit, dass die Behörde untersuche, ob sie sich „an unlauteren oder irreführenden Datenschutz- oder Datensicherheitspraktiken“ oder Praktiken beteiligt habe, die den Verbrauchern schadeten.

OpenAI-Gründer Sam Altman twitterte seine Enttäuschung darüber, dass die Untersuchung in einem „Leck“ offengelegt wurde, und wies darauf hin, dass dies „nicht dazu beitragen würde, Vertrauen aufzubauen“, fügte jedoch hinzu, dass das Unternehmen mit der FTC zusammenarbeiten werde.

„Es ist uns sehr wichtig, dass unsere Technologie sicher und verbraucherfreundlich ist, und wir sind zuversichtlich, dass wir uns an die Gesetze halten“, schrieb er. „Wir schützen die Privatsphäre der Benutzer und gestalten unsere Systeme so, dass sie etwas über die Welt erfahren, nicht über Privatpersonen.“

Siehe auch  Microsoft veröffentlicht DeepSpeed-Chat für das RLHF-Training von ChatGPT-ähnlichen Modellen

OpenAI wurde anderswo unter die Lupe genommen. Italienische Aufsichtsbehörden haben ChatGPT wegen Datenschutzbedenken vorübergehend blockiert, und auch Datenschutzbeauftragte in Frankreich, Spanien, Irland und Kanada achten aufmerksamer darauf, darunter einige, die nach Eingang von Beschwerden Untersuchungen eingeleitet haben.

Der Schritt der FTC stellt eine ernsthafte regulatorische Bedrohung für die aufstrebende, aber schnell wachsende KI-Branche dar, obwohl dies nicht die einzige Herausforderung ist, vor der diese Unternehmen stehen.

Die Komikerin Sarah Silverman und zwei weitere Autoren haben sowohl OpenAI als auch die Facebook-Mutter Meta wegen Urheberrechtsverletzung verklagt und behauptet, dass die KI-Systeme der Unternehmen illegal „trainiert“ wurden, indem sie Datensätzen ausgesetzt wurden, die illegale Kopien ihrer Werke enthielten.

Am Donnerstag gaben OpenAI und The Associated Press einen Deal bekannt, im Rahmen dessen das KI-Unternehmen das Nachrichtenarchiv von AP lizenzieren wird.

Altman hat sich nach seiner Aussage vor dem Kongress im Mai und einer anschließenden weltweiten Tournee, unter anderem nach Europa, wo Beamte den weltweit ersten umfassenden Regeln für KI den letzten Schliff geben, zu einer Art globaler KI-Botschafter entwickelt.

Die Vorschriften konzentrieren sich auf riskante Anwendungen wie prädiktive Polizeiarbeit und soziale Bewertung und enthalten Bestimmungen für die generative KI, jegliches urheberrechtlich geschützte Material offenzulegen, das zum Trainieren ihrer Algorithmen verwendet wird.

Altman selbst hat eine KI-Regulierung gefordert, obwohl er dazu tendierte, schwer einzuschätzende existenzielle Bedrohungen hervorzuheben, etwa die Möglichkeit, dass sich superintelligente KI-Systeme eines Tages gegen die Menschheit wenden könnten.

Einige argumentieren, dass die Konzentration auf ein weit entferntes „Science-Fiction-Thema“ übermächtiger KI es schwieriger machen könnte, gegen bereits bestehende Schäden vorzugehen, die von den Regulierungsbehörden eine eingehende Prüfung von Datentransparenz, diskriminierendem Verhalten und der Möglichkeit von Betrug und Desinformation erfordern.

Siehe auch  ChatGPT-Entwickler OpenAI bilden die Gruppe „Vorbereitung“, um sich auf eine „Katastrophe“ vorzubereiten

„Es ist die Angst vor diesen Systemen und unser mangelndes Verständnis dafür, die alle in Panik versetzen“, sagt Suresh Venkatasubramanian, Informatiker an der Brown University und ehemaliger stellvertretender Direktor für Wissenschaft und Justiz im Büro für Wissenschaft und Justiz des Weißen Hauses Technology Policy, sagte der AP im Mai. „Diese Angst, die völlig unbegründet ist, lenkt von all den Sorgen ab, mit denen wir uns gerade beschäftigen.“

Die Nachricht von der OpenAI-Untersuchung der FTC wurde nur wenige Stunden nach einer heftigen Anhörung vor dem Justizausschuss des Repräsentantenhauses bekannt, bei der die Vorsitzende der FTC, Lina Khan, gegen republikanische Gesetzgeber antrat, die sagten, sie sei bei der Verfolgung von Technologieunternehmen wegen Vorwürfen des Fehlverhaltens zu aggressiv vorgegangen.

Die Republikaner sagten, sie habe Twitter seit der Übernahme durch Elon Musk belästigt, willkürlich große Technologieunternehmen verklagt und sich geweigert, sich aus bestimmten Fällen zurückzuziehen. Khan lehnte ab und argumentierte, dass mehr Regulierung notwendig sei, da die Unternehmen gewachsen seien und dass die Technologiekonglomeration der Wirtschaft und den Verbrauchern schaden könnte.

4.6/5 - (11 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein