Die US-amerikanische Federal Trade Commission fordert das Startup auf, angesichts von Berichten über verleumderische Inhalte Informationen über Schutzmaßnahmen bereitzustellen.

Die Wettbewerbsaufsichtsbehörde der Vereinigten Staaten hat eine Untersuchung gegen den chatgpt-Entwickler OpenAI eingeleitet, da der Verdacht besteht, dass das Startup gegen das Gesetz verstoßen hat, indem es öffentliche Daten gelöscht und falsche und verleumderische Informationen veröffentlicht hat.

In einem 20-seitigen Brief hat die US-amerikanische Federal Trade Commission (FTC) OpenAI aufgefordert, detaillierte Informationen über seine Technologie und den Schutz der Privatsphäre bereitzustellen, einschließlich aller Bemühungen, eine Wiederholung von Vorfällen zu verhindern, bei denen sein bahnbrechender Chatbot falsche und abfällige Informationen über Mitglieder veröffentlichte der Öffentlichkeit.

Die Washington Post berichtete erstmals am Donnerstag über die „umfangreiche“ Untersuchung.

Die FTC lehnte eine Stellungnahme ab, als sie von Al Jazeera kontaktiert wurde.

Sam Altman, CEO von OpenAI, sagte, das Durchsickern der Untersuchung der Regulierungsbehörde sei „enttäuschend“ und werde nicht dazu beitragen, Vertrauen aufzubauen.

„Wir haben GPT-4 auf der Grundlage jahrelanger Sicherheitsforschung entwickelt und mehr als sechs Monate nach Abschluss der ersten Schulung damit verbracht, es sicherer und besser auszurichten, bevor wir es veröffentlicht haben“, sagte Altman auf Twitter und bezog sich dabei auf den fortschrittlicheren Nachfolger von ChatGPT.

„Wir schützen die Privatsphäre der Benutzer und gestalten unsere Systeme so, dass sie etwas über die Welt erfahren, nicht über Privatpersonen. Wir sind uns der Grenzen unserer Technologie bewusst, insbesondere wenn wir diese nicht erreichen.“

Existenzielle Risiken

Die FTC-Untersuchung stellt möglicherweise den bisher stärksten regulatorischen Schritt dar, um das aufstrebende Gebiet der künstlichen Intelligenz einzudämmen, dessen rasante Fortschritte sowohl Aufregung als auch Warnungen vor existenziellen Risiken für die Menschheit hervorgerufen haben.

Siehe auch  Sergey Brin kehrt zum Google-Hauptquartier zurück, um bei der Entwicklung des ChatGPT-Rivalen zu helfen: Bericht

Am Mittwoch erklärte die Vorsitzende der FTC, Lina Khan, vor einem Kongressausschuss, die Agentur sei besorgt über „Betrug und Täuschung“ im Zusammenhang mit den Ergebnissen von ChatGPT.

„Wir haben von Verleumdungen, verleumderischen Aussagen und völlig unwahren Dingen gehört, die ans Licht kommen“, sagte Khan, ohne die FTC-Untersuchung preiszugeben.

ChatGPT von OpenAI versetzte die Technologiewelt bei seiner Einführung im November mit seiner unheimlichen Fähigkeit, menschliche Sprache nachzuahmen, in Aufruhr.

Der Chatbot hat jedoch auch Kontroversen ausgelöst, da er dazu neigt, ungenaue und anstößige Inhalte zu produzieren.

Globale Regulierungsbehörden haben sich bemüht, Regeln zur Steuerung der KI zu entwickeln, da Technologieunternehmen rasch immer fortschrittlichere Versionen der Technologie einführen.

Der US-Senat erwägt zwei separate parteiübergreifende KI-Gesetze, die darauf abzielen, die Wettbewerbsfähigkeit der USA sicherzustellen und die Transparenz über den Einsatz der Technologie durch die Regierung zu verbessern.

Die Europäische Union hat im April eine vorläufige Einigung über Rechtsvorschriften zur Regelung des Einsatzes von KI erzielt, die Technologien in Kategorien einteilen würden, die ein inakzeptables Risiko, ein hohes Risiko oder ein begrenztes Risiko darstellen.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein