Die Federal Trade Commission hat eine Untersuchung gegen OpenAI, das Start-up für künstliche Intelligenz, das chatgpt herstellt, eingeleitet. Dabei geht es um die Frage, ob der Chatbot den Verbrauchern durch das Sammeln von Daten und die Veröffentlichung falscher Informationen über Einzelpersonen Schaden zugefügt hat.

In einem 20-seitigen Brief, der diese Woche an das Unternehmen aus San Francisco geschickt wurde, erklärte die Behörde, sie prüfe auch die Sicherheitspraktiken von OpenAI. Die FTC stellte OpenAI in ihrem Brief Dutzende Fragen, unter anderem dazu, wie das Start-up seine KI-Modelle trainiert und mit personenbezogenen Daten umgeht, und sagte, das Unternehmen solle der Agentur Dokumente und Details zur Verfügung stellen.

Die FTC prüft, ob OpenAI „unfaire oder irreführende Datenschutz- oder Datensicherheitspraktiken angewendet hat oder sich an unfairen oder irreführenden Praktiken beteiligt hat, die sich auf das Risiko einer Schädigung von Verbrauchern beziehen“, heißt es in dem Schreiben.

Die Untersuchung war früher schon berichtet von der Washington Post und bestätigt von einer mit der Untersuchung vertrauten Person.

Die FTC-Untersuchung stellt die erste große regulatorische Bedrohung in den USA für OpenAI, eines der bekanntesten KI-Unternehmen, dar und signalisiert, dass die Technologie möglicherweise zunehmend unter die Lupe genommen wird, da Menschen, Unternehmen und Regierungen immer mehr KI-basierte Produkte verwenden. Die sich schnell weiterentwickelnde Technologie hat Alarm ausgelöst, da Chatbots, die als Reaktion auf Aufforderungen Antworten generieren können, das Potenzial haben, Menschen an ihren Arbeitsplätzen zu ersetzen und Desinformation zu verbreiten.

Sam Altman, der OpenAI leitet, sagte, die schnell wachsende KI-Branche müsse reguliert werden. Im Mai sagte er vor dem Kongress aus, um die KI-Gesetzgebung einzufordern, und besuchte Hunderte von Gesetzgebern mit dem Ziel, eine politische Agenda für die Technologie festzulegen.

Am Donnerstag hat er getwittert dass es „super wichtig“ sei, dass die Technologie von OpenAI sicher sei. Er fügte hinzu: „Wir sind zuversichtlich, dass wir das Gesetz befolgen“ und werden mit der Agentur zusammenarbeiten.

Siehe auch  Mann bittet ChatGPT, „genehmigt“ im Shashi-Tharoor-Stil zu schreiben. Kongressabgeordneter reagiert

OpenAI ist international bereits unter regulatorischen Druck geraten. Im März verbot die italienische Datenschutzbehörde ChatGPT mit der Begründung, OpenAI habe unrechtmäßig personenbezogene Daten von Benutzern gesammelt und über kein Altersverifizierungssystem verfügt, um zu verhindern, dass Minderjährige illegalem Material ausgesetzt werden. OpenAI stellte im nächsten Monat den Zugriff auf das System wieder her und gab an, die von der italienischen Behörde geforderten Änderungen vorgenommen zu haben.

Die FTC geht in Sachen KI mit bemerkenswerter Geschwindigkeit vor und leitet weniger als ein Jahr nach der Einführung von ChatGPT durch OpenAI eine Untersuchung ein. Lina Khan, die Vorsitzende der FTC, sagte, Technologieunternehmen sollten reguliert werden, während Technologien im Entstehen begriffen sind, und nicht erst, wenn sie ausgereift sind.

In der Vergangenheit leitete die Agentur in der Regel Ermittlungen ein, nachdem ein Unternehmen einen großen öffentlichen Fehltritt begangen hatte, beispielsweise die Einleitung einer Untersuchung zu den Datenschutzpraktiken von Meta, nachdem berichtet wurde, dass das Unternehmen im Jahr 2018 Benutzerdaten an ein politisches Beratungsunternehmen, Cambridge Analytica, weitergegeben hatte.

Frau Khan, die am Donnerstag bei einer Anhörung im Ausschuss des Repräsentantenhauses über die Praktiken der Agentur aussagte, hatte zuvor gesagt, dass die KI-Branche einer genauen Prüfung bedarf.

„Obwohl diese Instrumente neu sind, unterliegen sie nicht den bestehenden Regeln, und die FTC wird die Gesetze, mit deren Verwaltung wir beauftragt sind, selbst in diesem neuen Markt energisch durchsetzen“, schrieb sie im Mai in einem Gastaufsatz in der New York Times. „Während sich die Technologie rasant weiterentwickelt, sehen wir bereits mehrere Risiken.“

Am Donnerstag sagte Frau Khan bei der Anhörung des Justizausschusses des Repräsentantenhauses: „ChatGPT und einige dieser anderen Dienste werden mit einem riesigen Datenschatz gefüttert. Es gibt keine Kontrolle darüber, welche Art von Daten in diese Unternehmen eingegeben werden.“ Sie fügte hinzu, dass es Berichte darüber gegeben habe, dass „sensible Informationen“ von Personen aufgetaucht seien.

Siehe auch  Forscher entdecken, dass ChatGPT es vorzieht, 25 Witze immer wieder zu wiederholen – Ars Technica

Die Untersuchung könnte OpenAI dazu zwingen, seine Methoden rund um den Aufbau von ChatGPT und die Datenquellen offenzulegen, die es zum Aufbau seiner KI-Systeme verwendet. Während OpenAI lange Zeit ziemlich offen mit solchen Informationen umgegangen ist, hat das Unternehmen in letzter Zeit wenig darüber gesagt, woher die Daten für seine KI-Systeme stammen und wie viel davon für die Erstellung von ChatGPT verwendet wird, wahrscheinlich weil es sich davor hütet, dass Konkurrenten sie kopieren, und Bedenken hinsichtlich Klagen hat über die Verwendung bestimmter Datensätze.

Chatbots, die auch von Unternehmen wie google und Microsoft eingesetzt werden, bedeuten einen großen Wandel in der Art und Weise, wie Computersoftware erstellt und genutzt wird. Sie sind bereit, Internetsuchmaschinen wie Google Search und Bing, sprechende digitale Assistenten wie Alexa und Siri sowie E-Mail-Dienste wie Gmail und Outlook neu zu erfinden.

Als OpenAI im November ChatGPT veröffentlichte, erregte es sofort die Fantasie der Öffentlichkeit mit seiner Fähigkeit, Fragen zu beantworten, Gedichte zu schreiben und Riffs zu fast jedem Thema zu schreiben. Aber die Technologie kann auch Fakten mit Fiktionen vermischen und sogar Informationen erfinden, ein Phänomen, das Wissenschaftler „Halluzination“ nennen.

ChatGPT wird von einem neuronalen Netzwerk gesteuert, das KI-Forscher nennen. Dabei handelt es sich um dieselbe Technologie, die auf Diensten wie Google Translate zwischen Französisch und Englisch übersetzt und Fußgänger identifiziert, während selbstfahrende Autos durch die Straßen der Stadt navigieren. Ein neuronales Netzwerk erlernt Fähigkeiten durch die Analyse von Daten. Durch das Auffinden von Mustern in Tausenden von Katzenfotos kann es beispielsweise lernen, eine Katze zu erkennen.

Forscher in Laboren wie OpenAI haben neuronale Netze entwickelt, die große Mengen digitalen Textes analysieren, darunter Wikipedia-Artikel, Bücher, Nachrichten und Online-Chat-Protokolle. Diese als große Sprachmodelle bekannten Systeme haben gelernt, Texte selbst zu generieren, können jedoch fehlerhafte Informationen wiederholen oder Fakten auf eine Weise kombinieren, die zu ungenauen Informationen führt.

Siehe auch  Italienischer Datenschutzbeauftragter wirft ChatGPT von OpenAI Datenschutzverletzungen vor

Im März forderte das Center for AI and Digital Policy, eine Interessenvertretung, die sich für den ethischen Einsatz von Technologie einsetzt, die FTC auf, OpenAI an der Veröffentlichung neuer kommerzieller Versionen von ChatGPT zu hindern, und verwies auf Bedenken hinsichtlich Voreingenommenheit, Desinformation und Sicherheit.

Die Organisation aktualisierte die Beschwerde vor weniger als einer Woche und beschrieb weitere Möglichkeiten, wie der Chatbot Schaden anrichten könnte, auf die auch OpenAI hingewiesen hatte.

„Das Unternehmen selbst hat die mit der Veröffentlichung des Produkts verbundenen Risiken erkannt und eine Regulierung gefordert“, sagte Marc Rotenberg, Präsident und Gründer des Center for AI and Digital Policy. „Die Federal Trade Commission muss handeln.“

OpenAI hat daran gearbeitet, ChatGPT zu verfeinern und die Häufigkeit von voreingenommenem, falschem oder anderweitig schädlichem Material zu reduzieren. Während Mitarbeiter und andere Tester das System nutzen, bittet das Unternehmen sie, die Nützlichkeit und Wahrhaftigkeit ihrer Antworten zu bewerten. Mithilfe einer Technik namens „Reinforcement Learning“ werden diese Bewertungen dann verwendet, um genauer zu definieren, was der Chatbot tun wird und was nicht.

Die Untersuchung der FTC zu OpenAI kann viele Monate dauern und es ist unklar, ob sie zu Maßnahmen seitens der Behörde führen wird. Solche Ermittlungen sind privat und beinhalten häufig Aussagen von Top-Führungskräften von Unternehmen.

Die Agentur verfüge möglicherweise nicht über das Wissen, um die Antworten von OpenAI vollständig zu überprüfen, sagte Megan Gray, eine ehemalige Mitarbeiterin des Verbraucherschutzbüros. „Die FTC verfügt nicht über das Personal mit dem technischen Fachwissen, um die Antworten, die sie erhalten wird, auszuwerten und zu sehen, wie OpenAI versuchen könnte, die Wahrheit zu verschleiern“, sagte sie.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein