Auch Sam Altman, der Chef von OpenAI, sprach über die Risiken, die generative KI für das künstlerische Schaffen und die amerikanischen Wahlen mit sich bringt.
Vertrauenswürdigkeit eines Guru für künstliche Intelligenz. „Ich habe viel Einfühlungsvermögen für die Gefühle der Menschen, ganz gleich, welche Gefühle sie haben.» Über ChatGPT sagte Sam Altman, der Chef von OpenAI, der vor einem Jahr mit dieser Plattform für generative künstliche Intelligenz (KI) eine technologische Revolution startete, am Donnerstag gegenüber AFP. Der Star aus dem Silicon Valley hatte gerade an einer Konferenz mit hochrangigen Vertretern von google und Meta (Facebook, Instagram) am Rande des jährlichen Gipfels der Asiatisch-Pazifischen Wirtschaftskooperation (Apec) teilgenommen, der diese Woche in San Francisco stattfindet.
Trotz ihres Erfolgs werfen ChatGPT und andere Schnittstellen, die auf einfache Anfrage Texte, Bilder und Töne erzeugen können, auch ernsthafte Bedenken hinsichtlich der Gefahren insbesondere für die Demokratie (massive Desinformation) oder die Beschäftigung (ersetzte Berufe) auf. „Wir hoffen wirklich, dass diese Tools von den Entwicklern angenommen werden und ihnen helfen„, fuhr Sam Altman über Künstler fort, die über die Anwendungen von OpenAI verärgert sind. „Natürlich müssen wir ein funktionierendes Wirtschaftsmodell finden“, gab er zu. „Und wir müssen den Menschen die Möglichkeit geben, zu entscheiden, ob sie dabei sein wollen oder nicht.».
Künstler, Programmierer und Schriftsteller (darunter George RR Martin, der Autor von „Game of Thrones„) reichte in diesem Jahr eine Klage gegen OpenAI und Konkurrenten des kalifornischen Start-ups ein und wirft ihnen vor, ihre Werke unter Missachtung ihres Urheberrechts, ohne Zustimmung oder Vergütung, zur Erstellung ihrer Schnittstellen genutzt zu haben. In Hollywood konzentrierte sich der gerade zu Ende gegangene historische Streik der Drehbuchautoren und Schauspieler vor allem auf ihre Befürchtungen, dass generative KI zu ihrer Ausbeutung genutzt werden könnte.
Lesen Sie auch„KI wird die Medizin demokratisieren“, so Stéphane Bancel, Chef von Moderna
China und KI
Sam Altman hat nicht nur Feinde. Als er den Konferenzraum verlässt, drängen ihn Apec-Teilnehmer, die Fans des Unternehmers sind, um Selfies mit ihm zu machen. Auf die Frage nach den Einsatzmöglichkeiten von KI in China versichert er: „Ich weiß nicht viel darüber, wie China KI einsetzt». «Das liegt außerhalb meines Fachgebiets„, er machte weiter.
Der Apec-Gipfel war geprägt von der Rivalität zwischen den Vereinigten Staaten und China, die sich in einem harten wirtschaftlichen und politischen Wettbewerb befanden. Und für viele amerikanische Organisationen betrifft das Problem das Sozialmodell, während sogar Präsident Joe Biden zugibt, den chinesischen Führer als „Diktator».
Peking nutzt KI zur Bevölkerungsüberwachung, insbesondere durch Gesichtserkennung. Im April gaben die Behörden bekannt, dass generative KI-Tools überprüft würden und „spiegeln die Grundwerte des Sozialismus wider und enthalten keine (Elemente im Zusammenhang mit) der Subversion der Staatsmacht».
Lesen Sie auchJean-Pierre Robin: „Sind wir angesichts der KI und des ökologischen Wandels klug genug?“
Bedrohung für Wahlen
Die Regulierung von KI wird auch im europäischen und amerikanischen Parlament diskutiert, allerdings mit dem Ziel, dass sie nicht zur Diskriminierung, Manipulation oder zum Betrug eingesetzt wird. OpenAI und andere amerikanische KI-Giganten fordern neue Regeln, solange sie „Verlangsamen Sie nicht einige der unglaublichen Fortschritte, die derzeit stattfinden“, stellte Sam Altman klar.
Die amerikanische Regierung ist besonders besorgt über die Rolle, die generative KI im Wahlkampf 2024 spielen wird. Die Technologie erleichtert die Erstellung hyperrealistischer Montagen (Deepfake) und falscher Inhalte und damit Desinformationskampagnen.
«Es gibt viel Unbekanntes, wir wissen noch nicht, wozu generative KI insbesondere im Videobereich fähig ist», gab Sam Altman während der Konferenz zu. „Aber in einem Wahljahr wird es schnell und heftig passieren, und wir müssen es genau beobachten, um reagieren zu können, wenn es passiert.».