Der chatgpt-Hersteller OpenAI hat einen Plan skizziert, um zu verhindern, dass seine Tools für künstliche Intelligenz im Jahr 2024 zur Verbreitung von Wahlfehlinformationen verwendet werden

Die Schritte gelten speziell für OpenAI, nur einen Akteur in einem wachsenden Universum von Unternehmen, die fortschrittliche generative KI-Tools entwickeln. Das Unternehmen, das die Schritte am Montag bekannt gab, sagte, es plane, „unsere Arbeit an der Plattformsicherheit fortzusetzen, indem wir genaue Abstimmungsinformationen verbessern, maßvolle Richtlinien durchsetzen und die Transparenz verbessern“.

Es hieß, es werde Menschen verbieten, ihre Technologie zu nutzen, um Chatbots zu erstellen, die sich als echte Kandidaten oder Regierungen ausgeben, um die Funktionsweise der Stimmabgabe falsch darzustellen oder um Menschen von der Stimmabgabe abzuhalten. Es hieß, dass es seinen Nutzern nicht gestatten werde, Anwendungen für politische Kampagnen- oder Lobbying-Zwecke zu erstellen, bis die Überzeugungskraft seiner Technologie weiter erforscht sei.

Siehe auch  Metas neuer Skelettsimulator „MyoSuite“ zur Entwicklung von Prothesen

Ab „Anfang dieses Jahres“, sagte OpenAI, werde es KI-Bilder, die mit seinem DALL-E-Bildgenerator erstellt wurden, mit einem digitalen Wasserzeichen versehen. Dadurch wird der Inhalt dauerhaft mit Informationen über seine Herkunft gekennzeichnet, sodass leichter erkannt werden kann, ob ein an anderer Stelle im Web angezeigtes Bild mit dem KI-Tool erstellt wurde.

Das Unternehmen sagte außerdem, dass es mit der National Association of Secretary of State zusammenarbeitet, um ChatGPT-Benutzer, die logistische Fragen zur Stimmabgabe stellen, auf genaue Informationen auf der überparteilichen Website dieser Gruppe, CanIVote.org, hinzuweisen.

Mekela Panditharatne, Beraterin im Demokratieprogramm des Brennan Center for Justice, sagte, die Pläne von OpenAI seien ein positiver Schritt zur Bekämpfung von Wahlfehlinformationen, aber es werde davon abhängen, wie sie umgesetzt würden.

„Wie umfassend und umfassend werden beispielsweise die Filter sein, wenn Fragen zum Wahlprozess gestellt werden?“ sagte sie. „Wird es Gegenstände geben, die durch die Ritzen rutschen?“

ChatGPT und DALL-E von OpenAI gehören zu den bislang leistungsstärksten generativen KI-Tools. Aber es gibt viele Unternehmen mit ähnlich ausgereifter Technologie, die nicht über so viele Schutzmaßnahmen gegen Fehlinformationen bei Wahlen verfügen.

Während einige Social-Media-Unternehmen wie YouTube und Meta Richtlinien zur KI-Kennzeichnung eingeführt haben, bleibt abzuwarten, ob sie in der Lage sein werden, Verstöße konsequent zu fangen.

„Es wäre hilfreich, wenn andere generative KI-Unternehmen ähnliche Richtlinien übernehmen würden, damit praktische Regeln branchenweit durchgesetzt werden könnten“, sagte Darrell West, Senior Fellow am Center for Technology Innovation der Brooking Institution.

Ohne die freiwillige Einführung solcher Richtlinien in der gesamten Branche wäre eine Regulierung der durch KI erzeugten Desinformation in der Politik gesetzlich erforderlich. In den USA hat der Kongress trotz einiger parteiübergreifender Unterstützung noch kein Gesetz verabschiedet, das die Rolle der Branche in der Politik regeln soll. Mittlerweile haben mehr als ein Drittel der US-Bundesstaaten Gesetze zur Bekämpfung von Deepfakes in politischen Kampagnen verabschiedet oder eingeführt, während die Bundesgesetzgebung ins Stocken gerät.

Siehe auch  OpenAI steigert ChatGPT mit 70 Plugins und vollständigem Webzugriff: Wie kann ich darauf zugreifen?

Sam Altman, CEO von OpenAI, sagte, dass er trotz aller Sicherheitsvorkehrungen seines Unternehmens nicht beruhigt sei.

„Ich denke, es ist gut, dass wir große Sorgen haben und alles tun werden, um es so gut wie möglich hinzubekommen“, sagte er während eines Interviews am Dienstag bei einer Bloomberg-Veranstaltung während des Weltwirtschaftsforums in Davos, Schweiz. „Wir müssen das dieses Jahr unglaublich genau beobachten. Super engmaschige Überwachung. Super enge Feedbackschleife.“ ___

Die Associated Press erhält Unterstützung von mehreren privaten Stiftungen, um ihre erklärende Berichterstattung über Wahlen und Demokratie zu verbessern. Weitere Informationen zur Demokratieinitiative von AP finden Sie hier. Für sämtliche Inhalte ist allein der AP verantwortlich.

Anzeige