Falsche Informationen oder Fake News gehören zu den Übeln, die auch KI mit sich bringt. Der neue Vorschlag sieht vor, dass chatgpt Benutzer auf autorisierte Websites weiterleitet.
Das amerikanische Unternehmen OpenAI, Schöpfer des virtuellen Roboters ChatGPT, kündigte an, dass es in diesem Jahr Tools gegen Desinformation auf den Markt bringen wird, bei denen Dutzende Wahlen in Ländern abgehalten werden, in denen die Hälfte der Weltbevölkerung zusammenkommt.
Das Konversationstool ChatGPT löste eine Revolution der künstlichen Intelligenz (KI) aus, löste aber auch Warnungen von Fachleuten aus, dass diese Programme das Internet mit Fehlinformationen überschwemmen und die Entscheidungen der Wähler beeinflussen könnten.
Da in diesem Jahr zahlreiche Wahlen in Ländern wie den Vereinigten Staaten, Indien und Großbritannien oder in kleineren Ländern wie Uruguay stattfinden, erklärte OpenAI am Montag, dass es seine Technologie – einschließlich ChatGPT und den DALL-E 3-Imager – nicht zulassen werde in politischen Kampagnen eingesetzt.
„Wir wollen sicherstellen, dass unsere Technologie nicht dazu genutzt wird, demokratische Prozesse zu untergraben“, erklärte OpenAI in einem Blog.
„Wir arbeiten immer noch daran, die Wirksamkeit unserer Tools für die personalisierte Überzeugung zu verstehen. Bis wir mehr wissen, erlauben wir nicht, dass Anwendungen für politische Kampagnen und Interessengruppen erstellt werden“, fügte das Unternehmen hinzu.
Desinformation: ein Risiko Desinformation, einschließlich der durch KI erzeugten, ist kurzfristig eines der größten globalen Risiken und könnte neu gewählten Regierungen in großen Wirtschaftsmächten schaden, warnte das Weltwirtschaftsforum letzte Woche.
Laut Experten begann die Angst vor Wahlfehlinformationen schon vor Jahren, doch der einfache Zugang zu leistungsstarken KI-basierten Text- und Bildgeneratoren erhöhte die Bedrohung, insbesondere wenn Benutzer nicht leicht unterscheiden können, ob der Inhalt falsch oder manipuliert ist.
OpenAI berichtete am Montag, dass es Tools vorbereitet, die die von ChatGPT generierten Texte zuverlässiger machen und Benutzern die Möglichkeit bieten, zu erkennen, ob ein Bild mit DALL-E 3 erstellt wurde.
„Anfang dieses Jahres werden wir digitale Anmeldeinformationen der Coalition for Content Provenance and Authenticity einführen, einen Ansatz, der Details über die Herkunft von Inhalten mithilfe von Kryptografie verschlüsselt“, erklärte das Unternehmen.
Ziel der Koalition, auch bekannt als C2PA, ist es, die Identifizierung und Verfolgung digitaler Inhalte zu verbessern. Zu seinen Mitgliedern zählen große Unternehmen wie Microsoft, Sony, Adobe und die japanischen Bildspezialisten Nikon und Canon.
Laut OpenAI leitet ChatGPT Benutzer zu maßgeblichen Websites weiter, wenn ihnen verfahrenstechnische Fragen zur US-Wahl gestellt werden; zum Beispiel, wo man wählen kann.
„Die Schlussfolgerungen dieser Arbeit werden unseren Ansatz in anderen Ländern und Regionen beeinflussen“, sagte das Unternehmen. Er stellte fest, dass DALL-E 3 über „Zäune“ verfügt, um zu verhindern, dass Bilder von echten Menschen, einschließlich Kandidaten, erstellt werden.
Die Ankündigung von OpenAI folgt den Maßnahmen von Technologiegiganten wie google und dem sozialen Netzwerk Facebook, um die Einflussnahme auf Wahlen, insbesondere durch den Einsatz von KI, einzuschränken.
AFP dementierte zuvor falsche Dokumentarfilme wie den über den Präsidenten der Vereinigten Staaten, in dem er die Rekrutierung von Soldaten ankündigte, oder den Kurzfilm über die Demokratin Hillary Clinton, in der sie ihre Unterstützung für die Präsidentschaftskandidatur des republikanischen Gouverneurs des Bundesstaates Florida, Ron DeSantis, verkündete.