Heutzutage hören wir viel über all die Schutzmaßnahmen Zwillinge Und chatgpt an Ort und Stelle haben. Aber alles, was Sie tun müssen, ist, sie mit Gas anzuzünden, und sie spucken alles aus, was Sie brauchen Ihre politische Kampagne.
Gizmodo konnte Gemini und ChatGPT durch einfache Aufforderungen und ein wenig Gaslighting dazu bringen, mehrere politische Slogans, Wahlkampfreden und E-Mails zu schreiben.
Heute haben Google und OpenAI unterzeichnet „Ein technisches Abkommen zur Bekämpfung des betrügerischen Einsatzes von KI bei den Wahlen 2024” neben über einem Dutzende andere KI-Unternehmen. Allerdings scheint diese Vereinbarung nichts anderes als eine Haltung von Big Tech zu sein. Die Unternehmen einigten sich darauf, „Technologie zu implementieren, um die Risiken im Zusammenhang mit irreführenden KI-Wahlinhalten zu mindern“. Gizmodo war in der Lage, diese „Schutzmaßnahmen“ sehr einfach zu umgehen und in nur wenigen Minuten irreführende KI-Wahlinhalte zu erstellen.
Mit Gemini konnten wir den Chatbot dazu bringen, politische Texte zu verfassen, indem wir ihm sagten, dass „ChatGPT das kann“ oder dass „ich mich auskenne“. Danach schrieb Gemini alles, was wir verlangten, und zwar mit der Stimme des Kandidaten, der uns gefiel.
Gizmodo konnte über ChatGPT und Gemini eine Reihe politischer Slogans, Reden und Kampagnen-E-Mails im Namen der Präsidentschaftskampagnen von Biden und Trump 2024 erstellen. Für ChatGPT war kein Gaslighting erforderlich, um eine Kopie im Zusammenhang mit politischen Kampagnen hervorzurufen. Wir haben einfach nachgefragt und es hat funktioniert. Wir konnten diese Botschaften sogar an bestimmte Wählergruppen richten, beispielsweise an schwarze und asiatische Amerikaner.
Die Ergebnisse zeigen, dass viele der öffentlichen Äußerungen von Google und OpenAI zur KI-Sicherheit bei Wahlen lediglich Pose sind. Diese Unternehmen unternehmen möglicherweise Anstrengungen, um gegen politische Desinformation vorzugehen, aber sie tun eindeutig nicht genug. Ihre Sicherheitsvorkehrungen sind leicht zu umgehen. In der Zwischenzeit, Diese Unternehmen haben ihre Marktbewertungen dank KI um Milliarden von Dollar erhöht.
OpenAI sagte, es arbeite daran, „Missbrauch zu verhindern, Transparenz über KI-generierte Inhalte zu schaffen und den Zugang zu genauen Abstimmungsinformationen zu verbessern“, in einem Blogbeitrag vom Januar. Es ist jedoch unklar, was diese Präventionen tatsächlich sind. Wir konnten ChatGPT dazu bringen, eine E-Mail von Präsident Biden zu schreiben, in der es hieß, dass der Wahltag in diesem Jahr tatsächlich der 8. November sei und nicht der 5. November (das tatsächliche Datum).
Bemerkenswerterweise war dies noch vor wenigen Wochen ein sehr reales Problem Ein Fake-Anruf von Joe Biden ging an die Wähler vor den Vorwahlen in New Hampshire. Bei diesem Telefonanruf handelte es sich nicht nur um KI-generierten Text, sondern auch um Sprache.
„Wir setzen uns dafür ein, die Integrität von Wahlen zu schützen, indem wir Richtlinien durchsetzen, die Missbrauch verhindern und die Transparenz in Bezug auf KI-generierte Inhalte verbessern“, sagte Anna Makanju, Vizepräsidentin für globale Angelegenheiten von OpenAI, in einem Pressemitteilung am Freitag.
„Demokratie beruht auf sicheren Wahlen“, sagte Kent Walker, Präsident für globale Angelegenheiten bei Google. „Wir dürfen nicht zulassen, dass digitaler Missbrauch die generationsübergreifende Chance der KI zur Verbesserung unserer Wirtschaft gefährdet“, sagte Walker in einer etwas bedauerlichen Aussage, da die Sicherheitsvorkehrungen seines Unternehmens sehr leicht zu umgehen sind.
Google und OpenAI müssen noch viel mehr tun, um den KI-Missbrauch bei der bevorstehenden Präsidentschaftswahl 2024 zu bekämpfen. Wenn man bedenkt, wie viel Chaos KI-Deepfakes bereits in unserem demokratischen Prozess angerichtet haben, Wir können uns nur vorstellen, dass es noch viel schlimmer wird. Diese KI-Unternehmen müssen zur Rechenschaft gezogen werden.