Mehrere große Unternehmen, die sich mit generativer künstlicher Intelligenz beschäftigen, haben gegenüber dem Weißen Haus Zusagen gemacht. Sie möchten eine Technologie entwickeln, um die von ihren Tools generierten Inhalte zu identifizieren. Die Art und Weise, wie es funktionieren wird, bleibt im Moment noch recht vage.

chatgpt.jpg“ class=“article-content__figure article-content__figure“>midjourney“ width=“1200″ height=“800″ srcset=“https://images.frandroid.com/wp-content/uploads/2023/03/open-ai-chatgpt-1200×800.jpg 1200w, https://images.frandroid.com/wp-content/uploads/2023/03/open-ai-chatgpt-768×512.jpg 768w, https://images.frandroid.com/wp-content/uploads/2023/03/open-ai-chatgpt-928×619.jpg 928w, https://images.frandroid.com/wp-content/uploads/2023/03/open-ai-chatgpt-300×200.jpg 300w“ sizes=“(max-width: 1200px) 100vw, 1200px“/>
Gpt-4 Entworfen Von Midjourney // Quelle: Midjourney Von Frandroid

Eine der großen Gefahren generativer KI besteht darin, dass sie Bürger irreführen kann: Dies ist die Beobachtung aller öffentlichen Verwaltungen auf der Welt. Darüber hinaus erwägen sie die Einführung von Pflichten für Unternehmen, die KI-Tools vermarkten. Als Reaktion darauf engagieren sich diese zunehmend für mehr Transparenz bei den generierten Inhalten. Dies ist der Fall bei OpenAI, Microsoft, google, Meta, Amazon, Anthropic und Inflection. Diese sieben Unternehmen haben mit der Biden-Harris-Regierung eine freiwillige Zusage unterzeichnet, „die Entwicklung einer verantwortungsvollen KI».

Große Unternehmen verpflichten sich zu mehr Transparenz bei den von ihren KIs generierten Inhalten

In ein StatementDas Weiße Haus berichtete, dass diese sieben Unternehmen zusammen mit der Biden-Harris-Regierung eine Vereinbarung unterzeichnet haben, in der sie sich freiwillig zu diesen ersten Verpflichtungen verpflichten.zur sicheren und transparenten Entwicklung der KI-Technologie beizutragen.„Für die US-Regierung“Unternehmen, die diese neuen Technologien entwickeln, tragen die Verantwortung dafür, dass ihre Produkte sicher sind.Also drei Schlagworte: Sicherheit, Geborgenheit und Vertrauen.

Intelligence Artificielle Micros 2 Watermarked Midjourney
Zwei Kis, Dargestellt Durch Roboter, Konkurrieren Gegeneinander // Quelle: Bild Erstellt Von Frandroid Mit Midjourney

Die Idee dieser Vereinbarung besteht darin, den Austausch von Texten, Bildern, Videos und Tönen zu kontrollieren, die von KIs generiert werden. Wie OpenAI weiter schreibt Sie sind Blog«Unternehmen, die sich zu diesem Engagement verpflichten, sind sich darüber im Klaren, dass KI-Systeme auch nach einer gründlichen Analyse weiterhin Schwächen und Schwachstellen aufweisen können» und allgemeiner, nachdem sie auf den Markt gebracht wurden. Es muss authentifiziert werden, dass diese Inhalte von einem Tool und nicht von einem Menschen generiert wurden, um die Bürger nicht in die Irre zu führen. Im Sucher des Weißen Hauses ist das „Deepfakes„Videos, die es beispielsweise ermöglichen, Präsident Joe Biden zu sagen, was Sie wollen.

Siehe auch  TV-Schöpfer unterzieht ChatGPT einem Streikposten-Schildertest – The Hollywood Reporter

Dieser wird diese Unternehmen mit dem Kongress treffen, um sie zu befragen. Ziel ist die Ausarbeitung eines Erlasses sowie eines Gesetzestextes zur besseren Kontrolle der KI. Joe Biden hat bereits eine Durchführungsverordnung unterzeichnet, die anordnet: „Bundesbehörden sollen Voreingenommenheit bei der Gestaltung und Nutzung neuer Technologien, einschließlich KI, beseitigen und die Öffentlichkeit vor algorithmischer Diskriminierung schützen.»

Wie zum „Wasserzeichen» Kontrolle wird funktionieren: Es ist noch nicht klar

Die betroffenen Unternehmen beabsichtigen, sich für eine „Wasserzeichen», eine Markierung, die auf allen Inhalten angebracht ist, sodass sie als solche gekennzeichnet sind. Es muss angegeben werden, welches KI-Tool während der Generierung verwendet wurde. Die US-Regierung begrüßt diese Initiative und stellt fest, dass „Diese Maßnahme ermöglicht es, die Kreativität in der KI zu entfalten und gleichzeitig das Risiko von Betrug und Täuschung zu verringern.»

Intelligence Artificielle Micros Watermarked Midjourney
Zwei Kis, Dargestellt Durch Roboter, Konkurrieren Gegeneinander // Quelle: Bild Erstellt Von Frandroid Mit Midjourney

Eine konkrete technische Lösung wurde jedoch nicht genannt. Erste Schritte wurden von einigen Unternehmen bereits unternommen, allerdings im Einzelfall. ArsTechnica berichtet über die Geschichte einer vorgetäuschten Verhaftung von Donald Trump anhand gefälschter Aufnahmen von Midjourney, die sich viral verbreitet haben. Das gleichnamige Labor verbot den Gründer der NGO Bellingcat Eliot Higgins, wer sie erschaffen hat.

Was OpenAI beispielsweise erwähnt, ist die Implementierung von Tools oder APIs.um festzustellen, ob ein bestimmtes Inhaltselement erstellt wurdemit einem KI-System. Zwischen den Zeilen verstehen wir, dass wir, wenn wir beispielsweise einen Artikel im Internet lesen, OpenAI fragen könnten, ob er von ChatGPT geschrieben wurde. Das Gleiche gilt für Midjourney: Ein Rückwärtssuchsystem wäre verfügbar, um herauszufinden, ob das betreffende Bild von dieser KI erzeugt wurde. Diese Systeme enthalten keine Informationen über den Benutzer, der den Inhalt erstellt hat.

Siehe auch  ScholarAI: Ein bahnbrechendes ChatGPT-Plug-in für Journalisten
Openai Chatgpt
Emiliano Vittoriosi Auf Unsplash

Auf der Seite von Google, auf Sie sind Blog Das Unternehmen sagt, es wolle bald ein Wasserzeichen und Metadaten in seine generativen Tools integrieren. Ein Knopf „Zu diesem Bildwird der Suchmaschine hinzugefügt, um den Kontext eines Bildes sowie den Zeitpunkt seiner ersten Online-Veröffentlichung zu erfahren.

Die anderen von den Machern generativer KIs geplanten Maßnahmen

Zusätzlich zur zukünftigen Implementierung dieser Wasserzeichen haben OpenAI, Microsoft, Google, Meta, Amazon, Anthropic und Inflection vereinbart, vor ihrer öffentlichen Verfügbarkeit systematisch interne und externe Tests durchzuführen. Sie werden von unabhängigen Experten durchgeführt. Alle sagten außerdem, dass sie mehr in die Cybersicherheit investieren und dass die Meldung von Schwachstellen verstärkt werde. Den letzten Punkt werden die betroffenen Unternehmen umsetzenPrämiensysteme, Wettbewerbe oder Preise, um Anreize für die verantwortungsvolle Offenlegung von Schwachstellen wie unsicherem Verhalten zu schaffen».

Chatgpt Interface
Die Chatgpt-Schnittstelle // Quelle: Frandroid

Auch diese Unternehmenverpflichten uns, Informationen zum KI-Risikomanagement mit der breiteren Industrie, Regierungen, der Zivilgesellschaft und der Wissenschaft zu teilen“, präzisiert das Weiße Haus. Dazu gehört die Berichterstattung über die Fähigkeiten, Einschränkungen, angemessenen und unangemessenen Einsatzbereiche und gesellschaftlichen Risiken (Auswirkungen auf Gerechtigkeit und Voreingenommenheit) von KI.

Konsequenzen für die KI weltweit

Darüber hinaus hat die Biden-Harris-Regierung angekündigt, mit Partnerregierungen zusammenzuarbeiten.einen starken internationalen Rahmen für die Entwicklung und Nutzung von KI zu schaffen.Zu den Ländern, mit denen sie gesprochen hat, gehören Deutschland, Australien, Brasilien, Kanada, Chile, Südkorea, Vereinigte Arabische Emirate, Frankreich, Indien, Israel, Italien, Japan, Kenia, Mexiko, Neuseeland, Nigeria, Niederlande, Philippinen, Singapur und das Vereinigte Königreich. Die US-Regierung gibt außerdem an, mit den Vereinten Nationen und ihren Mitgliedsstaaten Gespräche zu führen.

Siehe auch  10 ChatGPT-Alternativen und Konkurrenten (kostenlos und kostenpflichtig)
Emmanuel Macron Et Joe Biden
Us-Präsident Joe Biden Neben Emmanuel Macron // Quelle: Das Weiße Haus

Diese Diskussionen fanden parallel zur Entwicklung des KI-Gesetzes statt, einem Rechtsakt der Europäischen Union. Es enthält auch Vorschriften zu generativen KIs. Das Parlament und der Rat der Europäischen Union möchten, dass der endgültige Text vor 2024 verabschiedet wird.


Nutzen Sie Google News (Nachrichten in Frankreich)? Sie können Ihren Lieblingsmedien folgen. Folgen Frandroid auf Google News (usw Numerama).

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein