chatgpt und generative KI-Tools führen möglicherweise Krieg gegen Deepfakes und sexuell eindeutige Inhalte, doch Cyberkriminelle finden immer Wege, die Nutzungsbedingungen zu umgehen. Kürzlich berichtet Der Wächterein Sexualstraftäter wurde wegen der Durchführung eines verhaftet Tausend kinderpornografische Bilder dank künstlicher Intelligenz. Mit 48 Jahren erhielt der Brite eine beispiellose Sanktion: Zusätzlich zu einer Gemeinschaftsverfügung und einer Geldstrafe von 200 Pfund verurteilte ihn das Gericht tatsächlich dazu Es ist verboten, Bild- oder Textgenerierungstools zu verwenden. für einen Zeitraum von mindestens fünf Jahren ohne ausdrückliche vorherige Genehmigung der Polizei.

Die Entscheidung gilt insbesondere für Deepfake-Tools, die bestimmte Fotos entfernen können, gilt in Wirklichkeit jedoch für alle generativen KI-Tools wie ChatGPT, midjourney oder sogar Meta AI. Zu den vorhandenen Tools gehört es Stabile Diffusion, die besonders hervorgehoben wirdfür seine Fähigkeit, ultrarealistisches Material über sexuellen Kindesmissbrauch zu erstellen.

Ein erster Schritt zum Verbot von Deepfakes

Letzte Woche hat die britische Regierung es für illegal erklärt, sexuell eindeutige Deepfakes ohne Zustimmung der (erwachsenen) betroffenen Person zu erstellen. Gleichzeitig ist der Besitz und die Weitergabe von pornografischem Material mit Minderjährigen bereits seit den 1990er Jahren verboten. Den Fotos wurden dann Fotomontagen und realistische Bilder hinzugefügt, die mit digitalen Werkzeugen erstellt wurden. Es war daher logisch, dass die generative KI denselben Weg einschlagen würde, aber auch denselben Verboten unterliegen würde. „Wir hoffen, dass die Klagen eine klare Botschaft an diejenigen senden, die diese Inhalte erstellen und verbreiten: Sie sind illegal„, betonte Susie Hargreaves, Geschäftsführerin der Internet Watch Foundation (IWF). Im Moment ist die Kinderkriminalitätsanzeigen im Zusammenhang mit KI bleiben in der Minderheitaber die Fälle kommen immer häufiger vor und der technische Fortschritt macht es möglich, falsche Bilder zu erzeugen, die immer schwieriger von den echten zu unterscheiden sind.

Siehe auch  Was ist Suno? Der „ChatGPT für Musik“ generiert Songs in Sekundenschnelle

Letztes Jahr meldete die Internet Watch Foundation einen Fund 2.562 künstliche Kindesmissbrauchsbilder in Dark-Web-Foren. Letztere seien „so realistisch“, dass sie es verdient hätten, wie klassisches Kinderpornografiematerial behandelt zu werden, meint die Stiftung. Stable Diffusion stellt seinerseits sicher, dass die über sein Tool generierten pornografischen Veröffentlichungen auf eine alte Version seiner Plattform zurückzuführen sind. Seit 2022 investiert das Unternehmen nach eigenen Angaben in Funktionen zur Verhinderung von Missbrauch, darunter „Filter zum Abfangen gefährlicher Eingabeaufforderungen und Ausgaben“.

🟣 Um keine Neuigkeiten im Journal du Geek zu verpassen, abonnieren Sie google.com/publications/CAAqBwgKMNr_hAswwYyCAw?hl=fr&gl=FR&ceid=FR%3Afr“ target=“_blank“>Google Nachrichten. Und wenn Sie uns lieben, haben wir jeden Morgen einen Newsletter.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein