Ein ganz neues Subgenre schrecklicher „True Crime“-Inhalte bahnt sich an Tick ​​Tack. Die dortigen Plakate verwenden auf „künstliche Intelligenz“ basierende Medienerstellungstools, um gefälschte Videos zu erstellen, die angeblich echte Mordopfer, oft Kinder, zeigen, die grausige Details darüber erzählen, wie sie getötet wurden. Schlimmer noch: Diese KI-generierten digitalen Albträume erfreuen sich immer größerer Beliebtheit, verzeichnen Millionen von Aufrufen und nutzen gleichzeitig echte Opfer aus.

Wir haben viel darüber geschrieben KI-generierte Inhalte auf dieser Website und berichtete, wie schnell es zu einer zerstörerischen Kraft in der Welt wird. Schon jetzt verlieren Menschen ihren Job während unethische Unternehmen darum wetteifern, KI-Technologie zu nutzen, um so viele Menschen wie möglich durch verherrlichte Chatbots zu ersetzen. Ich war also schon fest in der „KI-generierte Inhalte sind schlecht”Camp, bevor mir ein neuer Bericht zeigte, wie viel schlimmer es noch kommen kann, wenn einige Leute die umstrittene Technologie nutzen, um tote Menschen wiederzubeleben, um die Aufrufe in den sozialen Medien zu steigern.

Wie berichtet von Rollender Stein Am Mittwoch, diese KI-generierten True-Crime-Nachbildungen explodieren auf TikTok. Ich habe eine schnelle Suche durchgeführt und viel zu viele gefunden, die über 100.000 Aufrufe hatten. Manche hatten sogar noch mehr. Ich habe ein Video eines KI-generierten Jungen gefunden, der mit einer unmenschlichen Roboterstimme in grausigen und erschreckenden Details beschreibt, wie er von seinem Vater gefoltert und ermordet wurde. Es hatte über zwei Millionen Aufrufe. Ich werde sie nicht verlinken, da dies zu den schlimmsten Dingen gehört, die ich seit langem gesehen habe, aber man kann sie sehr leicht finden. Ich würde es aber nicht tun. Vertrau mir.

Siehe auch  Die großen Scoreboard-Updates von Overwatch 2 Beta, erklärt

Konten, die diesen Inhalt auf TikTok veröffentlichen, haben Tausende von Followern und Millionen von Likes und veröffentlichen scheinbar täglich neue Videos von KI-Opfern. Es gibt mehrere Konten, die solche Videos veröffentlichen, darunter auch einige mit Erwachsenen und berühmten Politikern wie JFK. Aber in den meisten der beliebtesten sind Kinder zu sehen.

Rollender Stein weist darauf hin, wie oft in diesen Videos falsche Angaben gemacht werden, einschließlich der Rasse, des Alters und der Namen der Opfer, die diese Inhaltsersteller angeblich „ehren“. Bei einigen dieser falschen Angaben könnte es sich um echte Fehler handeln, bei anderen wird spekuliert, dass sie absichtlich falsch seien, um sie zu umgehen Die neuen Regeln von TikTok gegen KI-gestützte Deepfakes von nicht berühmten Personen und Kindern.

Die Debatte um „wahre Kriminalität“-Inhalte

Seit Jahren tun es Menschen (ich eingeschlossen). stellte die Popularität von Podcasts, Fernsehsendungen und Filmen über wahre Kriminalität in Frage. Richtig gehandhabt, kann wahre Kriminalität Einblicke in die dunkleren Seiten der Menschheit gewähren oder Geschichten erzählen, die andernfalls von der Polizei oder den Mächtigen vertuscht würden.

Aber allzu oft werden bei echten Kriminalinhalten die Opfer und ihre Familienangehörigen ausgenutzt, während aus den Tätern Stars gemacht werden. Dieser neueste Trend, KI-generierte Nachbildungen getöteter Kinder zu nutzen, um noch grausamere Inhalte zu erstellen, wird wahrscheinlich noch mehr Kontroversen um das problematische Genre und seine Fans auslösen.

Persönlich würde ich Ihnen raten, nicht danach zu suchen. Die TikTok-Videos, die ich sah, als ich mir das anschaute, brachten mir Magenverstimmung. Es ist schrecklicher Scheiß und ein dunkles Zeichen dafür, dass KI-generierte Inhalte gerade dann, wenn man denkt, dass sie nicht noch schlimmer werden können, es tun, und zwar auf eine neue Art und Weise, wie man es sich nie hätte vorstellen können. Es gibt wirklich kein Entrinnen aus diesem Höllenzug, oder?

Siehe auch  Tears of the Kingdom-Fans finden Beweise für unveröffentlichtes Amiibo
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein