Wenn Sie dachten, es sei schwierig, Deepfakes auf TikTok zu erzählen, werden die Verwirrung und Fehlinformationen nur noch schlimmer. Sam Altman von OpenAI hat bestätigt, dass chatgpt innerhalb der nächsten zwei Jahre Tools zur Videoerstellung erhalten wird.

Auf der Entwirre mich Podcast (via Toms Führer) mit Bill Gates diskutierte Altman über die Zukunft von ChatGPT. Auf die Frage nach den Plänen des Unternehmens für die nächsten zwei Jahre erklärte Altman, dass „Multimodalität auf jeden Fall wichtig sein wird … Sprache rein, Sprache raus, Bilder, schließlich Video. Offensichtlich wollen die Leute das.“

Wie es funktioniert

Altman ging nicht näher darauf ein, wie die Videoerstellung in ChatGPT funktionieren würde oder wann es starten würde, aber wir können basierend auf dem vorhandenen Format des KI-Tools eine Vermutung anstellen. Benutzer müssten lediglich eine Beschreibung dessen eingeben, was sie sehen möchten, und ChatGPT würde ein von der KI generiertes Video zurückspucken.

Es gibt natürlich einige große Vorteile, wenn die Erstellung von Videos noch einfacher wird. Da Videos zum Rückgrat der sozialen Medien werden, möchten immer mehr Menschen Videoinhalte erstellen. Die Vereinfachung dieses Prozesses bringt natürlich eine Reihe von Vorteilen für Entwickler aller Erfahrungsstufen mit sich.

Das Deepfake-Problem

Obwohl dieses Tool nicht grundsätzlich schlecht ist, kann es dennoch missbraucht werden. Wie wir bereits bei Bildgeneratoren wie Dall-E und midjourney gesehen haben, sind Deepfakes von Prominenten und politischen Persönlichkeiten einfach zu erstellen. Sogar mitten auf der Reise stoppte kostenlose Testversionen wegen viraler Deepfakes erst letztes Jahr.

Deepfakes sind auf Social-Media-Plattformen von TikTok bis Facebook bereits ein großes Problem. Der Schweregrad dieser Deepfakes reicht von gefälschte Promi-Tanzvideos Zu gefälschte politische Anzeigen. Die einfachere Erstellung von Videos als je zuvor wird das Fehlinformationsproblem nur verschlimmern, da die Eintrittsbarriere für Deepfakes durch den Einsatz eines Tools wie ChatGPT erheblich gesenkt wird.

Siehe auch  ChatGPT wird in mehr als 35.000 französischen Medienartikeln zitiert – Bild

Wie wir in den letzten Jahren gelernt haben, Fehlinformationen verbreiten sich sehr schnell online und es wird schwieriger, es zu widerlegen, je mehr es verbreitet wird. Während wir darüber geschrieben haben, wie man KI-Inhalte online erkennt, werden diese Tools mit der Zeit immer besser und schwerer zu erkennen sein, was bedeutet, dass die Menschen noch wachsamer sein müssen, welche Inhalte sie konsumieren.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.