Wenn Sie dachten, es sei schwierig, Deepfakes auf TikTok zu erzählen, werden die Verwirrung und Fehlinformationen nur noch schlimmer. Sam Altman von OpenAI hat bestätigt, dass chatgpt innerhalb der nächsten zwei Jahre Tools zur Videoerstellung erhalten wird.
Auf der Entwirre mich Podcast (via Toms Führer) mit Bill Gates diskutierte Altman über die Zukunft von ChatGPT. Auf die Frage nach den Plänen des Unternehmens für die nächsten zwei Jahre erklärte Altman, dass „Multimodalität auf jeden Fall wichtig sein wird … Sprache rein, Sprache raus, Bilder, schließlich Video. Offensichtlich wollen die Leute das.“
Wie es funktioniert
Altman ging nicht näher darauf ein, wie die Videoerstellung in ChatGPT funktionieren würde oder wann es starten würde, aber wir können basierend auf dem vorhandenen Format des KI-Tools eine Vermutung anstellen. Benutzer müssten lediglich eine Beschreibung dessen eingeben, was sie sehen möchten, und ChatGPT würde ein von der KI generiertes Video zurückspucken.
Es gibt natürlich einige große Vorteile, wenn die Erstellung von Videos noch einfacher wird. Da Videos zum Rückgrat der sozialen Medien werden, möchten immer mehr Menschen Videoinhalte erstellen. Die Vereinfachung dieses Prozesses bringt natürlich eine Reihe von Vorteilen für Entwickler aller Erfahrungsstufen mit sich.
Das Deepfake-Problem
Obwohl dieses Tool nicht grundsätzlich schlecht ist, kann es dennoch missbraucht werden. Wie wir bereits bei Bildgeneratoren wie Dall-E und midjourney gesehen haben, sind Deepfakes von Prominenten und politischen Persönlichkeiten einfach zu erstellen. Sogar mitten auf der Reise stoppte kostenlose Testversionen wegen viraler Deepfakes erst letztes Jahr.
Deepfakes sind auf Social-Media-Plattformen von TikTok bis Facebook bereits ein großes Problem. Der Schweregrad dieser Deepfakes reicht von gefälschte Promi-Tanzvideos Zu gefälschte politische Anzeigen. Die einfachere Erstellung von Videos als je zuvor wird das Fehlinformationsproblem nur verschlimmern, da die Eintrittsbarriere für Deepfakes durch den Einsatz eines Tools wie ChatGPT erheblich gesenkt wird.
Wie wir in den letzten Jahren gelernt haben, Fehlinformationen verbreiten sich sehr schnell online und es wird schwieriger, es zu widerlegen, je mehr es verbreitet wird. Während wir darüber geschrieben haben, wie man KI-Inhalte online erkennt, werden diese Tools mit der Zeit immer besser und schwerer zu erkennen sein, was bedeutet, dass die Menschen noch wachsamer sein müssen, welche Inhalte sie konsumieren.