Haben Sie sich jemals von einem gefälschten Bild täuschen lassen, das von einer künstlichen Intelligenz wie midjourney oder Dall-E generiert wurde? Vielleicht das Foto von Papst Franziskus in einer Luxus-Daunenjacke? Oder die Verhaftung von Donald Trump mitten in New York?
Wenn ja, hätte Sie ein einfacher Trick alarmieren können: die Hände. Denn auf diesen KI-generierten Bildern sind die Finger oft zu zahlreich oder auf unwahrscheinliche Weise gebogen. Das ist noch nicht alles, andere anatomische Aberrationen oder inkohärente Texte verraten diese Programme. Dank dieser Hinweise können wir Täuschungen aufdecken.
Doch können diese technischen Mängel einen dauerhaften Schutz vor den Risiken von Fehlinformationen bieten? Und wie sind die vielen Fragen zu verstehen, die diese neuen Tools aufwerfen? Um dies zu beantworten, müssen wir uns für die Funktionsweise dieser Software interessieren, die in der Lage ist, mit wenigen Klicks Bilder zu erzeugen.
Erklärung in diesem Video, mit Hilfe von chatgpt.
Quellen:
- „Tiefes unüberwachtes Lernen unter Verwendung der Nichtgleichgewichts-Thermodynamik“,Jascha Sohl-Dickstein, Eric A. Weiss, Niru Maheswaranathany, Surya Ganguli (2015).
- „DALL·E 2 Abhilfemaßnahmen vor dem Training“,OpenAI (2022).
- „Fotorealistische Text-zu-Bild-Diffusionsmodelle mit tiefem Sprachverständnis“, google-Forschung (2022).
- „Entrauschende Diffusions-Wahrscheinlichkeitsmodelle“,Jonathan Ho, Ajay Jain, Pieter Abbeel (2020)
- „Point·E: ein System zur Generierung von 3D-Punktwolken aus komplexen Eingabeaufforderungen“,Alex Nichol, Heaven Jun, Prafulla Dhariwal, Pamela Mishkin, Mark Chen (2022).
- Beispieldatenbanken von diesen Algorithmen verwendet.
Beitragen
Der Beitragsbereich ist Abonnenten vorbehalten.
Abonnieren Sie, um auf diesen Diskussionsbereich zuzugreifen und zur Diskussion beizutragen.