Sie können chatgpt-Bilder jetzt wie Photoshop bearbeiten. Eine sehr interessante und nützliche neue Funktion, die jedoch schnell an ihre Grenzen stößt.
Heutzutage gibt es viele KI-Bildgeneratoren. Dadurch können sehr realistische Bilder erstellt werden. Diese Tools werden immer leistungsfähiger und verfügen über immer mehr Funktionen. Die Abonnenten ChatGPT Neuerdings gibt es die Möglichkeit, bestimmte Bereiche eines Bildes zu retuschieren, wie man es mit Photoshop tun würde. Es ist nicht erforderlich, das gesamte Bild neu zu generieren, um ein bestimmtes Element zu ändern. Teilen Sie DALL-E einfach den anzupassenden Bildbereich mit, geben Sie eine Eingabeaufforderung und lassen Sie die KI arbeiten. Sicherlich sehr praktisch, aber dennoch mit gewissen Einschränkungen.
Bearbeiten von Bildern in ChatGPT
Wenn Sie ChatGPT Plus-Abonnent sind, können Sie in wenigen Sekunden das Bild Ihrer Wahl generieren lassen. Um es zu bearbeiten, klicken Sie einfach darauf. In der oberen rechten Ecke erscheint eine Schaltfläche „Auswählen“ (in Form eines Bleistifts mit einer Linie). Anschließend müssen Sie die Größe des Auswahlwerkzeugs anpassen, um den zu ändernden Bildbereich abzudecken.
Hier wird es interessant. Sie können nur diese Auswahl neu generieren, während bisher das gesamte Bild neu generiert werden musste. Sobald Sie die Auswahl getroffen haben, geben Sie Ihre neuen Anweisungen für diesen bestimmten Abschnitt ein. Je konkreter Sie sind, desto besser wird das Ergebnis sein. Und Ihr Anliegen wird berücksichtigt.
In meinen Experimenten nutzen ChatGPT und DALL-E die gleiche „Magie“ wie Apps wie Googles Magic Eraser, indem sie den Hintergrund intelligent mit vorhandenen Informationen in einer Szene füllen, während sie versuchen, den Rest nicht zu berühren.
Es ist nicht das fortschrittlichste Auswahltool und es gibt hier und da einige Inkonsistenzen, aber die meisten Änderungen sind ziemlich gut gemacht. Es besteht kein Zweifel, dass OpenAI mit der Zeit alles verbessern wird.
Generative KI zeigt ihre Grenzen
Wenn dieses neue Bearbeitungswerkzeug beispielsweise gut darin ist, die Farbe und Position eines Objekts in einer Komposition zu ändern, ist es viel schwieriger, die Größe eines Riesen auf den Wällen einer Burg zu verkleinern. Manchmal lässt ChatGPT sogar das Objekt verschwinden, das Sie und ihn nervt.
Diese Funktionalität ist noch sehr jung und OpenAI behauptet keineswegs, dass sie die von einem Menschen durchgeführte Retusche ersetzen kann. Dies ist eindeutig nicht der Fall. Mit der Zeit werden sich die Dinge sicher verbessern, aber wir sehen hier heute die Grenzen eines solchen Systems.
DALL-E und ähnliche Modelle sind dank der vielen Burgen, die sie während ihres Trainings sehen konnten, sehr gut darin, Pixel anzuordnen und Ihnen beispielsweise eine gute Annäherung an eine Burg zu liefern, aber die KI tut das nicht wirklich wissen, was eine Burg ist. Es versteht weder Geometrie noch physischen Raum, was erklärt, warum einige generierte Burgen stark deformiert sind. Dies sieht man häufig bei Gebäuden, Möbeln und bestimmten Gegenständen.
Diese Modelle verstehen (noch) nicht, was sie Ihnen zeigen: Deshalb verschwinden in vielen von OpenAI Sora generierten Videos Menschen wie von Zauberhand, weil die KI die Pixel intelligent anordnet, ohne den Menschen zu folgen. Ebenso haben diese generativen KIs große Schwierigkeiten, Bilder von Paaren unterschiedlicher ethnischer Zugehörigkeit zu erzeugen, da Paare derselben ethnischen Zugehörigkeit in ihren Trainingsdaten viel häufiger vorkommen.
Ein weiterer kleiner Punkt, der verbessert werden könnte: die Unfähigkeit dieser Generatoren, vollständig weiße Hintergründe zu erzeugen. Sie sind in vielerlei Hinsicht unglaublich intelligente Werkzeuge, aber sie „denken“ nicht wie wir und verstehen nicht, was sie tun, wie es ein menschlicher Künstler tun würde. Etwas, das Sie bei der Verwendung beachten sollten.