Sie haben zweifellos die Fülle an KI-Kunstgeneratoren bemerkt, die im letzten Jahr oder so aufgetaucht sind: superintelligente Motoren, die Bilder erzeugen können, die genauso aussehen wie echte Fotos oder von echten Menschen geschaffene Kunstwerke. Mit der Zeit werden sie immer leistungsfähiger und fügen immer mehr Funktionen hinzu – in Microsoft Paint finden Sie jetzt sogar ein KI-Kunstwerkzeug.

Neu im DALL-E AI-Bildmodell, das chatgpt Plus-Mitgliedern zur Verfügung steht, die 20 US-Dollar pro Monat zahlen, ist die Möglichkeit dazu Teile eines Bildes bearbeitengenau wie Sie es vielleicht in Photoshop tun würden: Sie müssen nicht mehr ein völlig neues Bild neu erstellen, nur weil Sie ein Element davon ändern möchten – Sie können DALL-E den Teil des Bildes anzeigen, den Sie anpassen möchten, und ihm etwas geben neue Anweisungen und lassen Sie alles andere in Ruhe.

Es überwindet eine der wichtigen Einschränkungen der KI-Kunst, nämlich dass jedes Bild (und Video) etwas völlig Einzigartiges und Anderes ist, selbst wenn Sie identische Eingabeaufforderungen verwenden. Das macht es schwierig, Konsistenz zwischen den Bildern zu erreichen oder eine Idee zu verfeinern. Diese KI-Kunstschöpfer basieren jedoch auf sogenannten Diffusionsmodellemüssen noch viele Einschränkungen überwinden – wie wir Ihnen hier zeigen.

Bearbeiten von Bildern in ChatGPT

Wenn Sie ChatGPT Plus-Abonnent sind, können Sie die App im Internet oder auf dem Handy laden und nach einem Bild von allem fragen, was Ihnen gefällt: einem Cartoon-Hundendetektiv, der einen Fall in einer Cyberpunk-Umgebung löst, einer sanften Hügellandschaft mit einem einsamen Figur in der Mitte und Gewitterwolken, die sich über ihnen zusammenziehen, oder was auch immer es ist. Nach ein paar Sekunden erhalten Sie Ihr Bild.

Siehe auch  BBEdit 15 fügt neue Minimap und ChatGPT hinzu, die in die App integriert sind

Um das Bild zu bearbeiten, können Sie nun auf das generierte Bild und dann auf das Bild klicken Wählen Klicken Sie auf die Schaltfläche in der oberen rechten Ecke (es sieht aus wie ein Stift, der eine Linie kritzelt). Anschließend passen Sie die Größe Ihres Auswahlwerkzeugs mit dem Schieberegler in der oberen linken Ecke an und zeichnen über den Teil des Bildes, den Sie ändern möchten.

Die Bearbeitungsoberfläche in ChatGPT Bildnachweis: Lifehacker

Hier stellt dies einen wesentlichen Fortschritt dar: Sie können einen Teil des Bildes unberührt lassen und lediglich eine Auswahl aktualisieren. Wenn Sie bisher eine Folgeaufforderung gesendet haben, in der Sie aufgefordert wurden, einen bestimmten Teil eines Bildes zu ändern, wurde das gesamte Bild neu generiert und sah höchstwahrscheinlich deutlich anders aus als das Original.

Wenn Sie Ihre Auswahl getroffen haben, werden Sie aufgefordert, Ihre neuen Anweisungen einzugeben, und zwar nur für den hervorgehobenen Bildbereich. Wie bei diesen KI-Kunstwerkzeugen üblich gilt: Je spezifischer Sie sind, desto besser: Sie könnten verlangen, dass eine Person glücklicher (oder weniger glücklich) aussieht oder dass ein Gebäude eine andere Farbe hat. Ihre gewünschten Änderungen werden dann übernommen.

Bearbeitung Von Hundebildern

Erfolg! ChatGPT und DALL-E tauschen einen Hund gegen einen anderen aus. Bildnachweis: Lifehacker / DALL-E

Basierend auf meinen Experimenten scheinen ChatGPT und DALL-E die gleichen KI-Tricks anzuwenden, die wir bei Apps wie Googles Magic Eraser gesehen haben: Hintergründe intelligent auf der Grundlage der vorhandenen Informationen in einer Szene ausfüllen, während versucht wird, alles außerhalb der Szene zu belassen Auswahl unberührt.

Es ist nicht das fortschrittlichste Auswahlwerkzeug, und ich habe Inkonsistenzen bei den Rändern und Objektkanten festgestellt – was vielleicht zu erwarten ist, wenn man bedenkt, wie viel Kontrolle man bei der Auswahl hat. Die Bearbeitungsfunktion funktionierte die meiste Zeit gut genug, obwohl sie keineswegs jedes Mal zuverlässig ist, was OpenAI zweifellos in Zukunft verbessern möchte.

Siehe auch  ChatGPT: Was denkt der KI-Chatbot über Peterborough?

Wo KI-Kunst an ihre Grenzen stößt

Ich habe das neue Bearbeitungstool ausprobiert, um verschiedene Tricks auszuführen. Es war gut darin, die Farbe und Position eines Hundes auf einer Wiese zu ändern, aber weniger gut darin, die Größe eines riesigen Mannes zu verkleinern, der auf der Stadtmauer einer Burg stand – der Mann verschwand einfach in einem verschwimmenden Bild aus Stadtmauerstücken, was darauf hindeutet, dass die KI es tat Ich versuche erfolglos, um ihn herum zu malen.

In einer Cyberpunk-Umgebung habe ich darum gebeten, dass ein Auto vorbeigebracht wird, aber es tauchte kein Auto auf. In einer anderen Schlossszene habe ich darum gebeten, dass ein fliegender Drache umgedreht wird, sodass er in die andere Richtung zeigt, dass er von Grün auf Rot wechselt und dass aus seinem Maul Flammen kommen. Nach einigen Augenblicken der Verarbeitung entfernte ChatGPT den Drachen vollständig.

Bearbeitung Von Drachenbildern

Scheitern! ChatGPT und DALL-E haben den Drachen gelöscht, anstatt ihn zu verändern. Bildnachweis: Lifehacker / DALL-E

Diese Funktion ist noch brandneu und OpenAI behauptet noch nicht, dass sie die Bildbearbeitung durch Menschen ersetzen kann – denn das ist eindeutig nicht der Fall. Es wird sich verbessern, aber diese Fehler helfen zu zeigen, wo die Herausforderungen in Bezug auf bestimmte Arten von KI-generierter Kunst liegen.

Worin DALL-E und ähnliche Modelle sehr gut sind, ist die Fähigkeit, Pixel so anzuordnen, dass sie beispielsweise eine gute Annäherung an eine Burg ergeben, basierend auf den Millionen (?) Burgen, auf denen sie trainiert wurden. Allerdings weiß die KI nicht, was eine Burg ist: Sie versteht weder Geometrie noch physischen Raum, weshalb meine Burgen Türme haben, die aus dem Nichts aufragen. Sie werden dies bei vielen KI-generierten Kunstwerken bemerken, bei denen es um Gebäude, Möbel oder andere Objekte geht, die nicht ganz richtig gerendert werden.

Im Kern sind diese Modelle Wahrscheinlichkeitsmaschinen, die (noch) nicht verstehen, was sie tatsächlich zeigen: Aus diesem Grund verschwinden Menschen in vielen OpenAI-Sora-Videos im Nichts, weil die KI sehr geschickt Pixel anordnet und nicht verfolgt Menschen. Vielleicht haben Sie auch etwas über KI gelesen Schwierigkeiten, Bilder zu erstellen von Paaren verschiedener Rassen, da Paare derselben Rasse basierend auf den Bildtrainingsdaten wahrscheinlicher sind.

Eine weitere Besonderheit, die kürzlich aufgefallen ist, ist die Unfähigkeit dieser KI-Kunstgeneratoren, dies zu tun Erstellen Sie schlichte weiße Hintergründe. Dies sind in vielerlei Hinsicht unglaublich intelligente Werkzeuge, aber sie „denken“ nicht auf die gleiche Weise, wie Sie oder ich denken würden, und verstehen, was sie tun, nicht auf die gleiche Weise, wie es ein menschlicher Künstler tun würde – und das ist wichtig, das zu ertragen Denken Sie daran, wenn Sie sie verwenden.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein