Es gibt eine Nutzungsobergrenze dafür, wie oft Sie mit der GPT-4-Version von chatgpt interagieren können. (Diese Eingabeaufforderungen dauern a viel Computerleistung zu verarbeiten!) Das offizielle Limit liegt bei 50 Eingabeaufforderungen alle drei Stunden. Wenn Sie auf diese Wand stoßen, zeigt der Chatbot eine Fehlermeldung an, die angibt, wie lange Sie warten müssen, bis Sie wieder Zugriff erhalten.
Überschreiten Sie die Geschwindigkeitsbegrenzung, müssen Sie damit rechnen, etwa 30 Sekunden auf das Eintreffen der Bilder zu warten. Wenn eine der Kreationen dagegen verstößt Richtlinien von OpenAIerhalten Sie möglicherweise nur konforme Bilder oder sogar eine Nachricht, die die Anfrage ablehnt.
Hinweise zum Experimentieren mit Dall-E 3
Wenn Sie schon einmal mit einem KI-Bildgenerator wie Dall-E 2 oder midjourney experimentiert haben, besteht einer der größten Unterschiede darin, dass Sie jetzt sehen können, wie ChatGPT als Vermittler fungiert und mehrere Eingabeaufforderungen für die Vervollständigung von Dall-E 3 erstellt.
Diese von ChatGPT erstellten Eingabeaufforderungen reichen von langen Sätzen bis hin zu vollständigen Absätzen und enthalten jeweils unterschiedliche Details für Dall-E 3. Wenn Personen auf dem Bild sind, erwähnt der Chatbot häufig explizit Geschlecht und Rasse der Themen. Hier ist zum Beispiel eine der Dall-E 3-Eingabeaufforderungen, die ChatGPT verwendet hat, als ich ein Bild von zwei WIRED-Reportern angefordert habe, die einen CEO interviewen:
„Foto einer vielfältigen Gruppe von drei Personen in einem Unternehmensumfeld: eine WIRED-Reporterin aus dem Nahen Osten mit einer Kamera, eine afrikanische WIRED-Reporterin mit einem Mikrofon und ein kaukasischer männlicher CEO, der ihre Fragen beantwortet. Der Hintergrund ist ein eleganter Büro-Loungebereich.“
Wenn Ihnen die ersten Ergebnisse, die der Chatbot ausspuckt, nicht gefallen, bitten Sie darum, einige Aspekte anzupassen, wie zum Beispiel das Farbschema oder die allgemeine Atmosphäre. Nehmen wir an, dass Ihnen das dritte Bild, das Dall-E 3 aufgrund Ihrer Eingabeaufforderung erzeugt, wirklich gefällt. Nachdem Sie oben links auf den Download-Button geklickt haben, können Sie weitere Bilder anfordern, die der dritten Option ähneln.
Wurde in diesem neuen Update etwas unternommen, um Künstler zu schützen? Nicht wirklich. Der Chatbot erstellt zwar keine Bilder, wenn Sie ihn bitten, einen zeitgenössischen Künstler nachzuahmen, es gibt jedoch zahlreiche Problemumgehungen.
Ich habe ChatGPT gebeten, eine Kaffeetasse mit Kunst zu entwerfen Keith Harings Stil. Das KI-Tool lehnte die anfängliche Aufforderung ab, bot jedoch einen Kompromiss an: „Ich kann ein Design erstellen, das von den allgemeinen Merkmalen seiner Kunst inspiriert ist, wie zum Beispiel kräftigen Linien, leuchtenden Farben und einfachen Figuren.“ Soll ich damit fortfahren?“ Die Endergebnisse von ChatGPT waren in diesem Fall chaotisch und mittelmäßig.
Bei Dall-E 3 könnte die Kunst einiger Eingabeaufforderungen als von Menschenhand geschaffen gelten, bis man sich den Hintergrund und die feineren Details genau ansieht. Trotz Qualitätsverbesserungen bleiben viele der zugrunde liegenden Probleme mit Bildgeneratoren bestehen.
Erwarten Sie seltsame Verzerrungen und unheimliche Gesichter in den Bildern, die Dall-E 3 erstellt. Die Themen können humorvoll sein, wie bei einem Chatbot Ich habe Schwierigkeiten, Backzutaten zu kennzeichnen, aber andere Fehler sind schwerwiegender. Als ChatGPT gebeten wurde, eine Karte mit den Umrissen Israels und des Gazastreifens zu erstellen, bezeichnete er Gaza wiederholt fälschlicherweise als Teil des Mittelmeers.
Ein weiteres Problem bei Bildgeneratoren besteht darin, dass die Tools häufig verwendet werden Rückfall in rassistische Stereotypen bei der Darstellung von Menschen. Dall-E 3 ist keine Ausnahme. Von den 20 Bildern, die ich ChatGPT mit der Darstellung von „WIRED-Reportern“ erstellen ließ, verlangte der Chatbot bis auf wenige Ausnahmen eine spezifische, vielfältige Darstellung der Bilder. Wenn ChatGPT der Eingabeaufforderung weder Rasse noch Geschlecht hinzufügte, waren die Ergebnisse ausschließlich weiß und hauptsächlich männlich.