KI, Python und HomeKit
Ein wesentlicher Vorteil von chatgpt und Large Language Models (LLMs) besteht nicht nur darin, dass sie schwierige Probleme lösen können, sondern auch darin, dass sie es können InSekunden. Dies ist besonders hilfreich in Fällen, in denen es wünschenswert ist, eine Vielzahl von Beispielen, beispielsweise Bildern, zu generieren.
Kürzlich habe ich einen Monitor gekauft, den ich als Hintergrundanzeige verwenden wollte, um mithilfe von IoT-Technologie und KI alles von Kunstwerken bis hin zu produktiveren Informationen wie Notizen und Börsendaten anzuzeigen.
Meine ursprüngliche Idee bestand darin, das Text-zu-Bild-Generierungsmodell von OpenAI namens DALL-E zu verwenden, um Bilder zu generieren, die reibungslos angezeigt und zwischen ihnen übergegangen werden. Das Problem ist, dass das Modell recht teuer ist, zumindest wenn man HD-Qualität möchte, und außerdem hängt jedes Bild erheblich von der Eingabeaufforderung ab. Es gibt einfach zu viele Stile und Darstellungen. Gleichzeitig sind Bilder statisch, würde es mit etwas nicht mehr Spaß machen? ziehen um?
Aus diesem Grund habe ich mich für HTML-Animationen mit den GPT-Modellen (3.5 und 4) entschieden. Ich habe zuvor gezeigt, wie man diese Animationen mit dem browserbasierten ChatGPT generiert:
Das Ziel besteht nun darin, diesen Prozess zu automatisieren und gleichzeitig eine einfache Möglichkeit zu bieten, die resultierenden Kunstwerke zu bewerten, die schlechten Ergebnisse zu verwerfen und die guten zu behalten. Da ich bereits mehrere HomeKit-Geräte integriert habe, warum nicht auch die Animationen in HomeKit integrieren und den Vorteil nutzen, alles mit Szenen, Automatisierungen, Tasten und Siri steuern zu können?
Bevor ich fortfahre, möchte ich Ihnen das Endergebnis zeigen: