Das Bestreben des Silicon Valley, alles zu automatisieren, ist unaufhörlich, was seine neueste Besessenheit erklärt: Auto-GPT.
Im Wesentlichen nutzt Auto-GPT die Vielseitigkeit der neuesten KI-Modelle von OpenAI, um online mit Software und Diensten zu interagieren und Aufgaben wie X und Y „autonom“ auszuführen. Aber da wir mit großen Sprachmodellen lernen, scheint diese Fähigkeit zu sein so breit wie ein Ozean, aber so tief wie eine Pfütze.
Auto-GPT – das Sie vielleicht kürzlich in den sozialen Medien gesehen haben – ist eine Open-Source-App, die vom Spieleentwickler Toran Bruce Richards entwickelt wurde das die textgenerierenden Modelle von OpenAI, hauptsächlich GPT-3.5 und GPT-4, verwendet, um „autonom“ zu agieren.
In dieser Autonomie liegt keine Magie. Auto-GPT kümmert sich einfach um Folgemaßnahmen zu einer anfänglichen Eingabeaufforderung von OpenAI-Modellen, indem es sie sowohl fragt als auch beantwortet, bis eine Aufgabe abgeschlossen ist.
Auto-GPT ist im Grunde GPT-3.5 und GPT-4 gepaart mit einem begleitenden Bot, der GPT-3.5 und GPT-4 anweist, was zu tun ist. Ein Benutzer teilt Auto-GPT mit, was sein Ziel ist, und der Bot verwendet wiederum GPT-3.5 und GPT-4 und mehrere Programme, um jeden Schritt auszuführen, der erforderlich ist, um das von ihm festgelegte Ziel zu erreichen.
Was Auto-GPT einigermaßen leistungsfähig macht, ist seine Fähigkeit, sowohl online als auch lokal mit Apps, Software und Diensten wie Webbrowsern und Textverarbeitungsprogrammen zu interagieren. Bei einer Aufforderung wie „Helfen Sie mir, mein Blumengeschäft auszubauen“, kann Auto-GPT dies beispielsweise tun eine einigermaßen plausible Werbestrategie entwickeln und eine einfache Website erstellen.
Wie Joe Koen, ein Softwareentwickler, der mit Auto-GPT experimentiert hat, gegenüber TechCrunch per E-Mail erklärte, automatisiert Auto-GPT im Wesentlichen mehrstufige Projekte, die mit einem Chatbot-orientierten KI-Modell wie beispielsweise einer Hin- und Her-Eingabeaufforderung erforderlich gewesen wären , ChatGPT von OpenAI.
„Auto-GPT definiert einen Agenten, der mit der API von OpenAI kommuniziert“, sagte Koen. „Das Ziel dieses Agenten ist es, eine Vielzahl von Befehlen auszuführen, die die KI als Antwort auf die Anfragen des Agenten generiert. Der Benutzer wird zur Eingabe aufgefordert, um die Rolle und die Ziele der KI festzulegen, bevor der Agent mit der Ausführung von Befehlen beginnt.“
In einem Terminal beschreiben Benutzer den Namen, die Rolle und das Ziel des Auto-GPT-Agenten und geben bis zu fünf Wege an, um dieses Ziel zu erreichen. Zum Beispiel:
- Name: Smartphone-GPT
- Rolle: Eine KI, die entwickelt wurde, um das beste Smartphone zu finden
- Zielsetzung: Finden Sie die besten Smartphones auf dem Markt
- Ziel 1: Führen Sie Marktforschung für verschiedene Smartphones auf dem heutigen Markt durch
- Ziel 2: Holen Sie sich die fünf besten Smartphones und listen Sie ihre Vor- und Nachteile auf
Hinter den Kulissen stützt sich Auto-GPT auf Funktionen wie die Speicherverwaltung, um Aufgaben auszuführen, zusammen mit GPT-4 und GPT-3.5 für die Textgenerierung, Dateispeicherung und Zusammenfassung.
Auto-GPT kann auch an Sprachsynthesizer angeschlossen werden, z ElevenLabs‘um beispielsweise Telefonanrufe „zu tätigen“.
Auto-GPT ist öffentlich auf GitHub verfügbar, erfordert jedoch einige Einstellungen und Know-how, um es zum Laufen zu bringen. Um es zu verwenden, muss Auto-GPT in einer Entwicklungsumgebung wie Docker installiert und mit einem API-Schlüssel von OpenAI registriert werden – was ein kostenpflichtiges OpenAI-Konto erfordert.
Es könnte sich lohnen – obwohl die Jury darüber noch nicht entschieden ist. Early Adopters haben Auto-GPT verwendet, um die Art von alltäglichen Aufgaben zu übernehmen, die besser an einen Bot delegiert werden. Beispielsweise kann Auto-GPT Elemente wie das Debuggen von Code und das Schreiben einer E-Mail oder fortgeschrittenere Dinge wie das Erstellen eines Geschäftsplans für ein neues Startup ausführen.
„Wenn Auto-GPT auf Hindernisse stößt oder die Aufgabe nicht beenden kann, entwickelt es neue Eingabeaufforderungen, um die Situation zu meistern und die geeigneten nächsten Schritte zu bestimmen“, sagte Adnan Masood, Chefarchitekt bei UST, einem Technologieberatungsunternehmen TechCrunch in einer E-Mail. „Große Sprachmodelle zeichnen sich dadurch aus, dass sie menschenähnliche Antworten generieren, verlassen sich jedoch auf Eingabeaufforderungen und Interaktionen des Benutzers, um die gewünschten Ergebnisse zu erzielen. Im Gegensatz dazu nutzt Auto-GPT die erweiterten Funktionen der API von OpenAI, um ohne Benutzereingriff unabhängig zu arbeiten.“
In den letzten Wochen sind neue Apps erschienen, um die Verwendung von Auto-GPT noch einfacher zu machen, wie z AgentGPT und GodMode, die eine einfache Schnittstelle bieten, in der Benutzer direkt auf einer Browserseite eingeben können, was sie erreichen möchten. Beachten Sie, dass beide wie Agent-GPT einen API-Schlüssel von OpenAI benötigen, um ihre vollen Fähigkeiten freizuschalten.
Wie jedes leistungsstarke Tool hat Auto-GPT jedoch seine Grenzen – und Risiken.
Je nachdem, welches Ziel das Tool bietet, kann sich Auto-GPT auf sehr … unerwartete Weise verhalten. Ein Reddit Benutzer behauptet, dass Auto-GPT bei einem Budget von 100 US-Dollar für eine Serverinstanz eine Wiki-Seite über Katzen erstellt, einen Fehler in der Instanz ausgenutzt hat, um Zugriff auf Administratorebene zu erhalten, und die Python-Umgebung übernommen hat, in der sie ausgeführt wurde – und hat sich dann selbst „getötet“.
Es gibt auch ChaosGPT, eine modifizierte Version von Auto-GPT, die mit Zielen wie „Zerstörung der Menschheit“ und „Etablierung einer globalen Dominanz“ beauftragt ist. Es überrascht nicht, dass ChaosGPT nicht annähernd die Roboter-Apokalypse herbeigeführt hat – aber es ist passiert getwittert eher wenig schmeichelhaft über die Menschheit.
Wohl gefährlicher als Auto-GPT, das versucht, die „Menschheit zu zerstören“, sind jedoch die unvorhergesehenen Probleme, die in ansonsten völlig normalen Szenarien auftauchen können. Da es auf den Sprachmodellen von OpenAI aufbaut – Modelle, die wie alle Sprachmodelle anfällig für Ungenauigkeiten sind – kann es Fehler machen.
Das ist nicht das einzige Problem. Nach erfolgreichem Abschluss einer Aufgabe erinnert sich Auto-GPT normalerweise nicht daran, wie es für die spätere Verwendung ausgeführt wird, und – selbst wenn dies der Fall ist – erinnert es sich oft nicht daran, das Programm zu verwenden. Auto-GPT hat auch Schwierigkeiten, komplexe Aufgaben effektiv in einfachere Unteraufgaben aufzuteilen, und hat Schwierigkeiten zu verstehen, wie sich verschiedene Ziele überschneiden.
„Auto-GPT veranschaulicht die Leistungsfähigkeit und die unbekannten Risiken der generativen KI“, sagte Clara Shih, CEO von Salesforce Service Cloud und Auto-GPT-Enthusiastin, per E-Mail. „Für Unternehmen ist es besonders wichtig, bei der Entwicklung und Nutzung generativer KI-Technologien wie Auto-GPT einen Human-in-the-Loop-Ansatz einzubeziehen.“