Von Nikki, Hauptwissenschaftsreporterin für Dailymail.Com 20:56 15. März 2024, aktualisiert 21:03 15. März 2024
Ein neuer automatisierter humanoider Roboter, der von OpenAIs chatgpt angetrieben wird, ähnelt in etwa der KI Skynet aus dem Science-Fiction-Film Terminator
Während der neue Roboter keine Tötungsmaschine ist, kann Abbildung 01 mithilfe von ChatGPT grundlegende autonome Aufgaben ausführen und Echtzeitgespräche mit Menschen führen.
Das Unternehmen Figure AI hat ein Demonstrationsvideo geteilt, das zeigt, wie ChatGPT der zweibeinigen Maschine dabei hilft, Objekte zu visualisieren, zukünftige Aktionen zu planen und sogar über ihr Gedächtnis nachzudenken.
Die Kameras der Figur fangen ihre Umgebung ein und senden sie an ein großes, von OpenAI trainiertes Vision-Sprachmodell, das die Bilder dann zurück an den Roboter übersetzt.
Der Clip zeigte einen Mann, der den Humanoiden aufforderte, schmutzige Wäsche wegzuräumen, Geschirr zu spülen und ihm etwas zu essen zu geben – und der Roboter erledigte die Aufgaben – aber im Gegensatz zu ChatGPT ist Figure bei der Beantwortung von Fragen zögerlicher.
Figure AI hofft, dass sich sein erster humanoider KI-Roboter bei Arbeiten bewährt, die für menschliche Arbeitskräfte zu gefährlich sind, und den Arbeitskräftemangel lindern könnte.
„Vor zwei Wochen haben wir angekündigt, dass Figure und OpenAI ihre Kräfte bündeln, um die Grenzen des Roboterlernens zu erweitern“, sagte Figure-Gründer Brett Adcock schrieb auf X.
„Gemeinsam entwickeln wir KI-Modelle der nächsten Generation für unsere humanoiden Roboter“, fügte er hinzu.
Adcock stellte außerdem fest, dass der Roboter nicht aus der Ferne ferngesteuert wird und „dies mit 1,0-facher Geschwindigkeit und kontinuierlicher Aufnahme gefilmt wurde“.
Der Kommentar, dass er nicht kontrolliert werden könne, könnte ein Seitenhieb auf Elon Musk gewesen sein, der ein Video von Teslas Optimus-Roboter geteilt hatte, um seine Fähigkeiten zu demonstrieren – später stellte sich heraus, dass ein Mensch ihn aus der Ferne bediente.
Figure AI hat im Mai 2023 675 Millionen US-Dollar von Investoren wie Jeff Bezos, Nvidia, Microsoft und natürlich OpenAI eingesammelt.
„Wir hoffen, dass wir zu den ersten Gruppen gehören, die einen Humanoiden auf den Markt bringen“, sagte Brett Adcock im vergangenen Mai gegenüber Reportern, „der tatsächlich nützlich sein und kommerzielle Aktivitäten durchführen kann.“
Das neue Video zeigt, wie Figure von einem Mann mit mehreren Aufgaben beauftragt wird – zum einen bittet er den Roboter, ihm etwas Essbares auf den Tisch zu geben.
„Ich sehe einen roten Apfel auf einem Teller in der Mitte des Tisches, einen Wäscheständer mit Tassen und einen Teller, und Sie stehen daneben, Ihre Hand auf dem Tisch“, sagte Figure.
Adcock sagte, das Video zeige die Argumentation des Roboters mithilfe seiner durchgängigen neuronalen Netze, einem Begriff, der das Erlernen von Sprachen zum Trainieren eines Modells verwendet.
ChatGPT wurde anhand von Datenbeständen darauf trainiert, mit menschlichen Benutzern im Gespräch zu interagieren.
Der Chatbot ist in der Lage, einer Anweisung in einer Eingabeaufforderung zu folgen und eine detaillierte Antwort zu geben, so funktioniert das Sprachlernmodell in Figure.
Der Roboter „lauscht“ auf eine Aufforderung und reagiert mithilfe seiner KI.
In einer kürzlich durchgeführten Studie wurde ChatGPT jedoch Kriegsspielszenarien unterzogen und dabei festgestellt, dass es sich in fast 100 Prozent der Fälle dafür entschied, Gegner mit Atomwaffen anzugreifen – ähnlich wie Skynet von Terminator.
Aber vorerst hilft Figure den Menschen.
Das Video enthielt eine weitere Demonstration, bei der der Mann den Roboter fragte, was er auf dem Tisch davor sieht.
Figure antwortete: „Ich sehe einen roten Apfel auf einem Teller in der Mitte des Tisches, einen Wäscheständer mit Tassen und einem Teller, und Sie stehen daneben, Ihre Hand auf dem Tisch.“
Figure kommuniziert nicht nur, sondern nutzt auch seine hauswirtschaftlichen Fähigkeiten, indem es den Müll rausbringt und das Geschirr in den Wäscheständer stellt.
„Wir speisen Bilder von den Kameras des Roboters und transkribierten Text aus Sprache, die von Bordmikrofonen aufgenommen wurde, in ein großes multimodales Modell, das von OpenAI trainiert wurde und sowohl Bilder als auch Text versteht“, sagte Corey Lynch, ein KI-Ingenieur bei Figure, in einem Post auf X.
„Das Modell verarbeitet den gesamten Gesprächsverlauf, einschließlich früherer Bilder, um sprachliche Antworten zu erstellen, die dem Menschen per Text-to-Speech zurückgegeben werden“, fügte er hinzu.
Im Demovideo zeigte Figure bei der Beantwortung von Fragen Anzeichen von Zögern und machte eine Pause, um „äh“ oder „ähm“ zu sagen. Einige Leute meinten, dass der Bot dadurch menschlicher klinge.
Der Roboter bewegt sich immer noch langsamer als ein Mensch, aber Adcock sagte, er und sein Team „beginnen, sich der menschlichen Geschwindigkeit anzunähern“.
Etwas mehr als sechs Monate nach der 70-Millionen-Dollar-Finanzierungsrunde im vergangenen Mai kündigte Figure AI einen einzigartigen Deal an, um Figure in den Fabrikhallen von BMW zum Einsatz zu bringen.
Der deutsche Autohersteller hat eine Vereinbarung getroffen, die Humanoiden zunächst in einem BMW-Werk in Spartanburg, South Carolina, einzusetzen – einer weitläufigen, mehrere Milliarden Dollar teuren Anlage, die die Montage von Hochspannungsbatterien und die Herstellung von Elektrofahrzeugen umfasst.
Während die Ankündigung nur wenige Details zu den genauen Aufgaben der Bots bei BMW enthielt, erklärten die Unternehmen ihre Absicht, im Rahmen ihres „meilensteinbasierten Ansatzes“ für die Zusammenarbeit „Themen der Spitzentechnologie zu erkunden“.
Adcock hat die Ziele des Unternehmens so dargelegt, dass sie eine Lücke in der Industrie füllen, da es angeblich zu einem Arbeitskräftemangel kommt, bei dem es um schwierige, qualifizierte Arbeitskräfte geht, die herkömmliche Automatisierungstechniken nachweislich nicht beheben können.
„Wir brauchen Humanoiden.“ [robots] „in der realen Welt echte Arbeit leisten“, sagte Adcock Axios.