[imagesource:figure]
Sie würden sich irren, wenn Sie an dieses gruselige Demo-Video von „Figure 01“ denken würden – einem humanoiden, gesprächigen Roboter voller OpenAI-tech – ist eine gelöschte Szene aus Ich Roboter.
Der Avantgarde-Roboter stellt sein visuelles Erkennungsvermögen unter Beweis und erklärt genau, was sich vor ihm befindet: einen roten Apfel, einen Wäscheständer mit Geschirr und den Mann, der Abbildung 01 gefragt hat, was er sehen kann.
Das stimmt nicht ganz alles, was wir noch nie gesehen haben, aber es ist ein wenig unheimlich und gruselig, wenn der Mann fragt: „Kann ich etwas zu essen haben?“ und Figur 01 greift nach dem Apfel, erkennt deutlich, dass es sich um den einzigen essbaren Gegenstand auf dem Tisch handelt, und reicht ihn ihm.
Will Smith, bist du da?
Das neue Visual Language Model (VLM) ist die Grundlage für die nahtlose Interaktion von Figure 01 mit einem Menschen und verwandelt ihn von einem klobigen Brocken Schrott in einen kleinen Science-Fiction-ähnlichen, futuristischen Roboter zu menschenähnlich.
Das VLM ist das Ergebnis einer Zusammenarbeit mit OpenAI und Figure, dem Startup hinter Figure 01.
Laut Brett Adcock, dem Gründer von Figure, verfügt Figure 01 über integrierte Kameras, die die VLM-Daten einspeisen, die ihm helfen, die Szene vor ihm zu „verstehen“, sodass der Roboter reibungslos mit dem Menschen vor ihm interagieren kann. Neben Adcock ist Figure 01 die Idee mehrerer wichtiger Akteure von Boston Dynamics, Tesla, google Deep Mind und Archer Aviation.
Adcock prahlte damit, dass Figur 01 nicht teleoperiert sei – ein netter kleiner Seitenhieb auf Elon Musk, denn anders als Optimus, der viral ging, weil er ein Hemd faltete, kann Figur 01 unabhängig agieren.
Adcock ist sehr Ich Roboter-ähnliches Ziel ist es, schließlich ein hochentwickeltes KI-System zu trainieren, um Milliarden humanoider Roboter zu steuern und möglicherweise mehrere Branchen zu revolutionieren.
Hab Angst, hab sehr viel Angst.
[source:mashable]