Der Roboter iCub 3 ermöglicht es Benutzern, Gegenstände überall auf der Welt zu berühren und zu fühlen. Jetzt soll es im Metaverse immer präsent sein.

Wollten Sie schon immer eine Stadt besuchen, in der Sie noch nie waren, ohne in ein Flugzeug zum gewünschten Ziel zu steigen? Spüren Sie den weichen Sand an einem Strand in Barcelona oder streifen Sie zwischen den ikonischen Bauwerken in Rom umher? Dies ist das Hauptziel des neuen iCub-Roboter-Teleexistenzsystems, auch iCub3-Avatar-System genannt, das von Forschern des Italian Institute of Technology (IIT) in Genua, Italien, entwickelt wurde.

Das IIT testete das neue System erstmals in einer Demonstration im November 2021, wo der Roboter am 17th im italienischen Pavillon der Internationalen Architekturausstellung, während der Betreiber 300 km entfernt in einem IIT-Labor in der Stadt Genua saß. Zur Verbindung der beiden wurde eine Standard-Glasfaserverbindung verwendet.

Der Bediener verwendete eine Reihe von tragbaren Geräten, die als iFeel-System bekannt sind. Zu diesen Gadgets gehören mehrere IMUs (Inertial Measurement Units), die an verschiedenen Stellen eines Ganzkörperanzugs platziert sind: „Handschuhe“, die sowohl die Fingerbewegungen des Benutzers verfolgen als auch taktile Empfindungen von den Fingerspitzen des Roboters übertragen, und ein VR-Headset, das die Gesichtsausdrücke des Benutzers verfolgt, Augenlider und Augenbewegungen, nimmt ihre Stimme auf und ermöglicht ihnen zu sehen, was der Roboter sieht, und zu hören, was er hört.

Icub Humanoider Roboter - Inline

Bildnachweis: iCub

Während der Demonstration diente der Roboter als Avatar für den Bediener. Es ging um den Pavillon herum, unterhielt sich mit einem menschlichen Reiseleiter, schüttelte ihm die Hand und umarmte ihn sogar: Bei letzterem ließen haptische Feedback-Einheiten im Torso-Bodysuit den Bediener diese Umarmung spüren.

Siehe auch  So erstellen Sie Ihren digitalen Avatar für das Metaverse

Die Forscher zeigten, dass das System die Fortbewegung, Manipulation, Stimme und Gesichtsausdrücke des Bedieners an den Roboter-Avatar überträgt, während es visuelle, akustische, haptische und Berührungsrückmeldungen erhält. Dies ist das erste Mal, dass Forscher ein System mit all diesen Funktionen getestet haben, indem sie einen bebeinten humanoiden Roboter für den Ferntourismus verwenden, der es dem menschlichen Bediener ermöglicht, zu fühlen und zu erfahren, wo sich der Avatar befindet.

„Wir haben unser iCub 3-Avatarsystem an einem auf Beinen laufenden humanoiden Roboter validiert, der eine verbale, nonverbale und physische Ferninteraktion ermöglicht“, sagt Daniele Pucci, Leiter des Labors für künstliche und mechanische Intelligenz am IIT. „Dies stellt einen perfekten Ausgangspunkt für die Suche nach Plattformen dar, um Menschen für alle Interaktionsaspekte zu emulieren.“

Pucci sieht eine Zukunft des Systems in Mark Zuckerbergs kürzlich gestartetem sozialen Netzwerk für virtuelle Realität. „Was ich auch in unserer nahen Zukunft sehe, ist die Anwendung dieses Systems auf das sogenannte Metaverse, das tatsächlich auf immersiven und entfernten menschlichen Avataren basiert“, erklärt er.

Melden Sie sich für die E&T News-E-Mail an, um jeden Tag großartige Geschichten wie diese in Ihren Posteingang zu bekommen.

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein