Ihr Roboter-Avatar ist fast fertig

Behnke stimmt zu. Er hofft, dass das, was seine Gruppe aus dem Avatar-XPrize-Wettbewerb gelernt hat, zu einer hybriden Autonomie durch Telepräsenz führen wird, bei der Roboter die meiste Zeit autonom sind, aber Menschen Telepräsenz nutzen können, um den Robotern zu helfen, wenn sie stecken bleiben. Dieser Ansatz wird bereits in einfacheren Kontexten wie Lieferrobotern für Bürgersteige implementiert, aber noch nicht in der Art von komplexer Human-in-the-Loop-Manipulation, zu der Behnkes System in der Lage ist.

„Mein Ziel ist es, den Menschen Schritt für Schritt aus dieser Schleife herauszunehmen, sodass ein Bediener vielleicht 10 Roboter steuern kann, die die meiste Zeit autonom wären“, sagt Behnke. „Und während diese 10 Systeme in Betrieb sind, erhalten wir mehr Daten, aus denen wir lernen können, und dann wird vielleicht ein Bediener für 100 Roboter und dann für 1.000 Roboter verantwortlich sein. Wir nutzen Telepräsenz, um zu lernen, wie man Autonomie besser macht.“

Während des Wettbewerbs durften die Teammitglieder ihre eigenen Roboter nicht bedienen. Stattdessen wurde jedem Team ein Juror zugeteilt, und das Team hatte 45 Minuten Zeit, um den Juror auf dem Roboter und der Schnittstelle zu schulen. Zu den Juroren gehörten Experten für Robotik, virtuelle Realität, Mensch-Computer-Interaktion und Neurowissenschaften, aber keiner von ihnen hatte Erfahrung als Avatar-Operator.

Viele Teams, einschließlich i-Botics [links], verließen sich auf kommerzielle Virtual-Reality-Headsets als Teil ihrer Schnittstellen. Avatar-Schnittstellen wurden so immersiv wie möglich gestaltet, um Bedienern zu helfen, ihre Roboter effektiv zu steuern. Links: Evan Ackerman; Rechts: XPrize Foundation

Sobald das Training abgeschlossen war, benutzte der Juror die Schnittstelle des Teams, um den Roboter durch den Parcours zu steuern, während das Team nichts anderes tun konnte, als zu sitzen und zuzusehen. Zwei Teammitglieder durften bei technischen Problemen beim Richter bleiben, und ein Live-Stream aus dem Operator Room hielt den Stress und die Hilflosigkeit fest, unter der die Teams standen: Nach jahrelanger Arbeit und mit Millionen von Dollar, die auf dem Spiel standen, war es an der Zeit ein Fremder, dem sie vor einer Stunde begegnet waren, um ihr System zum Sieg zu steuern. Es lief nicht immer gut, und gelegentlich lief es sehr schlecht, wie zum Beispiel, als ein zweibeiniger Roboter während eines Wettkampflaufs mit der Kante einer Tür auf der Strecke kollidierte und zu Boden stürzte, wobei er Schäden erlitt, die letztendlich nicht repariert werden konnten.

Aus Ihren Website-Artikeln

Roboter sind nicht bereit für die reale Welt. Für autonome Roboter ist es immer noch eine Errungenschaft, in der realen Welt nur zu überleben, was weit entfernt von einer nützlichen verallgemeinerten Autonomie ist. Unter einigen ziemlich spezifischen Einschränkungen beginnen autonome Roboter, einige wertvolle Nischen in halbstrukturierten Umgebungen wie Büros, Krankenhäusern und Lagern zu finden. Aber wenn es um die unstrukturierte Natur von Katastrophengebieten oder menschliche Interaktion geht, oder wirklich um jede Situation, die Innovation und Kreativität erfordert, sind autonome Roboter oft ratlos.

Im Jahr 2018 kündigte die XPrize Foundation einen Wettbewerb (gesponsert von der japanischen Fluggesellschaft ANA) an, um „ein Avatarsystem zu schaffen, das die menschliche Präsenz in Echtzeit an einen entfernten Ort transportieren kann“, mit dem Ziel, Robotersysteme zu entwickeln, die verwendet werden könnten von Menschen, überall mit einer anständigen Internetverbindung mit der Welt zu interagieren. Die Abschlussveranstaltung fand im vergangenen November in Long Beach, Kalifornien, statt, wo 17 Teams aus der ganzen Welt um ein Preisgeld von 8 Millionen US-Dollar kämpften.

Dennoch ist es schwer einzuschätzen, wie skalierbar diese Technologien sind. Im Moment sind Avatar-Systeme anfällig und teuer. Historisch gesehen gab es eine Lücke von etwa fünf bis zehn Jahren zwischen hochkarätigen Robotikwettbewerben und der Ankunft der daraus resultierenden Technologie – wie autonome Autos und humanoide Roboter – an einem nützlichen Ort außerhalb des Labors. Es ist möglich, dass die Autonomie schnell genug fortschreiten wird, dass der Einfluss von Avatar-Robotern für allgemeine Aufgaben in strukturierten Umgebungen etwas reduziert wird. Aber es ist schwer vorstellbar, dass autonome Systeme jemals menschliche Intuition oder Kreativität erreichen werden. Das heißt, es wird auch in absehbarer Zukunft einen Bedarf an Avataren geben. Und wenn diese Teams die Lektionen, die sie in den vier Jahren des Avatar XPrize-Wettbewerbs gelernt haben, nutzen können, um diese Technologie aus der Forschungsphase herauszuziehen, könnten ihre Systeme die Einschränkungen der Autonomie durch menschliche Klugheit umgehen und uns nützliche Roboter bringen, die es sind hilfreich in unserem täglichen Leben.

Sowohl Pratt als auch Behnke von NimbRo sehen Menschen zumindest kurzfristig als entscheidende Komponente von Robotern, die in den unstrukturierten Umgebungen der realen Welt operieren. „Man braucht Menschen für Entscheidungen auf hoher Ebene“, sagt Pratt. „Sobald es etwas Neues gibt oder etwas schiefgeht, braucht man menschliche Kognition in der Welt. Und deshalb brauchen Sie Telepräsenz.“

Zusätzlich zur Wahrnehmung der entfernten Umgebung musste der Bediener den Roboter effizient und effektiv steuern. Eine grundlegende Steuerschnittstelle kann eine Maus und eine Tastatur oder ein Gamecontroller sein. Aber mit vielen Steuerungsfreiheitsgraden, begrenzter Trainingszeit für die Bediener und einem Wettbewerb, der nach Geschwindigkeit beurteilt wurde, mussten die Teams kreativ werden. Einige Teams verwendeten bewegungserkennende Virtual-Reality-Systeme, um die Bewegung des Bedieners auf den Avatar-Roboter zu übertragen. Andere Teams bevorzugten eine physische Schnittstelle, indem sie den Bediener in eine Hardware (fast wie ein Roboter-Exoskelett) schnallten, die ihre Bewegungen lesen und dann die Gliedmaßen des Avatar-Roboters entsprechend betätigen konnte, während sie gleichzeitig ein Kraft-Feedback lieferten. Da die Arme und Hände des Bedieners mit der Manipulation beschäftigt waren, wurde die Bewegung des Roboters über den Boden normalerweise mit Fußpedalen gesteuert.

Auf absehbare Zeit bedeutet dies, dass Menschen noch notwendig sind. Das bedeutet jedoch nicht, dass Menschen physisch anwesend sein müssen – nur, dass irgendwo ein Mensch auf dem Laufenden ist. Und das schafft eine Chance.

Den ersten Platz belegte das Team NimbRo von der Universität Bonn in Deutschland, das den gesamten Kurs in weniger als 6 Minuten mit einer perfekten Punktzahl absolvierte. NimbRo hat eine lange Geschichte von Robotik-Wettbewerben; Sie nahmen 2015 an der DARPA Robotics Challenge teil und nehmen seit 2005 am internationalen RoboCup-Wettbewerb teil. Aber der Avatar XPrize ermöglichte es ihnen, sich auf neue Wege zu konzentrieren, menschliche Intelligenz mit Robotersteuerungssystemen zu kombinieren. „Wenn ich der menschlichen Intelligenz zusehe, wie sie eine Maschine bedient, finde ich das faszinierend“, sagte Teamleiter Sven Behnke zu IEEE Spectrum. „Ein Mensch kann Abweichungen von dem erwarteten Verhalten der Maschine erkennen und diese Abweichungen dann mit Kreativität beheben.“

XPrize entschied sich gegen einen Kurs, der menschenähnliche Roboter belohnt hätte – es gab zum Beispiel keine Treppen auf dem Kurs –, was die Frage aufwirft, was „menschliche Präsenz“ eigentlich bedeutet. Wenn es bedeutet, überall hingehen zu können, wo Menschen ohne Behinderung hingehen können, dann könnten Beine notwendig sein. Wenn es bedeutet, zu akzeptieren, dass Roboter (und einige Menschen) Mobilitätseinschränkungen haben, und sich folglich auf andere Aspekte der Avatar-Erfahrung zu konzentrieren, dann sind Beine vielleicht optional. Was auch immer die Absicht von XPrize gewesen sein mag, der Kurs selbst bestimmte letztendlich, was einen erfolgreichen Avatar für die Zwecke des Wettbewerbs ausmachte.

Der zweite Platz ging an Team Pollen Robotics, ein französisches Startup. Ihr Roboter Reachy basiert auf dem im Handel erhältlichen mobilen Manipulator von Pollen Robotics und war mit einem Preis von nur 20.000 € (22.000 US-Dollar) wahrscheinlich eines der günstigsten Systeme der Konkurrenz. Es wurden hauptsächlich 3D-gedruckte Komponenten und ein Open-Source-Design verwendet. Reachy war eine Ausnahme von der Strategie der Optimierung, da es als verallgemeinerbare Plattform für Manipulationen in der realen Welt gedacht ist. Aber der relativ einfache Ansatz des Teams half ihnen, den Preis in Höhe von 2 Millionen US-Dollar für den zweiten Platz zu gewinnen.

Verwandte Artikel im Internet

Beim Finale der DARPA Robotics Challenge 2015 hingegen musste der Atlas-Roboter von einem Expertenteam mühsam durch den Parcours gesteuert werden. Dieser Roboter brauchte 50 Minuten, um den Kurs zu absolvieren, den ein Mensch in etwa 5 Minuten hätte absolvieren können. „Der Versuch, Dinge mit einem Joystick und einer Maus [während des DARPA-Wettbewerbs] aufzunehmen, ist einfach sehr langsam“, sagt Pratt. „Nichts geht über die Fähigkeit, einfach mit voller Telepräsenz sagen zu können: ‚Oh, das ist ein Objekt, lass mich es packen‘. Tu es einfach.“

Der Roboter von Northeastern bewegt sich durch den Parcours. Evan Ackerman

Eine weitere Herausforderung des XPrize-Wettbewerbs war die Verwendung des Avatar-Roboters zur Kommunikation mit einem entfernten Menschen. Die Teams wurden danach beurteilt, wie natürlich eine solche Kommunikation war, was die Verwendung von reinen Text- oder reinen Sprachschnittstellen ausschloss; Stattdessen mussten die Teams ihrem Roboter ein ausdrucksstarkes Gesicht geben. Dies war für Bedienerschnittstellen, die Bildschirme verwendeten, einfach genug; Eine Webcam, die auf den Bediener gerichtet war und zur Anzeige auf dem Roboter gestreamt wurde, funktionierte gut.

Aber für Schnittstellen mit VR-Headsets, bei denen das Gesicht des Bedieners teilweise verdeckt war, mussten die Teams andere Lösungen finden. Einige Teams verwendeten Eyetracking und Spracherkennung im Headset, um die Stimme und die Gesichtsbewegungen des Bedieners auf ein animiertes Gesicht abzubilden. Andere Teams verzerrten dynamisch ein reales Bild des Gesichts des Benutzers, um seine Augen- und Mundbewegungen widerzuspiegeln. Die Interaktion verlief nicht nahtlos, aber überraschend effektiv.

Es überrascht nicht, dass die Teams, die sich auf die Konkurrenz konzentrierten und ihre Avatar-Systeme entsprechend optimierten, tendenziell gut abschnitten. Das Team Northeastern gewann den dritten Platz und 1 Million US-Dollar mit einer hydrostatischen Force-Feedback-Schnittstelle für den Bediener. Die Schnittstelle basierte auf einem System fluidischer Aktuatoren, das erstmals vor einem Jahrzehnt bei Disney Research konzipiert wurde.

Das System von Team NimbRo stützte sich stark auf die eigenen Sinne und das Wissen des menschlichen Bedieners. „Wir versuchen, die kognitiven Fähigkeiten des Menschen so weit wie möglich auszunutzen“, erklärt Behnke. „Zum Beispiel verwendet unser System keine Sensoren, um die Tiefe zu schätzen. Es verlässt sich einfach auf den visuellen Cortex des Bedieners, da sich Menschen dazu entwickelt haben, dies auf enorm effiziente Weise zu tun.“ Zu diesem Zweck hatte der Roboter von NimbRo einen ungewöhnlich langen und flexiblen Hals, der den Bewegungen des Bedieners folgte s Kopf. Während des Wettbewerbs konnte man sehen, wie sich der Kopf des Roboters von einer Seite zur anderen bewegte, während der Bediener die Parallaxe verwendete, um zu verstehen, wie weit Objekte entfernt waren. Es funktionierte ganz gut, obwohl NimbRo eine spezielle Rendering-Technik implementieren musste, um die Latenz zwischen den Kopfbewegungen des Bedieners und dem Video-Feed des Roboters zu minimieren, damit der Bediener nicht an Reisekrankheit erkrankte.

Der Wettbewerbskurs umfasste eine Reihe von Aufgaben, die jeder Roboter ausführen musste, basierend auf einer wissenschaftlichen Mission auf der Oberfläche eines fremden Planeten. Der Abschluss des Kurses beinhaltete die Kommunikation mit einem menschlichen Missionskommandanten, das Umlegen eines elektrischen Schalters, das Bewegen durch einen Hindernisparcours, das Identifizieren eines Behälters nach Gewicht und dessen Handhabung, die Verwendung einer Bohrmaschine und schließlich die Verwendung von Berührungen, um eine Gesteinsprobe zu kategorisieren. Die Teams wurden nach der Zeit eingestuft, die ihr Avatarsystem benötigte, um alle Aufgaben erfolgreich abzuschließen.

Der Roboter von Team Pollen [links] hatte eine relativ einfache Bedienerschnittstelle [Mitte], aber das könnte während des Wettbewerbs von Vorteil gewesen sein [rechts]. Pollen Robotics

Die Vielfalt der Teams spiegelte sich in der Vielfalt ihrer Avatarsysteme wider. Der Wettbewerb stellte einige grundlegende Designanforderungen für den Roboter, einschließlich Mobilität, Manipulation und einer Kommunikationsschnittstelle, aber ansonsten war es Sache jedes Teams, seine eigene Hardware und Software zu entwerfen und zu implementieren. Die meisten Teams bevorzugten eine fahrbare Basis mit zwei Roboterarmen und einem Kopf, der aus einem Bildschirm bestand, um das Gesicht des Bedieners anzuzeigen. Einige wagemutige Teams brachten zweibeinige humanoide Roboter mit. Stereokameras wurden häufig verwendet, um dem Bediener visuelle und Tiefeninformationen zu liefern, und einige Teams integrierten zusätzliche Sensoren, um andere Arten von Informationen über die entfernte Umgebung zu übermitteln.

„Letztendlich wird die allgemeine Öffentlichkeit der Endnutzer sein“, erklärt Locke. „Dieser Wettbewerb zwang die Teams dazu, Zeit in die Erforschung und Verbesserung der Operator-Experience-Komponente der Technologie zu investieren. Sie mussten ihre Technologie und Labors für allgemeine Benutzer öffnen, die sie bedienen und Feedback zu den Erfahrungen geben konnten, und die Teams mit den höchsten Punktzahlen hatten auch die intuitivsten und benutzerfreundlichsten Bedienoberflächen.“

Im Kongresszentrum von Long Beach tat XPrize sein Bestes, um eine Atmosphäre zu schaffen, die teils Rockkonzert, teils Sportveranstaltung, teils Roboterforschungskonferenz und -ausstellung war. Der Kurs wurde in einer Arena mit Stadionbestuhlung (öffentlich zugänglich) aufgebaut und aufwändig dekoriert und dramatisch beleuchtet. Live-Kommentare begleiteten den Lauf jedes Teilnehmers. Zwischen den Läufen arbeiteten die Teams in einer Kongresshalle an ihren Avatar-Systemen, wo sie sowohl untereinander als auch mit neugierigen Zuschauern interagieren konnten. Die 17 Teams kamen aus Frankreich, Deutschland, Italien, Japan, Mexiko, Singapur, Südkorea, den Niederlanden, dem Vereinigten Königreich und den Vereinigten Staaten. Während sich jedes Team an drei Tagen auf mehrere Läufe vorbereitete, war die Atmosphäre abwechselnd hektisch und konzentriert, während sich die Teammitglieder durch den Veranstaltungsort bewegten und daran arbeiteten, ihre Roboter zu reparieren oder zu verbessern. Große akademische Forschungslabors wurden neben kleinen Robotik-Startups errichtet, wobei jedes Team hoffte, dass sein einzigartiger Ansatz triumphieren würde.

ANA Avatar XPRIZE Finale: Siegerteam NimbRo Day 2 Test Runyoutu.be

XPrize-Juror Justin Manley feiert nach Abschluss des Kurses mit NimbRos Avatar-Roboter.Evan Ackerman

Das gesamte Avatar XPrize-Event kann über diese Live-Stream-Aufzeichnung auf YouTube.www.youtube.com angesehen werden

Das Team iCub vom Istituto Italiano di Tecnologia (IIT) in Genua, Italien, glaubte beispielsweise, dass der beste Weg, die menschliche Präsenz an einen entfernten Ort zu transportieren, darin besteht, diesen Menschen so nah wie möglich zu verkörpern. Zu diesem Zweck bestand das Avatar-System des IIT aus einem kleinen zweibeinigen humanoiden Roboter – dem 100 Zentimeter großen iCub. Einen zweibeinigen Roboter dazu zu bringen, zuverlässig zu laufen, ist eine Herausforderung, besonders wenn dieser Roboter unter der direkten Kontrolle eines unerfahrenen Menschen steht. Aber selbst unter idealen Bedingungen konnte sich iCub einfach nicht so schnell bewegen wie seine Konkurrenten mit Rädern.

Das Team iCub vom Istituto Italiano di Tecnologia glaubte, dass sein zweibeiniger Avatar der intuitivste Weg sei, natürliche menschliche Bewegungen auf einen Roboter zu übertragen.Evan Ackerman

Bei Robotik-Wettbewerben wie dem Avatar XPrize gibt es einen inhärenten Konflikt zwischen dem umfassenderen Ziel allgemeiner Lösungen für reale Probleme und dem fokussierten Ziel der konkurrierenden Teams, nämlich einfach zu gewinnen. Gewinnen führt nicht zwangsläufig zu einer Lösung des Problems, das die Konkurrenz zu lösen versucht. XPrize wollte vielleicht die Schaffung von „Avatar-Systemen“ fördern, die menschliche Anwesenheit in Echtzeit an einen entfernten Ort transportieren können, aber das Siegerteam war dasjenige, das die sehr spezifischen Wettbewerbsaufgaben am effizientesten erfüllte.

XPrize-Richter Jerry Pratt [links] bedient den Roboter von NimbRo auf dem Kurs [rechts]. Besonders schwierig war die Bohraufgabe, bei der ein schwerer Gegenstand angehoben und mit hoher Präzision manipuliert werden musste. Links: Team NimbRo; Rechts: Evan Ackerman

Bei der letzten Wettbewerbsaufgabe benötigte der Bediener beispielsweise einen Tastsinn, um einen rauen Stein von einem glatten zu unterscheiden. Während Berührungssensoren für Roboter weit verbreitet sind, ist es nicht einfach, die von ihnen gesammelten Daten in etwas zu übersetzen, das für Menschen lesbar ist. Einige Teams entschieden sich für hochkomplexe (und teure) mikrofluidische Handschuhe, die Berührungsempfindungen von den Fingerspitzen des Roboters auf die Fingerspitzen des Bedieners übertragen. Andere Teams verwendeten kleine, an den Fingern montierte Vibrationsmotoren, um Rauheit in ein haptisches Feedback zu übersetzen, das der Bediener fühlen konnte. Ein anderer Ansatz bestand darin, Mikrofone an den Fingern des Roboters anzubringen. Wenn sich seine Finger über verschiedene Oberflächen bewegten, klangen raue Oberflächen für den Bediener lauter, während glatte Oberflächen weicher klangen.

Northeastern-Teammitglied David Nguyen beobachtet XPrize-Richterin Peggy Wu bei der Bedienung des Avatar-Systems während eines Wettkampflaufs. XPrize-Stiftung

Ein Roboter-Avatar-System ähnelt der virtuellen Realität, da beide es einer Person, die sich an einem Ort befindet, ermöglichen, einen anderen Ort zu erleben und mit ihm zu interagieren, indem sie Technologie als Schnittstelle verwenden. Wie VR ermöglicht ein effektiver Roboter-Avatar dem Benutzer, so zu sehen, zu hören, zu berühren, sich zu bewegen und zu kommunizieren, dass er das Gefühl hat, tatsächlich woanders zu sein. Aber wo VR einen Menschen in eine virtuelle Umgebung versetzt, bringt ein Roboter-Avatar einen Menschen in eine physische Umgebung, die sich im nächsten Raum oder Tausende von Kilometern entfernt befinden kann.

Ein Avatarsystem hat zwei grundlegende Aspekte. Der erste ist der mobile Robotermanipulator, den der menschliche Bediener steuert. Die zweite ist die Schnittstelle, die es dem Bediener ermöglicht, diese Kontrolle bereitzustellen, und dies ist wohl der schwierigere Teil des Systems. Bei früheren Robotikwettbewerben, wie der DARPA Robotics Challenge und der DARPA Subterranean Challenge, basierte die Benutzeroberfläche im Allgemeinen auf einem herkömmlichen Computer (oder mehreren Computern) mit Tastatur und Maus, und die hochspezialisierte Aufgabe des Operators erforderte einen immensen Trainingsaufwand Erfahrung. Dieser Ansatz ist jedoch nicht zugänglich oder skalierbar. Der Wettbewerb in Long Beach zeigte daher Avatar-Systeme, die im Wesentlichen betreiberunabhängig waren, sodass jeder sie effektiv nutzen konnte.

Die XPrize Foundation hofft, dass Avatar-Roboter eines Tages für praktischere Zwecke eingesetzt werden könnten: Sofortige Pflege für jeden, unabhängig von der Entfernung; Katastrophenhilfe in Gebieten, in denen es für menschliche Retter zu gefährlich ist, dorthin zu gehen; und Durchführung kritischer Reparaturen sowie Wartung und anderer schwer zu beschaffender Dienstleistungen.

Während Avatar-Systeme alle in der Lage sind, sich zu bewegen und mit ihrer Umgebung zu interagieren, präsentierte der Avatar XPrize-Wettbewerb eine Vielzahl unterschiedlicher Hardware- und Software-Ansätze zur Schaffung des effektivsten Systems.XPrize Foundation

Der Avatar-XPrize-Kurs sollte wie eine Wissenschaftsstation auf einem fremden Planeten aussehen, und die Avatar-Systeme mussten Aufgaben erledigen, darunter die Verwendung von Werkzeugen und die Identifizierung von Gesteinsproben.XPrize Foundation

„Die verfügbaren Methoden, mit denen wir uns physisch von einem Ort zum anderen transportieren können, skalieren nicht schnell genug“, sagt David Locke, der Geschäftsführer von Avatar XPrize. „Eine Störung in diesem Bereich ist längst überfällig. Unser Ziel ist es, die Barrieren von Entfernung und Zeit zu umgehen, indem wir ein neues Mittel der physischen Verbindung einführen, das es jedem auf der Welt ermöglicht, einen anderen Ort physisch zu erleben und vor Ort Hilfe zu leisten, wo und wann immer sie benötigt wird.“

Der Wettbewerb demonstrierte die Kraft des Menschen gepaart mit Robotersystemen und transportierte unsere Erfahrung und Anpassungsfähigkeit an einen entfernten Ort. Während es sich bei den Robotern und Schnittstellen eher um Forschungsprojekte als um Systeme handelte, die für den realen Einsatz bereit waren, lieferte der Avatar XPrize die Inspiration (sowie die Struktur und Finanzierung), um einigen der weltbesten Robotiker dabei zu helfen, die Grenzen von zu erweitern was durch Telepräsenz möglich ist.

Während der finale Avatar-XPrize-Wettbewerb auf einem Weltraumerkundungsszenario basierte, interessiert sich Behnke mehr für Anwendungen, bei denen eine durch Telepräsenz vermittelte menschliche Berührung noch wertvoller sein könnte, wie z. B. persönliche Assistenz. Behnkes Gruppe hat bereits gezeigt, wie ihr Avatar-System verwendet werden könnte, um jemandem mit einem verletzten Arm zu helfen, seinen Blutdruck zu messen und einen Mantel anzuziehen. Das klingt nach einfachen Aufgaben, beinhaltet aber genau die Art von menschlicher Interaktion und kreativer Manipulation, die für einen Roboter allein außerordentlich schwierig ist. Immersive Telepräsenz macht diese Aufgaben fast trivial und für fast jeden Menschen mit ein wenig Training zugänglich – und genau das wollte der Avatar XPrize erreichen.

Das Team hat sich auch viel Mühe gegeben, um sicherzustellen, dass die Verwendung des Roboters zur Manipulation von Objekten so intuitiv wie möglich ist. Die Arme des Bedieners waren direkt an Roboterarmen befestigt, die Duplikate der Arme des Avatar-Roboters waren. Dies bedeutete, dass alle Armbewegungen des Bedieners vom Roboter gespiegelt wurden, was zu einem sehr konsistenten Erlebnis für den Bediener führte.

Der Operator-Juror für den Siegerlauf von Team NimbRo war Jerry Pratt, der Jahrzehnte als Robotik-Professor am Florida Institute for Human and Machine Cognition verbracht hat, bevor er letztes Jahr zu Figure, dem Start-up-Unternehmen für humanoide Robotik, kam. Pratt hatte das Team IHMC (und einen Atlas-Roboter von Boston Dynamics) 2015 bei den DARPA Robotics Challenge Finals auf den zweiten Platz geführt. „Ich fand es unglaublich, dass man in 60 Minuten lernen kann, wie man diese Systeme benutzt“, Pratt sagte über seinen XPrize-Lauf. „Und es macht riesigen Spass, sie zu bedienen!“ Pratts Siegerzeit von 5:50, um den Avatar XPrize-Kurs abzuschließen, war nicht viel langsamer als die menschliche Geschwindigkeit.