Diesen Sommer erkundete ein Team aus Robotern eine simulierte Marslandschaft in Deutschland – ferngesteuert von einem Astronauten an Bord der Internationalen Raumstation. Dabei handelte es sich um die vierte und letzte Phase des Surface Avatar-Experiments, einer Zusammenarbeit zwischen der ESA und dem Deutschen Zentrum für Luft- und Raumfahrt (DLR). Ziel ist es, Methoden zu entwickeln, mit denen Astronautinnen und Astronauten Roboterteams steuern können, um komplexe Aufgaben auf dem Mond und dem Mars auszuführen.
Bei dieser Phase wurden erstmals erweiterte autonome Funktionen und komplexere Abläufe getestet. Dabei steuerte der NASA-Astronaut Jonny Kim zwei Roboter – den vierbeinigen Spot der ESA und den humanoiden Rollin’ Justin des DLR –, um verstreute Probenbehälter einzusammeln und zu einer Landefähre zu bringen. Spot navigierte autonom durch das Gelände, während Justin durch eine Kombination aus direkter Steuerung und voreingestellten Befehlen gelenkt wurde. Durch diese Konfiguration konnte Jonny Aufgaben abgeben und sich auf übergeordnete Entscheidungen konzentrieren – eine Weiterentwicklung gegenüber früheren Testphasen, in denen die Roboter vollständig ferngesteuert werden mussten.
In einem zweiten Szenario transportierte der Interact-Rover der ESA den Roboterhund Bert des DLR zu einem Höhleneingang. Nachdem Jonny dort einen Felsbrocken entfernt hatte, setzte er Bert ein, der daraufhin eine Fehlfunktion an einem seiner Beine simulierte. Jonny musste Berts Laufalgorithmus in Echtzeit neu trainieren, bevor dieser weiter in die Höhle vordringen und Anzeichen von Mars-Eis erkennen konnte. Damit wurde getestet, wie die steuernde Person, zum Beispiel eine Astronautin oder ein Astronaut, auf unerwartete Herausforderungen reagieren und Robotersysteme spontan anpassen kann.
Die Roboter werden von der Internationalen Raumstation aus über eine speziell von ESA und DLR entwickelte Schnittstelle gesteuert, die einen Joystick mit einem haptischen Rückmeldegerät kombiniert. Die Bedienoberfläche ermöglicht den Wechsel zwischen einer First-Person-Ansicht für immersive Fernsteuerung und einer Top-Down-Karte für einen besseren Überblick über die Mission. Diese Flexibilität erlaubt es der Astronautin oder dem Astronauten, mehrere Roboter effizient zu steuern und dabei zwischen direkter Kontrolle und strategischer Delegation abzuwägen.
Über vier Testläufe hat das Surface Avatar-Team seinen Ansatz zur Mensch-Roboter-Interaktion verfeinert und sowohl die Fernsteuerung als auch die Aufgabenverteilung an autonome Systeme verbessert. Das Experiment hat zudem aufgezeigt, welche Aufgaben Astronautinnen und Astronauten lieber direkt übernehmen und welche sicher an Robotersysteme übergeben werden können – eine wertvolle Erkenntnis für die Planung zukünftiger Missionen.