Testroboter für den Haushalt, autonome Systeme im Scharm - auf der Hannover Messe zeigt der Exzellenz-Cluster Cognition for Technical Systems (CoTeSys), was er über zwei Jahre erarbeitet hat. Im Kern gehen die Wissenschaftler der Region München der Frage nach, wie sich Roboter in ihren Umgebungen verhalten - und verhalten sollen.
Der Testroboter Elias gilt als Vorfahr künftiger Butler: Damit er den Willen seines Gegenübers
über die Augen erfasst, besitzt er die weltweit kleinsten Roboteraugen – die aber in der
Schnelligkeit ihrer Bewegungen dem menschlichen Auge wenig nachstehen. In Hannover fährt der auf
multimodale Kommunikation getrimmte Serviceroboter durch die Halle 22. Erstmals präsentiert sich
auch das Projekt Robot Swarm Game: Ein Studententeam hat als Prototyp eine Modelllandschaft
entwickelt, auf der vier autonome, computergesteuerte Modellautos – als Roboter – fahren. Deren
Fahrstil kann zwischen sportlich und defensiv vorgegeben werden. Sie simulieren so auf der
Straßenkarte den alltäglichen Verkehr. Ein fünftes Fahrzeug wird vom menschlichen Nutzer gesteuert,
der auf diese Art und Weise spielerisch die Verkehrsregeln lernen und üben kann.
Hinter der gelungenen Ingenieursarbeit steckt aber ein weitergehender Ansatz: Kognitive
Fähigkeiten autonomer Systeme sollen sollen das Zusammenspiel zwischen Mensch und Maschine künftig
unkompliziert und natürlich gestalten. Und das ist nicht trivial – für beide Seiten. Spricht ein
Roboter plötzlich einen Menschen an, reagieren diese geschlechtsspezifisch: "Wir haben
festgestellt, dass Frauen sich deutlich stärker interessiert und interaktionsbereit zeigen, als
Männer", berichtet Kolja Kühnlenz von "ACE – The Autonomous City Explorer Project" am Lehrstuhl für
Steuerungs- und Regelungstechnik der TU München. "Das hat uns schon erstaunt."
Hintergrund: Im Exzellenzcluster arbeitet eine Hundertschaft Forscher
Was dem Menschen leicht fällt, ist für Maschinen eine enorme Herausforderung: ihre Umwelt zu
erkennen und flexibel darauf zu reagieren. Doch wie lässt sich dies in Computerarchitekturen,
Maschinensteuerungen und Roboterkonstruktionen umsetzen? Der Exzellenzcluster CoTeSys (Cognition
for Technical Systems) macht technische Systeme durch kognitiven Fähigkeiten – Wahrnehmung,
Überlegung, Lernen und Planen – zu Systemen, die über Wissen verfügen und lernen.
mehr
Gemeinsam mit seinem Kollegen Dirk Wollherr hat er einen der sogenannten Demonstratoren gebaut,
die am Exzellenzcluster CoTeSys der TU von sich reden machen. Die Aufgabe klingt simpel: ACE, eine
Kiste auf zwei großen Rädern und stützenden Rollen soll sich vom Gelände der TU auf den Weg zum
Marienplatz machen. Da die Forscher dem Roboter nicht verraten haben, wo es langgeht, fragt sich
dieser auf der rund zwei Kilometer langen Strecke eben durch.
"ACE muss zwei Aufgaben bewältigen", erläutert Kühnlenz. "Erstens muss er Kollisionen mit
Passanten vermeiden und zweitens muss er geeignete Kandidaten auswählen, die er nach dem Weg fragen
kann." Für Ersteres scannt er mit dem Laser seine Umgebung und legt ad hoc davon eine Karte an, in
der er sämtliche aktuellen Trajektorien der Passanten, also deren Bewegungen an A nach B, in seiner
Nähe festhält. Und für Letzteres haben ihm die Nachwuchsforscher ein paar Regeln eingegeben wie
Größe der Person, Farbe der Kleidung und Schnelligkeit der Bewegung. ACE hat also eine umfassende
Aufmerksamkeitssteuerung; er geht auf Menschen zu, fixiert sie mit seiner Kamera und sagt: "Guten
Tag ich heiße ACE. Wie komme ich von hier am einfachsten zum Marienplatz."
Damit nichts schief läuft, schaut er in die Richtung, in die der kooperationswillige Passant
weist, präsentiert diesen Blickwinkel auf dem Monitor auf seiner "Brust" und vergewissert sich, ob
dies die richtige Richtung ist. Um es zusammenzufassen: ACE kam mehrfach an. Zwar brauchte er für
die rund zwei Kilometer fünf Stunden, musste rund 40 Passanten anquatschen, "aber wir stehen ja
erst am Anfang", wie Kühnlenz betont.
An einem solchen Anfang steht auch das Team um Professorin Sandra Hirche vom Fachgebiet
Informationstechnische Regelung der TU München. Ihrem Demonstrator ist es ein Leichtes, einem
Menschen dabei zu helfen, einen Tisch zu heben und zu tragen. "Der Roboter muss dazu nur dem
Menschen hinterherlaufen", meint sie. Soll er aber entscheiden, welcher Weg der beste für den
sperrigen Tisch auf dem Weg zur Tür ist, dann ist er schnell mit seinem Latein am Ende. "Im Moment
arbeiten wir zum Beispiel daran, mit welchen Algorithmen wir es schaffen, dass der Roboter mögliche
Kollisionen vorhersehen und verhindern kann", sagt Hirche. Die Forscher wollen sozusagen die
intuitive Ebene einziehen, die uns Menschen so selbstverständlich ist. Fernziel: Teams von Robotern
und Menschen, die zum Beispiel in häuslicher Umgebung oder in Kliniken und Reha-Anstalten gemeinsam
werkeln.
"Dabei geht es weniger um den Bau vieler unterschiedlicher Prototypen, sondern um das
grundsätzliche Verständnis, welche Architektur und Handlungsmechanismen wir wählen müssen",
berichtet Hirche. "Deshalb sind wir so froh, hier im Exzellenzcluster mit vielen anderen
Disziplinen wie Biologen oder Psychologen zusammenarbeiten zu können, die uns in dieser Richtung
sicherlich noch viele Anregungen geben können", erklärt die Forscherin, die selbst zwei Jahre lang
in Japan war. Geht man dort leichter mit dem Thema Roboter um? "Die Japaner probieren viel aus und
haben wenig Scheu, wenn es um Roboter geht", hat sie festgestellt. Und vielleicht geht es auch ein
wenig spektakulärer zu: Vielen Maschinen verleihen die Japaner von Anfang an ein menschliches
Antlitz oder wenigstens ein lustiges Aussehen.
Noch freilich lässt sich nicht entscheiden, wann die Überraschung größer ist: In der
Fußgängerzone von einer unformigen Kiste angesprochen zu werden, oder von einem echten Humanoiden,
der freundlich lächelnd nach dem Weg fragt. Aber wenn die Arbeiten im Exzellenzcluster im gewohnten
Tempo weitergehen, muss sich der gewöhnliche Passant in München auf alles gefasst machen.
Ulrich Schmitz/rr/CZ