Eine neue Generation autonomer Roboter soll künftig Aufgaben selbstständig lösen können, auch dann, wenn Unvorhersehbares passiert. Informatiker der TU Graz treiben mit Unterstützung des Wissenschaftsfonds FWF die Entwicklung der künstlichen Intelligenz voran und bringen Robotern Hausverstand bei.
Was Kinder spielend lernen und Erwachsene aufgrund ihrer Erfahrungen beherrschen, zum Beispiel auf unerwartete Situationen zu reagieren, stellt immer noch eine der großen Herausforderungen in der Robotik dar: Autonome Systeme sollen vom Menschen vorgegebene Aufgaben selbstständig lösen können. Besonders in kritischen Situationen wäre der Einsatz von solchen intelligenten Robotern von großer Bedeutung – etwa bei Umweltkatastrophen oder Industrieunfällen. Weltweit beschäftigen sich Wissenschafterinnen und Wissenschafter daher mit der Frage, wie Roboter auch in ungewöhnlichen und neuen Situationen ihre Ziele mit den ihnen verfügbaren Ressourcen eigenständig erreichen können. Auch Gerald Steinbauer von der Technischen Universität (TU) Graz arbeitet seit Jahren in der Grundlagenforschung an der Entwicklung des intelligenten und autonomen Roboters mit.
Der Schlussfolgerungsmechanismus
In einem vor Kurzem abgeschlossenen Projekt des Wissenschaftsfonds FWF haben sich Steinbauer und sein Team der Aufgabe gestellt, einem Roboter so etwas wie Hausverstand beizubringen. "In unserer Umwelt passieren immer wieder Überraschungen oder kleine Irrtümer, wie etwa dass ich im fünften Stock eines Gebäudes lande, statt im dritten. Wenn ein Roboter nicht merkt, dass er im falschen Stockwerk ist, kann er seine Aufgabe nicht erfüllen", nennt Steinbauer ein einfaches Beispiel. In dem Projekt haben die Grazer Forscherinnen und Forscher nun eine Art Schlussfolgerungsmechanismus entwickelt, der es dem Roboter erlaubt, solche Irrtümer zu erkennen und daraus Reparaturaktionen für sein Wissen abzuleiten. "Wir haben Schlussfolgerungen mit dem sogenannten Situationskalkül in Logik abgebildet. Dieses ermöglicht, die von einem Agenten ausgeführten Aktionen und deren Effekte zu beschreiben", erklärt Steinbauer.
Das Weltbild des Roboters bauen
Die Informatiker der TU Graz erstellen dabei laufend automatisch Diagnosen, indem sie beobachten, wo das Wissen des Roboters mit der aktuellen Situation nicht mehr zusammenpasst. Dabei konnten sie herausfinden, dass das Situationskalkül sowohl für die Überwachung und Diagnose genutzt werden kann als auch für die autonomen Entscheidungen des Roboters. Aus dem Wissen, was eine Aktion bewirkt, lernt der Roboter abzuleiten, was er als nächstes tun muss. Stimmt das Wissen des Roboters mit den Anforderungen in der realen Welt nicht mehr überein, weil sich eben eine Situation verändert hat, wird das "Weltbild" des Roboters zurechtgerückt. "Wir versuchen in Einklang zu bringen, was der Roboter geplant hat und was wirklich passiert ist, indem wir es formal niederschreiben", so Steinbauer. Im Test hat sich das Modell bereits bewährt: Ein Roboter, der mehrere Tage durchgehend im Forschungsinstitut mit einfachen Lieferaufgaben betraut wurde, ließ sich auch durch Tricks nicht irritieren.