TU Graz/ TU Graz/ Services/ News+Stories/

„Wirklich autonome Systeme wird es so schnell nicht geben.“

06.05.2024 | TU Graz news | Forschung | Planet research | FoE Information, Communication & Computing

Von Philipp Jarke

Gerald-Steinbauer-Wagner forscht seit bald 25 Jahren an Robotern, die mittlerweile auch komplizierte Aufgaben lösen können. Autark handeln sie dabei aber nicht, sagt der Forscher, denn es gelingt ihnen noch immer nicht, ihre Umwelt tatsächlich zu verstehen.

Der Mercator bei der AMADEE-20 Mars-Simulation des Österreichischen Weltraum Forums in Israel; Gerad Steinbauer-Wagner vom Institut für Softwaretechnologie der TU Graz. Bildquelle: Florian Voggeneder - ÖWF/Thomas Meier - FF TU Graz

News+Stories: In Ihrem LinkedIn-Profil steht, dass Sie auf der Suche nach dem wahrlich autonomen Roboter sind. Gibt es die denn noch nicht?

Gerald Steinbauer-Wagner: Das hängt von der Aufgabe und dem Kontext ab. Was ein Roboter kann und wie viel davon autonom, ist abhängig von der Umgebung, in der sich der Roboter bewegt. Ich arbeite in diesem Feld seit bald 25 Jahren. Früher haben wir uns gefreut, wenn der Roboter einen Gang im Labor entlanggefahren ist. Jetzt sind Roboter auch draußen unterwegs, einige vielleicht auch im Straßenverkehr. Das nächste Ziel ist der Einsatz in unstrukturierter Umgebung, in der „Natur“, wenn man so will. Das heißt, die Umgebungen muss man sich bei der Arbeit mit Robotern sukzessive erarbeiten. Und um wirkliche Autonomie geht es erst, wenn du den Roboter mit einer Aufgabe konfrontierst, bei der er Dinge noch gar nicht kann. Und wenn er in eine Umgebung geht, über die er nicht alles weiß. Dann muss er überlegen: Was weiß ich nicht und was muss ich dazulernen?

Derzeit als „autonom“ deklarierte Roboter haben also vorab schon alle nötigen Informationen über die Umgebung und ihre Aufgaben, damit sie fehlerfrei arbeiten können?

Steinbauer-Wagner: Ja, bei den Aufgabestellungen und Umgebungen solcher Roboter gibt es kaum Überraschungen. Wirklich autonome Systeme wird es in der Form nicht so schnell geben. Höchstens für sehr einfache Aufgaben. Wahrscheinlich braucht man die aber auch gar nicht. Was wir sicher brauchen, sind semi-autonome Systeme, die sich ihrer Grenzen bewusst sind und mit Menschen direkt kooperieren können. Dafür braucht der Roboter eine Selbsteinschätzungskompetenz für Situationen, die er nicht lösen kann, weil er darauf nicht ausreichend vorbereitet worden ist. Durch Kommunikation und Zusammenarbeit mit dem Menschen können dann solche Situationen gelöst werden.

Wie leistungsfähig sind „autonome“ Roboter derzeit schon?

Steinbauer-Wagner: Bei einem Forschungsprojekt mit der Feuerwehr haben wir gesehen, dass für Roboter selbst das Öffnen einer Tür eine große Herausforderung sein kann: Denn es gibt Hunderte von Türvarianten, Größen, Verschlüssen. Vollautonome Systeme zur Unterstützung von Rettungskräften sind aus zwei Gründen derzeit überhaupt kein Thema: Es gibt dafür bei den Rettungskräften keine Akzeptanz, und die Roboter sind technisch noch nicht so weit, dass man sie ruhigen Gewissens einsetzen könnte. Man sieht es ja auch daran, wie lange schon autonomes Fahren versprochen wird und dass es in dem Bereich noch immer zu Fehlern kommt.

Was brauchen Roboter, um sich in einem unbekannten Gelände orientieren zu können?

Steinbauer-Wagner: Man kann nicht davon ausgehen, dass ein Roboter sich auf gleiche Weise orientieren kann wie wir Menschen. Dafür müsste er die Umgebung verstehen – wo man draufsteigen kann und wo nicht oder wie er mit Elementen der Umgebung interagieren kann. Ohne Vorabinformationen funktioniert so etwas nicht. Wenn wir zum Beispiel unsere Roboter in Off-Road-Einsätze schicken, verwenden wir aufbereitete Satellitendaten, damit der Roboter schon einmal ein grobes Bild der Umgebung hat. Ähnlich läuft es auch mit Rovern, die den Mars erkunden – die werden mit Orbiter-Daten gefüttert. Und sobald es ums autonome Fahren im Straßenverkehr geht, nutzen die Entwickler hochpräzise Karten, sonst funktioniert das Ganze nicht.

Was ist momentan die größte Hürde auf dem Weg zur Autonomie von Robotern? Die Sensorik zur Wahrnehmung der Umgebung, schnelle Verarbeitung der Daten, oder die Entscheidungsfindung?

Steinbauer-Wagner: Alles davon. Aber besonders schwierig gestaltet sich die Interpretation bzw. das Verstehen des Wahrgenommenen. Wenn ein Roboter vor einem Kasten steht, muss er verstehen, dass man ihn öffnen kann, dass dort verschiedenste Dinge drin sein können. Das Verständnis, wie Welt funktioniert mit all ihren Regeln, entwickelt sich bei Robotern zwar, aber erst sehr langsam.

Die Entscheidungsfindung ist auch eine Herausforderung. Dabei hat man verschiedene Level – ganz unten sind die Entscheidungen nah mit der Hardware verknüpft: Wie geht der Roboter, oder wie fährt er? Drüber liegen die Navigationsentscheidungen. Und auf dem obersten Level geht es um die Mission: Wie teilt der Roboter die Mission auf in einzelne Aktionen und wie kommt er zu einem Gesamtergebnis. Damit ein Roboter solche Entscheidungen treffen kann, ist noch viel Forschungsarbeit nötig.

Was sind Ihre Forschungsschwerpunkte an der TU Graz?

Steinbauer-Wagner: Ein wichtiger Bereich ist die Interaktion zwischen Robotern und Menschen, da geht es unter anderem um die Faktoren Transparenz, Erklärbarkeit und Vertrauen. Für das Vertrauen ist es extrem wichtig, dass Menschen ein Verständnis davon haben, was in der Maschine passiert. Oder dass sie zumindest glauben, die Maschine zu verstehen. Mittlerweile sind die Roboter und ihre Algorithmen aber so komplex, dass es schwierig herauszufinden ist, warum ein Roboter etwas getan hat oder nicht. Daher ist auch die Diagnose und Erklärbarkeit von Fehler ein wichtiger Teil unserer Arbeit.

Grundsätzlich schauen wir uns am Institut aber immer den gesamten Zyklus an: von der Wahrnehmung über die Entscheidungsfindung zur Ausführung. Diesen Zyklus muss man möglichst intelligent und zuverlässig gestalten.

Am stärksten gewachsen in den letzten Jahren ist der Einsatz von Robotern im Outdoorbereich. Dazu haben wir immer ein bis zwei laufende Projekte. Ein Aspekt ist die Befahrbarkeitsanalyse – also mit welchen Daten (ob jetzt global mit Satelliten oder Befliegungen mit Lasersensoren oder lokal über Sensoren) kann der Roboter feststellen, ob er gewisse Stellen im Gelände befahren kann oder nicht. Das ist im Gelände gar nicht so leicht.

Was ist dabei besonders schwer?

Steinbauer-Wagner: Was uns immer wieder wehtut, ist Vegetation! Unsere Roboter sind vor allem mit Laserscannern unterwegs, die ein geometrisches Bild von der Welt liefern. Ob der Roboter vor dichtem hohem Gras steht oder vor eine Wand, macht im Laserbild keinen großen Unterschied. In einigen Projekten fahren unsere Roboter im Wald und müssen feststellen, ob der Untergrund hart ist oder zu weich, um ihn zu befahren. Herausfordernd sind auch verschiedene Witterungsbedingungen bei der Navigation im Gelände und bei der Untergrundsanalyse. An solchen Fragestellungen arbeiten wir gerade.

Wie verbessern Sie uns Ihr Team die Wahrnehmung, Orientierung und Entscheidungsfindung des Roboters in solchen Fällen?

Steinbauer-Wagner: Derzeit testen wir verschiedene Arten von Sensoren. Wir experimentieren mit Remissionswerten von Laserscannern und mit verschiedenen Kamerasystemen wie z.B. Infrarotkameras, die für die Vegetationserkennung vielversprechend sind. Radartechnik könnte auch interessant werden. Das sind derzeit die Ansätze, um die Vegetationsanalyse und Witterungsunabhängigkeit zu verbessern.

Ein weiterer Ansatz, den wir verfolgen werden, ist das vorsichtige Fahren auf Kontakt in unsicheren Situationen und die Analyse der Folgen. Ausgehend von Satellitenbildern oder Bildern aus einem Drohnenflug wird eine Fahrtstrecke geplant mit dem erwartetem Zeit- und Energieaufwand. Diese Annahmen sind natürlich sehr grob und manchmal teilweise auch falsch. Beim Befahren der Strecke kommt es dann zu starken Vibrationen, der Roboter kommt ins Rutschen oder bleibt stecken. All das wird über interne Sensoren gemessen und wir können anschließend die Geländemodelle adaptieren, anhand derer sich der Roboter orientiert. Wenn wir bei diesem Vorgehen die Geländeumgebung klassifizieren, können wir die gewonnen Erkenntnisse auf andere Regionen übertragen. Ich muss also mit dem Roboter nur einmal in hohes Gras hineinfahren um zu erkennen, dass eine Weiterfahrt möglich ist. Oder dass der Roboter bei einer gewissen Kombination aus Steigung und Feuchtigkeit ins Rutschen gerät. Solche Erkenntnisse und Klassifizierungen kann ich in die Geländemodelle integrieren und damit die Autonomie des Roboters in zukünftigen Situationen erhöhen.

Dieses Forschungsprojekt ist im Field of Expertise „Information, Communication & Computingverankert, einem von fünf strategischen Schwerpunktfeldern der TU Graz.

Mehr Forschungsnews finden Sie auf Planet research. Monatliche Updates aus der Welt der Wissenschaft an der TU Graz erhalten Sie über den Forschungsnewsletter TU Graz research monthly.

Kontakt

Gerald STEINBAUER-WAGNER
Assoc.Prof. Dipl.-Ing. Dr.techn.
TU Graz | Institut für Softwaretechnologie
Tel.: +43 316 873 5723
gerald.steinbauer-wagnernoSpam@tugraz.at