Der Roboter Myon lernt aus ­Erfahrungen, die er in seiner ­Umgebung macht. Foto: Neuroinformation HU Berlin

Forscher tüfteln an Maschinen, die aus dem körperlichen Umgang mit der Welt Rückschlüsse ziehen.

Berlin - Mit seinem markanten Zyklopenauge scheint er einen anzu­blicken. Doch noch ruht Myon ausgeschaltet im Forschungslabor Neuro­robotik an der Beuth-Hochschule Berlin. Dann drückt Peter Hirschfeld einen Knopf und nimmt damit den Kopf mit der Hauptrecheneinheit in Betrieb. Den Körper muss er extra starten. Der aus weißem Plastik und Metall gefertigte Roboter erwacht zum Leben. Anschließend zieht Hirschfeld den sitzenden Myon zu sich hoch. Die Rädchen und Drähte in den Gelenken surren, der 1,50 Meter große Roboter erhebt sich selbstständig. „Der Körper erkennt die Pose, die ich ihm zu geben versuche, und sendet die Bewegung an den Kopf“, erklärt der wissenschaftliche Mitarbeiter. „Und der Kopf signalisiert dann dem Körper, dass er aufstehen soll.“

Myon ist für einen Roboter vergleichsweise wenig verkopft. Er ist ein körperlicher Zeitgenosse. Das merkt man, als Peter Hirschfeld versucht, ihn zu kippen. Myon stemmt sich dagegen, ringt fast mit Hirschfeld, um weiterhin aufrecht zu stehen. „Der Körper misst die ganze Zeit die Erdanziehungskraft und richtet sich immer so aus, dass er am wenigsten Energie verbraucht.“ Dieses Ziel erreicht Myon im Aufrechtstehen, Sitzen oder Liegen. „Das ganze Reflexsystem macht der Körper alleine“, sagt Hirschfeld. „Wir haben ja auch im menschlichen Körper das Rückenmark, das Reflexe steuert.“ Bei Myon sind über den ganzen Körper Prozessoren und Programmcodes verteilt.

Sensoren erfassen Reize aus der Umwelt, der Roboter reagiert mit Bewegungen

In der Robotik setzte man lange mehr auf Köpfchen als auf Körperlichkeit – so wie bei dem berühmten Roboter Shakey aus den 1970ern. Shakeys Umgang mit der Welt beruhte auf endlosen internen ­Berechnungen, um die Welt in seinem elektronischen „Gehirn“ abzubilden und einen Handlungsplan zu entwerfen. Er ­lebte in übersichtlichen Räumen und brauchte Stunden, um einen kurzen Weg zurückzulegen. Bis in die 1980er hinein war die Künstliche-Intelligenz-Forschung sehr verkopft. Dann zeigte Rodney Brooks, damals Informatiker am Massachusetts Institute of Technology (MIT), dass sich Roboter leichter bewegen, wenn sie direkt auf über Sensoren erfasste Reize aus der Umwelt mit sinnvollen Bewegungen reagieren. Die verkörperte Robotik war geboren.

Auch Myon soll über ein Feedback, das er über Sensoren von seiner Umwelt erhält, wie ein Kind selbstständig lernen. „Die Welt selbst liefert wichtige Lösungsimpulse, gerade wenn es darum geht, dass sich ein Körper in der Welt zurechtfindet“, sagt Manfred Hild. Der Endvierziger ist Professor für Digitale Systeme an der Beuth-Hochschule Berlin und quasi der Vater von Myon. „Neuere Ansätze zeigen, dass es oft zu besseren Lösungen in der Robotik führt, wenn der Körper weniger durch das Gehirn bzw. die Rechenleistung kontrolliert wird.“

Die eingebaute Kamera funktioniert wie ein Sinnesorgan

Greift beispielsweise ein Roboter nach einer Tasse, würde die klassische Künstliche-Intelligenz-Forschung diese Bewegung komplett planen. Sie würde ein visuelles Bild der Tasse erstellen, das zeigt, wie der Henkel gedreht ist, wie weit die Tasse entfernt ist. Sie würde den Arm und die Finger des Roboters modellieren und auf dieser Datengrundlage das Greifen minutiös planen. „Doch so arbeiten weder Mensch noch Tier“, sagt Manfred Hild. „Wir planen nur grob, in welche Richtung wir greifen.“ Dann berühren wir die Tasse, die Finger tasten die Tasse in kleinen speziellen Mustern ab, und eventuell korrigieren wir den Griff. „Die Körperlichkeit übernimmt also einen Teil der Berechnungen.“

Myon erwirbt auch sonst sein Wissen über die Welt, in dem er sich mit ihr auseinandersetzt. Er kann über verschiedene Sinneskanäle wie einer Kamera Erfahrungen mit Dingen wie Gläsern machen. „Wenn es ihm herunterfällt, gibt es ein lautes Geräusch“, sagt Manfred Hild. „Es zerbricht, er wird getadelt oder auch nicht.“ Solche persönlichen Erfahrungen werden auf einer SD-Karte in seinem Kopf gespeichert. Myon weiß dann das nächste Mal, dass er bei einem Glas aufpassen muss. „Algorithmen in seinem Gedächtnissystem helfen dabei ganz assoziativ, die für die jeweilige Situation erforderlichen Lernerfahrungen auszuwählen.“

Aus dem physischen Umgang mit der Umwelt können gar zaghaft erste geistige Prozesse erwachsen, wie die Entwicklung von Kindern zeigt. Wenn ein Kind nach einer zu weit entfernten Tasse greift, wird es scheitern. Ist aber die Mutter in der Nähe, wird sie dem Kleinen die Tasse näher heranschieben. Dadurch lernt das Kind unbewusst: Wenn ich meinen Arm nach einer Sache ausstrecke, sie aber nicht greife, kann ich unter Umständen die Unterstützung der Eltern bekommen. „Daraus entwickeln sich in natürlicher Weise Zeigegesten“, so Manfred Hild. Er ist überzeugt, dass sich dieser Lernprozess auch in Robotern anstoßen lässt. Bis Roboter Myon allerdings aus seinen Kinderschuhen herauswächst, wird es noch eine Weile dauern.

Hat Ihnen der Artikel gefallen? Jetzt teilen: