Roboter mit Tastsinn: Hallo Dienstmann!

Roboter: Hallo Dienstmann!

Technik: Auf dem Weg zum elektronischen Butler

Drucken

Schriftgröße

Armar“ ist 1,70 Meter groß, rollt auf Rädern und stellt sich höflich vor. Wird er angesprochen, wendet er seinen Kopf. Er kann Gläser auf einem Tablett balancieren, Gegenstände erkennen, das Telefon abheben und – in einer einfachen Versuchsanordnung – sogar Geschirr in die Spülmaschine einräumen.

Der Serviceroboter der High-End-Klasse ist eine Schöpfung der Universität Karlsruhe. Um Armar zur vielseitigen Küchenhilfe auszubilden, haben ihm die Roboterforscher um Rüdiger Dillmann und Tamim Asfour eine eigene Küche eingerichtet. Dort studiert Armar jetzt, wofür er in Zukunft eingesetzt werden soll: etwa eine Pizza in den Ofen zu schieben, den Tisch zu decken oder seiner Herrschaft ein Bier aus dem Kühlschrank zu holen. Und das autonom, ohne Fernsteuerung, auf bloßen Zuruf.

Bis der Traum vom Robo-Butler allerdings in Erfüllung geht, wird es freilich noch einige Zeit dauern. In etwa fünf bis sieben Jahren, hoffen die Wissenschafter, soll der elektronische Diener Marktreife erlangen. „Er muss noch schneller und stabiler arbeiten“, sagt Entwickler Asfour. Derzeit kann es schon noch vorkommen, dass Armar nach einem Sprachbefehl minutenlang in meditatives Nachdenken versinkt oder Teller und Geschirrspüler nicht mehr auseinanderhalten kann.

Die Entwicklung lernfähiger Roboter, die sich im Alltag des Menschen locker zurechtfinden, ist eines der großen Ziele der Robotik. Weltweit arbeiten Forscher daran, Roboter mit verbesserter Sensorik und Datenverarbeitung auszustatten, um sie damit zu intelligenten Partnern des Menschen zu machen. „Technologisch ist mittlerweile unheimlich viel realisierbar“, sagt Peter Kopacek, Vorstand des Instituts für Mechanik und Robotertechnik an der Technischen Universität Wien, der schon öfter den Weltmeistertitel im Roboterfußball nach Österreich geholt hat.

Längst sind Roboter sehr viel mehr als bloß eckig agierende Greifarme, die schweißen und lackieren können. „Asimo“, Hondas Modell eines humanoiden Roboters, kann Hindernissen selbstständig ausweichen und bringt es auf eine Gehgeschwindigkeit von sechs Kilometer pro Stunde. Verblüfft registrierten Experten auch den sich rasch abzeichnenden Fortschritt bei autonom gesteuerten Fahrzeugen: „Stanley“, ein von Professoren und Studenten der kalifornischen Stanford University umgebauter VW-Geländewagen, gewann im Vorjahr die DARPA Grand Challenge, ein vom Forschungsarm des US-Verteidigungsministeriums veranstaltetes Rennen autonom gesteuerter Fahrzeuge. Ausgerüstet mit einer Vielzahl an Sensoren, Laserscan, GPS und Radar, fuhr das Roboterauto völlig autonom und selbststeuernd über 200 Kilometer weit durch die Wüste von Nevada. Die Siegerzeit betrug weniger als sieben Stunden (profil 39/2005).

Fingerspitzengefühl. Mittlerweile verstehen Roboter Sprache und reagieren auf Mimik und Gestik. Sie haben gelernt, Arme und feingliedrige Hände über ihre Kameraaugen selbstständig zu steuern. Die visuelle Mustererkennung ist dabei bereits so weit gediehen, dass Roboter mit hoher Treffsicherheit Gesichter identifizieren und nach Objekten greifen können. Erst vor Kurzem haben Forscher der Universität von Nebraska eine auf Nanotechnologie basierende Kunsthaut vorgestellt, deren Tastsinn imstande sein soll, das Reliefbild einer Münze und sogar darauf eingeprägte Buchstaben zu erkennen.

Roboter sind mittlerweile auch Gegenstand der neueren Künstliche-Intelligenz-(KI-)Forschung. Denn durch ihre Körperlichkeit besitzen sie im Gegensatz zu Computern sensomotorische Fähigkeiten, mit denen sich die menschliche Intelligenz weitaus umfassender simulieren lässt, als dies selbst auf den schnellsten Rechnern möglich wäre. „Embodied Intelligence“ lautet das Paradigma der neuen KI-Forschung. Zum Kult geworden sind die von Rodney Brooks oder Cynthia Breazeal im Roboterlabor des Bostoner Massachusetts Institute of Technology (MIT) entwickelten Maschinenwesen „Cog“, „Kismet“ oder „Leonardo“. Anstatt den Maschinen alle Aktionen genau vorzugeben, haben die Wissenschafter durch genaue Analyse des menschlichen Verhaltens Programme für die Roboter entwickelt, die es diesen ermöglichen, auch über Mimik und Gestik intelligent mit Menschen zu kommunizieren.

Der Roboterkopf Kismet versteht etwa, ob jemand mit ihm schimpft oder freundlich spricht. Mit dem Heben von Augenbrauen, dem weiten Öffnen oder Schließen der Augen und des „Mundes“ zeigt er dabei Erstaunen, Angst, Freude oder Neugier. Schwenkt man einen Ball vor seinem Kopf hin und her, wird er diesem mit interessiertem Gesichtsausdruck folgen. Beginnt man mit einem Spielzeug aber heftig herumzufuchteln, wendet sich die Maschine mit ängstlichem Gesichtsausdruck ab.

Roboterkind. Soziale Intelligenz entsteht dabei aber nicht nur im Auge des Beobachters. Leonardo, eines der neuesten Maschinengeschöpfe, das Breazeal gemeinsam mit dem Hollywood-Animationsexperten Stan Winston entwickelte, verfügt über ein noch breiteres Repertoire an sensomotorischer und kognitiver Intelligenz. Berührt man den wie ein fluffiges Kuschelmonster aussehenden Roboter, zuckt er mit seinen Spitzohren. Er verfolgt mit großen Augen seine Gesprächspartner, nickt, wenn er eine Frage verstanden hat, oder lernt, wenn man ihn dazu auffordert, rote, grüne oder blaue Tasten in der richtigen Reihenfolge zu drücken. Die Ergebnisse dieser KI-Forschung fließen nun in ein neues, internationales Projekt ein, an dem sich elf europäische, zwei amerikanische und drei japanische Forschungsinstitute beteiligen.

An der Universität Genua werden derzeit die letzten Bestandteile von „Robotcub“ zusammengebaut. Der 90 Zentimeter große Roboter verfügt über 54 Gelenke, feingliedrige Hände und eine Vielzahl von Sensoren. Ausgerüstet mit Programmen, die das kindliche Verhalten simulieren, soll er sukzessive die Intelligenz eines Kleinkindes selbstständig entwickeln, etwa mit Bällen und Bauklötzchen hantieren, diese beäugen, betasten und damit zu experimentieren beginnen. Der Kleinkind-Roboter soll durch die Gänge krabbeln und sich dort hinsetzen, wo ihn seine eingebaute Neugier hinführt.

Sein Verhaltensprogramm ist dabei inspiriert von Erkenntnissen der Entwicklungspsychologie – etwa, dass Kleinkinder zuerst nur Umrisse wahrnehmen oder dass sie maximal drei Objekte gleichzeitig unterscheiden können. So wie ein Kleinkind seine neuronalen Muster für Bewegung und Koordinationsaufgaben übt, trainiert auch Robotcub damit sein künstliches neuronales Netzwerk. Das Wissen, das er dabei in seinen Speicherchips ablegt, soll ihm die körperlichen und geistigen Fähigkeiten verleihen, die jenen eines zweieinhalbjährigen Kindes entsprechen. Intelligenz wird auf diese Weise nicht mehr einfach einprogrammiert, sondern entsteht durch „learning by doing“. Anfang 2007 soll Robotcub mit seinen ersten Versuchen beginnen.

Abstraktionsvermögen. Nach einem ähnlichen Prinzip experimentiert derzeit schon Roboter „Kurt“ am Österreichischen Institut für Artificial Intelligence in Wien. Programmiert vom Roboterteam des KI-Forschers Georg Dorffner, versucht das rollende Gefährt mit Greifarm und Kameraauge gerade, selbstständig herauszufinden, dass sich Bauklötze nicht auf Bälle stapeln lassen. Ein einprogrammierter Reflex hält ihn dabei an, Objekte zu greifen. Kurt merkt sich dann, ob ein Objekt beim Stapeln „oben“ bleibt oder nicht. Nach einigen Experimenten vergleicht er die Ergebnisse und zieht daraus selbstständig die Schlussfolgerung, dass sich auf Gegenstände, die in die Kategorie „Rundes“ fallen, nichts „Rundes“ und nichts „Eckiges“ legen lässt.

Robots@home. „Solche und ähnliche Abstraktionsfähigkeiten werden Roboter auch brauchen, um sich im Haushalt zurechtzufinden“, sagt Roboterforscher Markus Vincze vom Institut für Automatisierungs- und Regelungstechnik der TU Wien. In dem Projekt „kognitives Sehen“ bringt sein Team einem Roboter etwa bei, was ein „Häferl“ ist. Vorgegeben wird ihm dafür als Vorwissen nur, dass es sich um einen oben offenen Zylinder mit Henkel handelt. „Dann zeigen wir ihm Beispielobjekte für Häferl, die er selbstständig einzuordnen beginnt.“ So lernt der Roboter, alle möglichen Tassen und nicht nur eine bestimmte selbstständig zu finden. Nach demselben Prinzip wird Roboter „James“ im Projekt „robots@home“ nun auch auf andere Haushaltsgegenstände und Möbelstücke trainiert werden. So soll er fit für Servier- und Haushaltsarbeiten gemacht werden. In etwa sechs Jahren, schätzt Vincze, könnte ein erster Prototyp Marktreife erlangen.

Während in den Grundlagenlabors an intelligenten High-End-Robotern weitergetüftelt wird, haben simple Serviceroboter wie Staubsauger oder Rasenmäher den Weg in die Haushalte längst gefunden. Zwar gelten solche „Einzelbegabungen“ noch eher als Spielzeug für Technikverliebte, weltweit wurden davon aber im Vorjahr immerhin schon 1,9 Millionen Stück verkauft. Und in Südostasien werden bereits heute enorme Anstrengungen unternommen, um in einem entstehenden Robotermarkt mit einem geschätzten Marktvolumen von 300 Milliarden Dollar im Jahr 2015 von Anfang an vorne mit dabei zu sein. Mitsubishi hat etwa mit „Wakamaru“ einen rollenden Serviceroboter entwickelt, der über einen Sprachschatz von 10.000 Wörtern verfügt, bis zu zehn Personen erkennt und in Notfällen selbstständig Hilfe holen kann. Wakamaru ist auch in der Lage, Nebenwirkungen von Medikamenten zu speichern oder an die pünktliche Medikamenteneinnahme zu erinnern. Leeren sich seine Akkus, findet er selbstständig seine Ladestation.

Mit der Losung „Roboter für alle“ hat Südkorea im Rahmen des „ubiquitous robotic companion“-Projekts in diesem Herbst einen ersten Großversuch gestartet. Mehr als 700 Haushalte, Kindergärten und Banken wurden mit mobilen, via Handy und/oder Internet steuerbaren Servicerobotern ausgerüstet: Die bis zu einem Meter großen Maschinen sind mit Kamera und Brandmeldern ausgestattet, ständig online, können Pizza bestellen, Geschichten vorlesen oder Haustiere sitten. Kostenpunkt: rund 800 bis 1600 Euro. Mit massiver Unterstützung der Regierung soll eine Massenproduktion für Netzwerkroboter aufgebaut werden. In fünf Jahren will Südkorea mit drei Millionen verkauften Exemplaren zu einem der drei weltweit führenden Roboterproduzenten aufsteigen.

Killerapplikation. Den Karlsruher Roboterentwickler Rüdiger Dillmann erinnern diese Versuche an die Anfangszeiten des Internet: „Man ist auf der Suche nach der Killerapplikation. Bis jetzt ist aber noch nicht wirklich eine in Sicht.“ In Japan, wo man sich gegenüber der Robotik weit aufgeschlossener zeigt als beispielsweise in Europa, wird daran gedacht, Roboter als Krankenpfleger einzusetzen. Zu diesem Zweck hat das japanische Forschungsinstitut Riken bereits einen Pflegehelfer namens „Ri-Man“ entwickelt. Der freundlich blickende Humanoide kann sehen, hören und sechs verschiedene Gerüche unterscheiden. Er rollt auf Rädern und ist mit zwei speziellen Armen ausgestattet, die es ihm ermöglichen, Patienten bis zu einem Gewicht von 70 Kilogramm aus dem Bett zu heben und zu tragen. In spätestens fünf Jahren soll er zum Einsatz kommen. Ob er auf entsprechende Akzeptanz stößt, ist freilich noch fraglich. „Möglicherweise in Japan“, meint Dillmann, „hierzulande aber sicherlich noch nicht.“

Höhere Akzeptanz würde wahrscheinlich Robotern zuteil, die als hoch technisierter Kuscheltierersatz dienen könnten. Mit der Roboterrobbe „Paro“ entwickelte das japanische National Institute of Advanced Industrial Science and Technology in zwölfjähriger Forschungsarbeit ein pelziges Kunsttier, das bereits in der Therapie von Demenz- und Alzheimer-Patienten eingesetzt wird. Ausgestattet mit einer Vielzahl von Berührungssensoren und einer zentralen Recheneinheit, reagiert die Roboterrobbe auf Streicheleinheiten mit dem Schließen der Augen, legt den Kopf zur Seite oder gibt wohlige Laute von sich. Laut Studien ist die Robbe bei Menschen in Altersheimen gut angekommen. Die Robotertiere waren für die Alten ein willkommener Gesprächsstoff. Geht es nach dem Entwickler Takanori Shibata, so soll die 3000 Euro teure Robbe bis 2015 mehr als drei Millionen Mal verkauft werden. Ob sie auch in Europa ankommt, ist noch ungewiss: Derzeit wird sie jedenfalls in Kliniken in Italien und Schweden getestet.

Von Norbert Regitnig-Tillian