Roboter: Wie man Maschinen beibringt, Emotionen zu zeigen

Roboter: Wie man Maschinen beibringt, Emotionen zu zeigen

Sind Maschinen zu Emotionen fähig? Nicht nur im Kino wird derzeit die Königsdisziplin der Künstlichen Intelligenz erörtert. Auch in den Labors der Roboterforscher entstehen Kunstwesen, die Freude, Trauer und Empathie empfinden oder verstehen sollen. Doch wozu eigentlich?

Von Hubertus Breuer

Es ist die erstaunliche Geschichte einer Selbstfindung. Kaum erblickt das intelligente Betriebssystem OS1 in den Händen von Theodore Twombly in einem Smartphone das Licht der Welt, verleiht es sich einen Namen: Samantha. Dann beginnt eine Reise in die Weiten und Tiefen der künstlichen Intelligenz. In dem kürzlich angelaufenen Kinofilm „Her“ von Spike Jonze lernt die mit einer leicht lasziven Stimme versehene Samantha nicht nur, wie maßlos clever sie ist, sondern erlebt auch, was man schlauen Computerprogrammen bislang kaum zugetraut hätte: Eifersucht, Ärger, Sehnsucht, Scham – kurz: Emotionen.

So weit ist die reale Welt heute noch nicht. Roboter und sonstige mit ausgefeilter Software ausgestattete Maschinen verspüren noch keinen Herzschmerz, und ihnen flattern keine Schmetterlinge im Bauch. Aber sie sind doch weit gediehen, wenn es darum geht, Gefühle zumindest zu simulieren und obendrein die Emotionen ihrer menschlichen Gegenüber zu erkennen. Diese Bestrebungen in den weltweiten Werkstätten für Künstliche Intelligenz (KI) fußen auf der Erkenntnis, dass Gefühle das Schmiermittel menschlichen Zusammenlebens sind. Und da Roboter den meisten Prognosen zufolge in den kommenden Jahrzehnten in unserem Alltag stärker präsent sein werden – zum Beispiel als umsichtige Altenpfleger oder flinke Küchengehilfen –, müssen sie dauerhaft in der Lage sein, Gefühle zu interpretieren und bis zu einem gewissen Grad selbst zu zeigen.
Um dies zu bewerkstelligen, tüfteln KI-Experten auf dem Forschungsfeld des sogenannten Affective Computing daran, dass Maschinen unsere Körpersignale und den Gefühlsausdruck automatisch analysieren. Können Fahrerassistenzsysteme heute bereits Müdigkeit am Steuer erkennen, geht es in der nächsten Stufe darum, auch Gefühlsregungen in der Mimik und Körpersprache möglichst präzise zu deuten. Eine Arbeitsgruppe am Media Lab des Massachusetts Institute of Technology (MIT) in Boston will beispielsweise Fahrzeuge mit Kameras bestücken, welche die Mimik des Fahrers analysieren, und Türgriffe und Lenkrad mit Sensoren und Mikrofonen ausstatten, um aufgrund des ausgeübten Drucks der Hände, der Leitfähigkeit der Haut oder der Stimme zu erkennen, ob der Fahrer gestresst ist. Und dann? „Das Auto könnte einem gestressten Autofahrer empfehlen, entspannende Musik zu hören, die Temperatur im Wagen-inneren reduzieren oder eine Route empfehlen, die für ihn weniger anstrengend ist“, sagt Daniel McDuff von der Affective-Computing-Arbeitsgruppe am Media Lab.

Diffizile Gefühlsregungen
Im Alltag können intelligente Kamerasysteme vorerst nur Standardemotionen verlässlich identifizieren – etwa traurig, ängstlich, wütend, überrascht, angeekelt oder glücklich. Doch das wird sich in naher Zukunft zweifellos ändern. So berichtete der Computerwissenschafter Aleix Martinez von der Ohio State University im Dezember 2013, eine von ihm und Kollegen programmierte Software könne problemlos 21 verschiedene Gesichtsausdrücke erkennen, darunter diffizile Gefühlsregungen wie „glücklich überrascht“ oder „freudig angeekelt“.

Fortschritte gibt es auch bei der mensch-lichen Stimmanalyse. Wer sich bei einer Hotline mit einem automatischen System unterhalten muss, gerät schon einmal leicht in Rage. Da hilft es traditionell, den Anrufer rasch an einen Ansprechpartner aus Fleisch und Blut weiterzuleiten, sofern dieser sozial einigermaßen kompetent ist. Echtes humanes Feingefühl geht Robotern oder Smartphone-Assistenten zwar noch weitgehend ab, doch ist es nur eine Frage der Zeit, bis diese Technologie in das Betriebssystem integriert werden kann. Eine iPhone-App wie „Moodies“ prüft die Stimme bereits, besticht indes noch nicht durch hohe Trefferquoten. Im Zweifelsfall, so scheint es, lautet das Ergebnis etwa: „Traurigkeit, mit Glück vermischt – womöglich Sehnsucht.“ Ob dies, im Falle der Integration solch eines Systems in Callcenter-Technologie, einem entnervten Kunden weiterhilft, darf eher als fraglich gelten.

Weiter gediehen ist hingegen das Talent der Kunstwesen, Gefühle selbst auszudrücken. Recht beeindruckend gelang das bereits Ende der 1990er-Jahre einem Kopfroboter namens Kismet, den die KI-Forscherin Cynthia Breazeal vom MIT entwickelt hatte. Mit großen blauen Augen, die unter silbrigen Lidern hervorlugten, roten Schlauchlippen und rosa Spitzohren sprang das Maschinenwesen unter den damals eher prosaisch anmutenden Blechkameraden auf den ersten Blick ins Auge – und gleichsam ins Herz.

Mehr als ein weißer Eierkopf
Mit Strom versorgt, ließ Kismet seine Umwelt ständig wissen, wie ihm zumute war. Ob freundlich, ärgerlich, verängstigt oder nur müde, hing davon ab, wie das ihm einprogrammierte Begehren nach Geselligkeit, Spielen und Schlaf befriedigt wurde. Verweigerte man ihm die Aufmerksamkeit, fing er an zu quengeln. War er zufrieden, brabbelte er wohlig. Kismet, heute in einer Vitrine im MIT-Museum zu bewundern, ist eine überoptimale Schlüsselreizmaschine nach dem Babyschema, der sich angeblich kein halbwegs gefühlvoller Mensch entziehen kann.
Emotionaler Ausdruck gehört heute deshalb zur Standardausstattung vieler Kunstwesen, die in den Werkstätten der Robotiker entstehen. Wenn etwa Roboy vom Labor für Künstliche Intelligenz der Universität Zürich einen Besucher mit großen blauen Augen und einem Lächeln auf den Lippen anstrahlt, kann man sich des Eindrucks freudiger Erwartung kaum erwehren. Echte Emotionen reklamieren die Konstrukteure für die putzige Maschine zwar nicht, der Gefühlsausdruck ist aber durchaus beabsichtigt, nicht zuletzt, um Roboys an eine Geisterbahn gemahnende Aura abzumildern: Unter seinem weißen Eierkopf ist der Roboter ein mit künstlichen Muskeln und Sehnen versehenes Gerippe.

Da hat es der neue, in diesem Frühjahr vorgestellte Asimo-Roboter von Honda besser. Die 1,30 Meter messende Kunstkreatur ist in ein robustes Gehäuse gepackt, steigt Treppen, kickt Fußbälle und kommuniziert, wenn gewünscht, mit schwerhörigen Patienten in der japanischen oder amerikanischen Gebärdensprache. Sein Mimikrepertoire ist zwar mager. Das Visier seines raumhelmartigen Kopfes glänzt in tiefgründigem Schwarz, hinter dem sich ein Lächeln allenfalls vermuten lässt, doch winkt er gerne, streckt die Hand freundlich zum Gruß aus, reißt wie ein kleiner Junge die Arme in die Höhe, wenn er ein Tor schießt, und spricht mit einer freundlichen, wenn auch noch leicht blechern klingenden Kinderstimme. Mit ähnlichen Tricks soll auch der kleinkindgroße Nao aus der französischen Roboterschmiede Aldebaran Zuschauer für sich einnehmen.

Die Robotiker arbeiten natürlich daran, den Gefühlsausdruck subtiler zu gestalten – und zwar, indem sie den Kunstwesen eine eigene Gefühlslogik verleihen wollen. Demnach ändert sich das emotionale Verhalten der Roboter mit ihrer Einschätzung der Situation, je nachdem, ob die Lage wünschenswert, gefährlich oder kontrollierbar erscheint. Diese Logik buchstabieren sie mit rationalen Modellen menschlicher Emotion aus.
Ein Beispiel dafür ist ALMA (A layered model of affect), an dem Patrick Gebhard vom Deutschen Forschungszentrum für Künstliche Intelligenz gemeinsam mit seinem Kollegen Michael Kipp von der Hochschule Augsburg forscht. In diesem Computermodell sind Emotionen vernünftige Reaktionen auf Ereignisse wie Ärger, Stolz oder Enttäuschung. Eingebettet sind sie wiederum in länger währende Stimmungen, beispielsweise Überschwang, die schließlich zentrale Charakteristika einer Persönlichkeit prägen – und verraten, ob etwa eine Person eher extravertiert, aggressiv oder schüchtern ist. „Sie könnten künstliche Systeme heute damit prinzipiell programmieren“, sagt Kipp.

Eine kommerzielle Anwendung für ein solches Programm drängte sich Kipp bereits auf. Er testete, wie Gehörlose auf Avatare reagieren, die Text in Gebärdensprache übersetzen. Dabei konnte er in Bezug auf die deutsche Gebärdensprache, in der Gesicht und Lippen eine große Rolle spielen, feststellen, dass der Blick der Versuchspersonen leicht abschweifte, wenn der Gesichts- und Körperausdruck nicht passende Gefühle zu dem Text ausdrückte. „Emotionaler Ausdruck ist kein bloßes Dekor“, sagt Kipp: „Als integraler, unbewusste Erwartungen erfüllender Bestandteil der Kommunikation helfen uns Emotionen, die Aufmerksamkeit wachzuhalten.“ Solche Emotionsmodelle bieten sich künftig auch für die Mimik freundlicher Assistenten beim Online-Einkauf, Charaktere in Computerspielen oder für Pflegeroboter an.

Der wohl größten Herausforderung sehen sich die Wissenschafter aber beim emotionalen Ausdruck der Stimme gegenüber. Ist es für eine KI-Kreatur zumeist schon schwer, die richtigen Worte zu finden, lassen sich die Intonation oder die Stimmqualität bislang kaum zuverlässig modulieren. „Perfekte Sprach- und Stimmmodulation ist noch Zukunftsmusik“, sagt Gordon Cheng, Robotik-Professor an der Technischen Universität München: „Ob ein Roboter Worte akustisch ausatmend erzeugen sollte, wie Satzmelodie und Rhythmus zu gestalten sind, all diese Nuancen sind computertechnisch nicht trivial.“

Bei aller Anstrengung, künstliche Kreaturen Gefühle ausdrücken zu lassen, behauptet jedoch fast kein KI-Forscher, ihre Maschinen hätten tatsächlich jene Gefühle, die ihre Mimik, Körperhaltung oder ihre Stimme spiegeln. Mehr noch, manche Wissenschafter sind der Ansicht, der schöne Schein genüge ohnehin. So urteilt Luisa Damiano von der italienischen Bergamo Universität: „Roboter brauchen kein echtes Innenleben, sondern nur die Fähigkeit, mit ihren Sozialpartnern und ihrer Umwelt zu interagieren. Diese Fähigkeit, und nicht die Frage, ob die Gefühle echt oder nur simuliert sind, liegt dem menschlichen kognitiven und affektiven Verhalten zugrunde.“
Das sieht auch Hooman Samani von der Nationalen Taipei-Universität in Taiwan so, obwohl er 2012 das Forschungsfeld „Lovotics“ – eine Kombination aus „Love“ und „Robotik“ – begründete. Das Ziel der publikumswirksam benannten und bislang von Samani allein verfolgten Disziplin ist es, gefühlvolle Beziehungen zwischen Roboter und Mensch zu erforschen.

Mittel, Zweck und Glück
Das erste, etwas schlichte Ergebnis sieht aus wie eine rollende Hermelinmütze, der Samani und sein Team sogar ein künstliches Hormonsystem einprogrammiert haben. Dieses beurteilt den Zustand der Welt nach der Vorgabe, ob es beachtet oder gestreichelt wird. Ist die Wollhaube „verliebt“, leuchtet ein Ring von LED-Lampen um den Fellsaum pink auf, sie fiept zufrieden, dreht sich und vibriert. Der Roboter simuliert seine Gefühle also mehr oder minder erfolgreich, doch ein emotionales Innenleben hat er nicht: „Der Roboter ist nur Mittel zum Zweck, um menschliche Zufriedenheit und Glück zu fördern“, sagt Samani.
Für die Forschungsgemeinschaft zählt also, wie Roboter auf uns wirken, und nicht, wie es sich anfühlt, selbst ein Roboter zu sein. Einige Wissenschafter überlegen dennoch, was es bedeuten würde, fühlende Maschinen zu bauen. In ihren Augen ist der Schlüssel zu wahrhaft emotionalen Robotern nicht körperlicher Ausdruck, sondern vielmehr die innere, für Beobachter unsichtbare Funktion der Gefühle. Und die liegt wie beim Menschen in ihrer Hilfestellung, Entscheidungen zu treffen.

So hat eine Arbeitsgruppe um den Robotiker Álvaro Castro-González von der Carlos III Universität in Madrid einen rollenden humanoiden Roboter namens Maggie entwickelt, der in einem Laborraum samt Stromversorgung und Stereoanlage lebt. Hier sorgt die lernfähige Maggie dafür, dass ihre Batterien nicht leerlaufen, sie Spaß hat – das heißt in diesem Fall, zu Musik zu tanzen –, sich entspannt, mit Menschen interagiert und nicht zuletzt, Gefahren vermeidet. Mithilfe von Gefühlsparametern wie Glück, Traurigkeit oder Furcht bewertet Maggie diese unterschiedlichen Motivationen und ändert entsprechend ihr Verhalten.

Als Castro-González Maggie während eines Experiments gelegentlich beleidigte und gar schlug, lernte der Roboter rasch und ging ihm künftig aus dem Weg. In Gegenwart des offenkundig bösartigen Forschers dominierte die Furcht. „Es liegt nahe, dass Roboter Gefühle haben sollten, angesichts der Tatsache, dass Emotionen für Menschen und Tiere wichtig sind, um zu lernen, Entscheidungen zu treffen und mit uns zu leben“, sagt Castro-González: „Aber in Robotern müssen sich Emotionen auch als nützlich erweisen, und das ist uns damit gelungen. Maggie zeigt heute bereits tierähnliches Verhalten.“

In den Augen einiger Robotiker ist das keine Simulation mehr. Der KI-Experte Domenico Parisi schließt aus der Tatsache, dass Gefühle das Handeln einiger Roboter leiten, „dass sie diese Gefühle auch tatsächlich haben“. Er fordert, dass einige Roboter Gefühle in ihrem mechanotronischen Körper spüren sollten – so wie Glück dem Menschen gefühlt Flügel verleiht oder ihm der Schreck buchstäblich in die Knochen fährt. Dann würde einem Roboy oder dem NASA-Robonauten in der Internationalen Raumstation in Zukunft womöglich vor Zufriedenheit ganz warm um den Akku. Roboteremotionen, das ist trotz aller Annäherung an das Phänomen Gefühl klar, fühlen sich aber gewiss anders an als jene ihrer menschlichen Schöpfer.