Dossier: Künstliche Intelligenz

Künstliche Intelligenz: Kommt eine Invasion der Roboter?

Die jüngste Generation von Artificial Intelligence vollbringt Leistungen, die lange als ausgeschlossen galten: Computer lernen selbstständig, zeigen Intuition und fällen Entscheidungen, die wir nicht mehr verstehen. Kann uns die Kontrolle entgleiten?

Drucken

Schriftgröße

Er fand die Szene befremdlich, sogar ein wenig unheimlich. Der Wiener Tourist, ein passionierter Weltreisender, betrat das Hotel in Tokio und sah sich an der Rezeption einem Roboter gegenüber. Die Nachbildung einer jungen Dame in Pagenuniform starrte ihn stumm an, und der Mann fragte sich, ob er sich willkommen geheißen, argwöhnisch beäugt oder bei etwas ertappt fühlen sollte. Er hatte keine Lust, es herauszufinden, und ging lieber rasch vorüber.

Wahrscheinlich müssen wir uns an solche Begegnungen bald gewöhnen. Kaum eine Woche vergeht ohne Neuigkeiten aus den Roboterlabors, und stets erfahren wir von weiteren Nischen des Lebens, in welche die Maschinen vorstoßen. Ob Sprachassistenten, willfährige Gehilfen im Haushalt oder in der Fabrik, Altenpfleger, Sexpartner, Putzkraft oder Lagerarbeiter, ob autonome Rasenmäher oder ebensolche Autos – mehr und mehr scheint der Alltag durchdrungen von Gefährten aus Metall und Silikon. Manchmal stechen echte Nobelexemplare aus der Masse der Entwicklungen hervor: Sophia zum Beispiel, ein humanoider Roboter, der Gesichter erkennt, Mimik und Gestik imitiert sowie einfache Gespräche führt; oder der vierbeinige SpotMini, einem Hund nachempfunden, der flink, behende und gelenkig über Stiegen klettert, Türen öffnet und als künstlicher Nachtwächter in Betracht kommt, der unermüdlich Kontrollgänge in Bürogebäuden abspult. Der Japaner Hiroshi Ishiguro hat sogar ein artifizielles Abbild seiner selbst erschaffen, einen ihm verblüffend ähnlichen Roboterzwilling, und scherzt manchmal, er überlege, den künstlichen Klon an seiner Stelle zu Konferenzen zu schicken.

Roboter sind aber nur eine Form künstlicher Intelligenz, gleichsam deren in solide Körper gegossenes Erscheinungsbild. Die meisten Ausprägungen der Artificial Intelligence, kurz AI, sind unsichtbar: Sie bestehen aus Software, Algorithmen, letztlich aus Zahlen. Doch genau dort zeigt sich, wie tief die AI bereits in unser Leben gesickert ist: Leistungsfähige, auf die Erkennung von Mustern im wirren Datendschungel spezialisierte Systeme diagnostizieren Krebs präziser als Ärzte; Computer steuern den Aktienhandel und dirigieren Drohnenflotten; sie blamieren die Großmeister raffinierter Brettspiele und erobern vermeintlich humane Bastionen wie die Kunst, indem sie Bilder malen oder Musik komponieren, vorzugsweise unter launigen Namen wie Android Lloyd Webber.

Auch in die Landwirtschaft, traditionell ein Hort des Manuellen, hält Big Data Einzug. Mittels Simulationen, die Parameter wie Bodenbeschaffenheit, Eigenheiten von Pflanzen und Wetterinformationen berücksichtigen, sollen Erntezeitpunkt, Düngemitteleinsatz und Ressourcenverbrauch optimiert werden. Und selbst heikle Bereiche unserer Gesellschaft sind künstlicher Intelligenz nicht mehr verschlossen, etwa wenn diskutiert wird, kluge Software vor Gericht zur Rückfallprognose von Straftätern einzusetzen. Nicht nur dabei beschleicht skeptische Zeitgenossen ein mulmiges Gefühl, sondern auch, wenn es um Qualitäten geht, die als typisch menschlich gelten: Soll man versuchen, Maschinen Emotionen beizubringen? Kann man ihnen Bewusstsein implementieren? Und behalten wir dann noch die Kontrolle? Frankreich beispielsweise beauftragte den Pop-Mathematiker Cédric Villani, um ethischen Fragen nachzugehen. Zum Beispiel: Wer haftet, wenn ein Computer aus dem Ruder läuft und folgenschwere Fehler begeht? Brauchen wir einen hippokratischen Eid für Programmierer?

Die meisten Menschen stellen sich vermutlich grundlegendere Fragen: Was sollen wir von künstlicher Intelligenz überhaupt halten? Sollen wir uns über ungeahnte Möglichkeiten freuen, die unseren Alltag bereichern, erleichern und vielleicht jene ungeliebten Jobs ablösen, die im Englischen dull, dirty and dangerous heißen – langweilig, schmutzig und gefährlich? Oder sollen wir uns fürchten? Und wenn ja, wovor mehr – vor perfekten, superintelligenten Maschinen, die uns mit gespenstischer Präzision übertrumpfen und gnadenlos an die Wand spielen? Oder vor solchen, die aufgrund chronischer Fehleranfälligkeit und Unzulänglichkeit zur Bedrohung werden?

Experten wie Robert Trappl glauben, dass wir noch ein wenig Zeit haben, um uns eingehend mit solchen Fragen zu befassen. Der Vorstand des Österreichischen Forschungsinstituts für Artificial Intelligence ist einer der internationalen Pioniere auf dem Gebiet und meint, dass sich vieles noch im Stadium des Erprobens und Herantastens befindet. „Es kommt mir nicht realistisch vor, dass wir uns so bald fürchten müssen, dass Roboter die Macht übernehmen. Ein Robot Deus, allwissend, allmächtig und allgegenwärtig, ist noch weit weg“, sagt Trappl.

Von Menschen und Maschinen

Doch was eigentlich ist künstliche Intelligenz? Wann ist ein System intelligent? Wenn es etwas vollbringt, für das auch wir Hirnschmalz brauchen, oder eine Aufgabe sogar besser als wir erfüllt? In dem Fall wäre jeder Taschenrechner eine künstliche Intelligenz, folgert Manuela Lenzen, die ein Sachbuch zum Thema publiziert hat *). Oder müssen wir am anderen Ende der Skala ansetzen und Kompetenzen wie Abstraktion, Reflektion, Empfindsamkeit, Selbstbewusstsein fordern? Dann gäbe es gewiss noch keine intelligente Maschine. Kann es sein, fragt Lenzen weiter, „dass wir eine kognitive Leistung intelligent nennen, solange wir nicht verstanden haben, wie sie zustande kommt“? Der Gedanke ist plausibel: Humane Intelligenz ist längst nicht in allen Details entschlüsselt und kommt uns vielleicht daher einzigartig und unerreichbar vor, doch sobald wir nachvollziehen können, wie ein Computer Rechenoperationen ausführt, zögern wir, ihm Intelligenz zuzugestehen.

Zudem können wir kaum umhin, bei Intelligenz sofort an menschliche Intelligenz zu denken. „Es gibt aber viele Möglichkeiten, Intelligenz zu demonstrieren“, sagt Moshe Vardi, Artificial-Intelligence-Experte an der texanischen Rice University. Mensch und Maschine sind Meister in ganz verschiedenen Disziplinen, so Vardi. Wir sind zum Beispiel aufgrund unseres evolutionären Erbes unschlagbar in Mustererkennung: Anhand nur weniger, selbst fragmentarischer  Vorlagen lernen wir schnell und effizient, Objekte richtig zu klassifizieren, was auch One-shot-learning heißt. Ein Sessel mag die bizarrsten Formen haben, doch wir erkennen ihn stets problemlos als Sitzgelegenheit. Eine Maschine plagt sich da deutlich mehr und benötigt ein Archiv mit Tausenden Bildern. Dafür schwächeln wir bei Statistik und Logik. Vardi nennt zur Erläuterung das berühmte Linda-Experiment: Linda engagiert sich in Menschenrechtsfragen und studiert Jus. Welcher weitere Lebensweg ist wahrscheinlicher? Erstens: Linda wird Anwältin. Zweitens: Linda wird Anwältin und Menschenrechtsaktivistin. Viele Menschen würden auf Version B tippen, weil sie um Lindas soziale Ader wissen. Doch das ist falsch: Logisch betrachtet tritt eher Version eins ein. Warum? Weil dafür nur eine Annahme zutreffen muss (Anwältin), nicht aber doppelt so viele Faktoren (Anwältin plus Aktivistin).

Dieses kleine Beispiel verdeutlicht den Unterschied zwischen humanem und synthetischem Denken recht anschaulich. Die meisten Forscher vertreten die Ansicht, dass wir uns von den Gesetzen menschlichen Denkens lösen müssen, wenn wir uns künstlicher Intelligenz zuwenden wollen – genau wie der Mensch das Fliegen nicht durch Imitation des Flügelschlags gelernt hat, sondern dadurch, dass er das Prinzip Fliegen neu erfunden hat. Was künstliche Intelligenz betrifft, begannen vergleichbare Bemühungen vor mehr als einem halben Jahrhundert.

Wie Computer lernen

Mitte der 1950er-Jahre starteten amerikanische Forscher ein Projekt, das Computern Sprache beibringen sollte. Sie nannten es Artificial Intelligence, und seit damals ist der Begriff in der Welt. Man probierte viele Jahre herum, versuchte, Maschinen Klugheit einzupflanzen und schuf teils schon jene Grundlagen, die heute, im Zeitalter fantastischer Rechenleistung, die Essenz künstlicher Intelligenz ausmachen. 1997 geschah, was niemand für möglich gehalten hätte: Der Computer „Deep Blue“ schlug Weltmeister Garri Kasparow im Schach. Und Manuel Blum hatte seine Wette gewonnen.

Blum ist Computerforscher an der Carnegie Mellon University und will Maschinen Bewusstsein anzüchten. Er wettete einst gern mit einem Kollegen über die Meilensteine mechanischer Intelligenz. Blum gab den Optimisten, der Kollege den Pessimisten, der einen Sieg von Deep Blue ausschloss. Als der Computer gewann, meinte Blums Kollege: Gut, aber niemals Jeopardy! 2011 putzte das Programm „Watson“ von IBM in dem Quiz alle humanen Champions weg. Nochmal fünf Jahre später besiegte die künstliche Intelligenz „AlphaGo“ den weltbesten Spieler des asiatischen Brettspiels Go. Damit war ein Damm gebrochen.

Der Schachcomputer lieferte zwar eine sensationelle Leistung, doch letztlich führte er bloß aus, was Menschen ihm eingetrichtert hatten: eine Unzahl denkbarer Spielzüge, die er in atemberaubendem Tempo durchkalkulieren konnte, in einem Spiel, das strikten, hochgradig normierten und daher gut programmierbaren Regeln gehorcht. Deep Blue bewährte sich bravourös, und die Ingenieure wussten warum. Das war bei AlphaGo ganz anders. Go ist komplexer und überdies viel intuitiver als Schach, klare Regeln genügen nicht. Und der Lernprozess verlief ganz anders: Zunächst fütterte man die Software mit 160.000 Go-Spielen und trainierte sie darauf, Muster darin zu erkennen. Dann spielte das System gegen sich selbst, wobei stets jüngere gegen ältere Versionen antraten. In gewisser Weise „lernte“ AlphaGo eigenständig die Kniffe des Spiels, verbesserte seine Fähigkeien ständig aus eigenem Antrieb und ohne menschliches Zutun, erarbeitete sich allmählich selbst einen intuitiven Zugang. Der Clou daran: Als AlphaGo gewann, konnte niemand genau sagen, warum, die Programmierer eingeschlossen. Es hatte sich in gewisser Weise von seinen Schöpfern entkoppelt und ein Eigenleben entwickelt.

Genau das ist die Basis für das heutige Niveau von AI, und man nennt dies ein „künstliches neuronales Netz“: ein dynamisches, lernfähiges, stetig ausreifendes, sich selbst verbesserndes und nicht mehr auf statischen In- und Output beschränktes Konstrukt, das dem menschlichen Hirn nachempfunden ist. Die meisten AI-Anwendungen beruhen nun auf künstlichen neuronalen Netzen, ob Bilderkennung, automatisierte medizinische Diagnostik oder Sprachassistenten.

Will man eine Ahnung davon bekommen, wie moderne künstliche Intelligenz funktioniert, bedarf es daher einer vagen Idee von solch neuronalen Netzen. Der Vergleich mit dem Gehirn ist eher als Metapher zu verstehen, denn eine physische Entsprechung zu Neuronen, also Nervenzellen, gibt es nicht. Das Gegenstück zur Nervenzelle ist eine Stelle in der Software, ein Punkt, letztlich eine Zahl. Beschickt man das System mit Daten, dem Pendant zu Sinneseindrücken, werden die „Punkte“ davon beeinflusst, und zwar mittels Algorithmen, die nichts anderes sind als Vorschriften, quasi Gebrauchsanweisungen für Zahlen. So wie Neuronen unter dem Eindruck von Reizen aktiviert werden, finden in diesem Fall Rechenoperationen statt – zum Beispiel eine Multiplikation, was man als Festigung eines Reizes deuten könnte. Die Manipulationen an einzelnen Stellen greifen zudem auf andere Knotenpunkte im Netzwerk über, sodass eine Art verwobenes künstliches Nervengeflecht entsteht. Neuronale Netze lernen, indem Zahlenwerte immer wieder verändert und angepasst werden, und sie lernen durch unablässige Wiederholung. Man könnte sagen: So trainieren und üben sie.

Im Detail unterscheidet man einzelne Lernmodelle, die etwa reinforcement learning, supervised oder unsupervised learning heißen, teils an die Psychologie angelehnt sind und unter anderem dadurch variieren, in welchem Umfang der Mensch noch Nachhilfe gibt. Doch generell gilt: Nach diesem Prinzip eignet sich ein System allmählich die besten Züge eines Spiels an, und derart lernt es durch endlose Wiederholung ebenso, zum Beispiel zuerst grob zwischen Hunden und Katzen zu unterscheiden, dann große und kleine Hunde auseinanderzuhalten und schließlich, nach geduldigem Feintuning, Hunde der verschiedensten Rassen in dieselbe Kategorie zu packen. Und dieses Prinzip ist im Grunde auf jede Art der Aneignung von Information und Lerninhalten übertragbar. Zum Beispiel kann man ein neurnales Netz auf das Aufspüren von Krebsgenen in humanem Gewebe trainieren.

Eine heute gebräuchliche Steigerungstufe sind „tiefe“ neuronale Netze, auch „Deep learning“ genannt. Die Tiefe bezieht sich darauf, dass es nicht nur eine Schicht eines neuronalen Netzes gibt, sondern eine Vielzahl davon, die übereinander liegen. Wie im Langzeitgedächtnis sind in diesen Schichten all die Lerninhalte abgespeichert, die sich das Netz angeeignet hat. Wenn es darin nach passenden Antworten auf eine Fragestellung sucht, kramt es also gleichsam selbstständig im Archiv und in seinem Erinnerungsschatz. „Momentan sagt man, Deep learning ist die eigentliche künstliche Intelligenz, es war ein gewaltiger Sprung zu synthetischen Nervenzellen“, urteilt Robert Trappl. „Die Möglichkeiten haben auch eine große Unsicherheit erzeugt.“

Die Verunsicherung resultiert zum einen daraus, dass es keine natürliche Grenze für künstliche Intelligenz mehr zu geben scheint. Warum nicht morgen Roboter, die Freude, Trauer, Schmerz empfinden können? Warum nicht übermorgen solche mit Persönlichkeit? Völlig abwegig? Der Erfolg von AlphaGo hatte vor ein paar Jahren als gänzlich ausgeschlossen gegolten. Und nun gibt es sogar Maschinen, die eine Art Schulzeit durchleben und eigenständig ihr Wissen steigern, ohne dass der Mensch genau wüsste, was dabei in den Tiefen des Netzes vorgeht. Daraus erhebt sich ein zweites, ethisches Problem: Wenn wir nicht gar wissen, warum ein Computer zu einem bestimmten Urteil gelangt ist – wie sollen wir ihn da etwa vor Gericht oder in der Medizin einsetzen, wo jede Entscheidung klar begründbar sein muss und nicht willkürlich wirken darf? Sollen wir ein Programm über Kreditvergaben und damit über die Zukunft von Menschen entscheiden lassen, wenn wir nicht nachvollziehen können, anhand welcher Kriterien es ein Darlehen genehmigt oder ablehnt? Trappl hält denn auch für eine der realen Gefahren, „dass wir so komplexe Systeme erzeugen, dass wir sie nicht mehr durchschauen“. Brauchen wir letztlich, wie bei der Gentechnik, ein Pickerl, das darüber aufklärt, ob künstliche Intelligenz am Werk war?

Sind Maschinen Rassisten?

Zum Glück stellen sich bei den allermeisten der gegenwärtigen Anwendungen derart heikle Fragen nicht. Artificial Intelligence ist längst massiv im Einsatz, und zwar still, leise und unaufgeregt in einem Bereich, wo sie zweifellos enormen Nutzen stiftet: in der Wissenschaft. Am Teilchenforschungszentrum CERN prallen pro Sekunde bis zu 600 Millionen Partikel aufeinander. Doch nur 100 oder 200 dieser Kollisionen sind interessant und könnten Hinweise auf unbekannte Teilchen enthalten. Kein Mensch könnte diesen Datenwust je durchstöbern – dafür braucht es künstliche Intelligenz, die rasend schnell nach Mustern im Teilchenschrott sucht, genau wie ihre digitalen Geschwister nach Mustern in Spielverläufen suchen. Ähnlich geht die Detektion von Gravitationswellen vonstatten. „Winzige Signale müssen aus einem reißenden Strom verrauschter Daten herausgefiltert werden“, schrieb „Spektrum der Wissenschaft“. Auf vergleichbare Weise lassen sich die lernfähigen Systeme auf Klimaforschung, Hochenergiephysik, Molekularbiologie oder die Entschlüsselung von Proteinfunktionen anwenden.

Kritisch könnte es indes dort werden, wo AI sensible Bereiche der Gesellschaft berührt und sie zugleich frappant dumme Fehler zu begehen scheint. Das klingt nach einem eklatanten Widerspruch, mit dem wir jedoch ständig konfrontiert sind: Selbstlernende Systeme vollbringen einerseits fantastische Leistungen und können andererseits jämmerlich versagen – und häufig kennen wir den Grund nicht, da uns die heutigen künstlichen Intelligenzen aufgrund ihres Eigenlebens eben teils entgleiten. Auf harmlose Weise begegnen wir dem Phänomen bei absurden Kaufempfehlungen oder Übersetzungsprogrammen, die an der Unterscheidung zwischen dem Treibstoff „Super“, selbst wenn das Wort neben „Diesel“ steht, und dem Synonym für „großartig“ scheitern – und sofort klar wird, dass hier keinerlei Sinnverständnis vorliegt. Viel bedenklicher wird es, wenn Computer, wie bereits geschehen, aufgrund einer Fehlklassifizierung Menschen dunkler Hautfarbe in die Kategorie „Gorilla“ einordnen. Wo führt es hin, wenn solche Systeme eines Tages zur Anwendung kommen, etwa bei Behörden?

Nur manchmal findet man heraus, was schiefgelaufen ist, und meistens liegt es an Winzigkeiten tief im Inneren der künstlichen Gehirne. In einem Fall erkannten die Ingenieure, dass ein Programm Pferde gar nicht anhand der optischen Erscheinung identifizierte, sondern anhand der Copyrightvermerke auf den Fotos. Es handelte sich also um einen simplen Fall von Fehllernen. Ein anderes Mal brauchte man in Bilddaten nur kleine, für den Menschen unsichtbare Abweichungen einzubauen, und die Software hielt plötzlich jedes Objekt für einen Strauß, gleich ob Hund, Heuschrecke oder Heizung. Kleine Ursachen können fatale Wirkung haben, wenn es um sensiblere Fragestellungen geht. Minimale Lernfehler können ebensogut dazu führen, dass sich Computer Stereotypen und Vorurteile aneignen. „Verzerrungen“ heißen diese Irrtümer in der Fachsprache, und immer mehr Experten weisen darauf hin, dass wir uns wohl sorgfältiger überlegen müssen, mit welchem Basisstoff wir die Rechner füttern, damit sie bei ihren folgenden selbstständigen Lernprozessen keinen Unfug treiben.

Der künstliche Psychopath

Ein unheimlches Beispiel für Fehltritte präsentierten unlängst Forscher des Massachusetts Institute of Technology. Sie erschufen „Norman“, einen künstlichen Psychopathen. Sie fütterten ihn mit grausigen Bildern verletzter oder sterbender Menschen. Bei einer Art Rohrschachtest assoziierte Norman anschließend praktisch alles, was wer sah, mit Blut, Mord und Totschlag. In anderen Fällen bereitet schlicht die miserable Treffsicherheit der Programme Kopfzerbrechen. So werden in den USA Algorithmen bereits benutzt, um die Rückfallwahrscheinlichkeit von Straftätern zu prognostizieren. Forscher verglichen nun eines dieser Systeme anhand historischer Fälle mit dem Urteil von Laien, die keinen Schimmer von Kriminalsoziologie hatten. Ergebnis: Mensch und Maschine lagen beide zu etwas mehr als 60 Prozent richtig. Wollen wir tatsächlich einer Software vertrauen, deren Zuverlässigkeit knapp über der Aussagekraft eines Münzwurfs liegt? Würden wir so einem System die Aufsicht über Waffen überantworten?

In einem anderen Bereich wird die Verlässlichkeit intelligenter Software bereits breiter diskutiert: beim autonomen Fahren. Spätestens seit dem tödlichen Unfall mit einem selbstfahrenden Uber-Taxi im März 2018 steht die Frage im Raum, ob die Systeme wirklich schon so weit sind, um sie auf den Straßenverkehr loszulassen. Ganze sechs Sekunden vor dem Zusammenstoß hatte das Vehikel jene Passantin erkannt, die über die Straße ging. 1,3 Sekunden vor der Kollision hatte es den Unfall als unvermeidlich eingestuft – und nichts unternommen, keine Bremsung, kein Ausweichmanöver. Zwar wirft der Unfallbericht auch der Begleitfahrerin Unachtsamkeit und damit Versagen vor, doch in jedem Fall war die Software der Situation ebensowenig gewachsen. Generell geht es im Straßenverkehr und anderen riskanten Sparten aber auch um die Frage der Fehlertoleranz: Was manchmal problem- oder bedeutungslos ist, kann in anderen Situationen untragar sein. Wenn eine künstliche Intelligenz 99 von 100 Urlaubsfotos richtig zuordnet, dürfen wir uns freuen, wenn sie eine von 100 roten Ampeln überfährt, kann dies in einer Katastrophe enden, vergleicht Sachbuchautorin Manuela Lenzen.

Vom Nutzen einer künstlichen Kindheit

Vielleicht handelt es sich aber bei all dem tatsächlich um Kinderkrankheiten, um Mängel, an denen jede Innovation laboriert. Forscher arbeiten daher intensiv daran, bisherige Systeme zu verbessern. Robert Trappl und sein Team suchen zum Beispiel nach neuen Wegen, einer künstlichen Intelligenz Sprache beizubringen. Sie interessieren sich dabei für den Spracherwerb bei Kindern und überlegen, wie Roboter davon profitieren könnten. Wie lässt sich, so die Kernfrage, Weltwissen so vermitteln, dass sich eine Maschine in ihrem Umfeld optimal zurechtfindet? Der Wortschatz ist für Trappl Voraussetzung, um etwa einen mechanischen Mechaniker zu konstruieren, der Gegenstände, Bauteile und Werkzeuge korrekt erkennen und benennen kann und sie in gewünschter Weise anwendet. „Solch einen Hilfsarbeiter muss man zunächst anlernen, und dafür braucht er zuerst Sprache, dann kann er lernen, Handgriffe auszuführen, zum Beispiel bestimmte Bauteile ineinaderzustecken“, sagt Trappl. Will man einen braven Computerkollegen, ist es sinnvoll, ihn zusätzlich mit komplexer Sinnessensorik auszustatten: neben einem Fachvokabular mit visueller, akustischer und haptischer Wahrnehmung, damit er sich bestmöglich in seiner Welt zurechtfindet.

Daran knüpft sich auch eine Frage, die in der Roboterforschung häufig gestellt wird: Brauchen Maschinen einen Körper, um wirklich gut zu lernen? Müssen sie fähig sein, Inputs umfassend, ganzheitlich, multisensorisch aufzunehmen, damit sie ein stimmiges Bild der Realität generieren und angemessen reagieren? Schließlich finde Denken nicht im leeren Raum statt, wie Lenzen anmerkt. Und müssen sie eine Art künstliche Kindheit durchlaufen, damit ihre Kompetenzen allmählich reifen, wachsen Erfahrung sammeln? Auch das Thema Emotion kommt hier wieder ins Spiel, allerdings nicht deshalb, weil man Roboter wollte, die Gefühle vorgaukeln. Heute wissen wir, wie sehr Emotion humane kognitive Prozesse beeinflusst. Wenn wir also brauchbare Gefährten aus Metall konstruieren wollen, müssen wir diesen Aspekt berücksichtigen.

Derlei Erwägungen werden mit dem zunehmenden Vordringen von Robotern in Alltag und Arbeitswelt naturgemäß wichtiger. Es geht dabei nicht nur um Gehilfen in Industriehallen und Logistiklagern wie jenem von Amazon, wobei es sich hier um den größten Einsatzbereich handelt. Manche Prognosen gehen davon aus, dass mehr als 40 Prozent aller Jobs in der Fertigung und in Branchen wie Warenlogistik dadurch bedroht sind. Es geht auch um soziale Roboter, Rezeptionisten im Hotel und in Arztpraxen, um Museumswächter oder Altenpfleger wie die Roboterrobbe Paro. Mitunter ist das Ziel nicht der Ersatz von menschlichen Kontakten, sondern eher der erste Schritt dazu. Beispielsweise scheinen autistische Kinder von der Interaktion mit Robotern sogar zu profitieren, weil sie über diesen Umweg auch die Scheu vor humanen Bezugspersonen abbauen.

Besonders prickelnd ist natürlich, inwiefern humanoide Maschinen als Sexualpartner taugen – oder sogar als Ehepartner. „Das österreichische Recht würde das zumindest nicht verbieten“, meint Trappl halbernst und fügt ein wenig verschmitzt hinzu, dass der Gesetzgeber wohl vorausschauend Vorkehrungen getroffen habe. „Das Mindestalter für eine Heirat beträgt bei uns 16 Jahre. Aber wer will schon einen 16 Jahre alten Roboter?“

Manuela Lenzen: „Künstliche Intelligenz. Was sie kann & was uns erwartet“, C.H.Beck, 2018, 272 Seiten, EUR 16,95

Alwin   Schönberger

Alwin Schönberger

Ressortleitung Wissenschaft