Der humanoide Roboter "Pepper“ begrüßt Shopper im "Merkur“-Markt.

Künstliche Intelligenz: Träumen Androiden vom EU-Parlament?

Intelligente Maschinen saugen unsere Wohnungen, fahren unsere Autos, pflegen unsere Eltern und investieren unser Pensionskapital. Das erleichtert das Leben ungemein und wirft einige Fragen auf: Wer haftet für Roboterunfälle? Müssen wir uns vor der künstlichen Intelligenz fürchten? Und darf man Maschinen quälen?

Drucken

Schriftgröße

Eines der großen Rätsel der Menschheit steht möglicherweise vor seiner Lösung. Zigtausende geniale Ingenieure, Mathematiker und Philosophen haben jahrzehntelang daran gearbeitet, Milliarden wurden ausgegeben, um endlich die Frage zu beantworten: Was sollen wir mit all den Zwiebeln anfangen? Nun weiß "Chef Watson“ Bescheid: Wir müssen nur noch Thunfisch, Rosinen und Pilze besorgen. Die passen, so hat Chef Watson zweifelsfrei festgestellt, geschmacklich hundertprozentig zur Zwiebel. Er kennt sogar ein wunderbares Rezept: "Austrian Onion Seafood Salad“ mit Tunfisch, Apfel, Graupen, Tomaten und Orangensaftkonzentrat - und Zwiebeln.

"Chef Watson“ ist das Resultat eines der ambitioniertesten informationstechnologischen Projekte der Gegenwart. Es handelt sich um eine künstliche Intelligenz, eine denkende Maschine, ein Computerprogramm, das nicht nur alles weiß, sondern auch noch selbstständig dazulernt. IBM hat Milliarden Dollar in dessen Entwicklung gesteckt. Vor sechs Jahren sorgte eine frühe Version des Programms für weltweite Aufmerksamkeit, als Watson zwei menschliche Kandidaten in der Quizshow "Jeopardy!“ besiegte. Erstmals war eine künstliche Intelligenz vom reinen Fachidioten (etwa als Schachcomputer) zum sprachbegabten Allgemeinwissenden avanciert. Seither wird Watson unter anderem in der medizinischen Diagnostik eingesetzt, im Versicherungswesen, als Steuerungssoftware für selbstfahrende Busse, im Filmschnitt - oder als kreative Rezeptdatenbank "Chef Watson“.

Man kann nur hoffen, dass der Krankenhaus-Watson etwas zielsicherer arbeitet als sein Gastro-Bruder, zumal man, mit ein bisschen Pech, beim Einkaufen von Thunfisch, Rosinen und Pilzen einem fernen Verwandten von Watson begegnen könnte, dem humanoiden Roboter "Pepper“, der derzeit in österreichischen "Merkur“-Märkten herumsteht, 120 Zentimeter groß, 29 Kilogramm schwer, und auf Rabattaktionen aufmerksam macht, Witze erzählt oder Tiergeräusche simuliert. Warum, fragt der Hausverstand. Nun, weil Roboter heute irgendwie dazugehören.

Unvermeidlicher Bestandteil des Alltags

Mehr oder weniger intelligente Maschinen sind längst unvermeidlicher Bestandteil unseres Alltags geworden. Sie parken Autos ein, pflegen Demenzkranke, saugen Wohnungen, bauen Smartphones zusammen und sprechen mit deren Besitzern, diagnostizieren Krebs, schlagen neue Bücher und Fernsehserien vor und entscheiden womöglich auch noch die nächsten Wahlen. In der industriellen Produktion gefährden sie Hunderttausende Jobs. Das Beratungsunternehmen McKinsey schätzt, dass sie bis zum Jahr 2025 weltweit eine Wirtschaftsleistung zwischen 1,7 und 4,5 Trillionen US-Dollar erbringen könnten. In rasantem Tempo werden sie immer klüger, schneller, autonomer. Und wir: wissen nichts über sie. Manchmal fürchten wir uns vor ihnen. Aber am liebsten ignorieren wir sie. Das könnte sich als schwerer Fehler erweisen.

Gerade eben waren sie wieder im Fernsehen zu bestaunen. Arnold Schwarzenegger wurde 70 Jahre alt und mit der Ausstrahlung der "Terminator“-Reihe gefeiert. Deren Hintergrundgeschichte sollte also bekannt sein: In nicht allzu ferner Zukunft erlangt eine künstliche Superintelligenz namens Skynet spontan eine Art Selbstbewusstsein und wird auch sonst verhaltensauffällig, soll deshalb abgeschaltet werden und wehrt sich dagegen durch nahezu vollständige Vernichtung der Menschheit. Science-Fiction, Achtzigerjahre-Action, Techno-Grusel - und ein Szenario, das vernunftbegabte IT-Fachleute und Wissenschafter wie Stephen Hawking, Bill Gates oder Elon Musk für durchaus realistisch halten. Der techno-philosophische Thinktank "Stiftung für effektiven Altruismus“ schreibt in einem Diskussionspapier über die Chancen und Risiken der künstlichen Intelligenz (KI): "Konkret ist zu erwarten, dass sich die entsprechenden Algorithmen in immer stärkerem Ausmaß selbst optimieren - auf übermenschliches Niveau.“ Weiter heißt es, "dass von der KI neben globalen Chancen auch globale Risiken ausgehen, welche diejenigen etwa der Nukleartechnologie (…) übertreffen werden.“

Am 16. Februar verabschiedete das EU-Parlament einen Entschließungsantrag an die Kommission in Bezug auf "zivilrechtliche Regelungen im Bereich Robotik“. In dem Text wird etwa die Gründung einer Europäischen Agentur für Robotik und künstliche Intelligenz sowie die Verabschiedung eines Ethik-Kodex für die Produzenten autonomer Roboter angeregt, außerdem ein EU-weites "Registrierungssystem für fortschrittliche Roboter“ sowie mehr Rechtssicherheit in Haftungsfragen. Tatsächlich wird, je autonomer Roboter werden, immer unklarer, wer im Fall eines Unfalls zur Verantwortung zu ziehen ist: Hersteller? Programmierer? Anwender? Maschine? Und was soll ein selbstfahrendes Auto tun, wenn es vor der Wahl steht, samt Passagieren gegen eine Wand oder eine Fußgängerin zu fahren? Auch weil sich die Technik rasant weiterentwickelt - und weil der Justiz nicht zugemutet werden kann, sich in informationstechnologischen Haarspaltereien zu verlieren - schlägt das EU-Parlament eine Pflichtversicherung für die Hersteller autonomer Roboter vor, weil "zumindest im derzeitigen Stadium die Verantwortung bei einem Menschen und nicht bei einem Roboter liegen muss“. Sprich: In einem späteren Stadium könnte das durchaus anders sein. Deshalb sieht der Antrag auch vor, "langfristig einen speziellen rechtlichen Status für Roboter zu schaffen, damit zumindest für die ausgeklügeltsten Roboter ein Status als elektronische Person festgelegt werden könnte“.

Viele Experten halten diese Forderung für überzogen. Eric Hilgendorf ist Leiter und Gründer der Forschungsstelle Robotrecht an der Universität Würzburg. Sein Team beschäftigt sich mit Rechtsfragen autonomer Systeme in Industrie, Straßenverkehr und Privatleben. Im Interview mit dem Technologiemagazin "Wired“ erklärte er im Jänner: "Ich bin der Meinung, dass es zur Zeit keinen Grund gibt, Robotern einen neuen Rechtsstatus zuzuschreiben. Maschinen sind nicht haftbar. Auch hochintelligente, selbstlernende Computer sind auf der Grundlage des geltendes Rechts nur Sachen.“ Ein Hintergrundbericht der EU-Generaldirektion für interne Politikfelder kam zu dem Schluss, dass die Einrichtung einer elektronischen Rechtsperson nicht nur alltagsfern, sondern in ihren Konsequenzen auch grundsätzlich problematisch sei. Eine juristische Person müsse nicht nur über Haftungspflichten, sondern auch über Persönlichkeits- und Grundrechte verfügen. Aber: "Welche Rechte würden wir einem Roboter zugestehen: das Recht zu leben (also auf Nichtzerstörung), das Recht auf Würde, das Recht auf Gleichheit mit dem Menschen, das Recht, sich zur Ruhe zu setzen, das Recht auf ein Einkommen?“ Und weiter: "Vertreter dieser Position haben eine abstruse Vorstellung von Robotern, die von Science-Fiction-Romanen und Kinofilmen inspiriert ist.“

Asimovs "Robotergesetze"

Tatsächlich zitiert das EU-Parlament in seinem Entschließungsantrag den russisch-amerikanischen Science-Fiction-Autor Isaac Asimov, der in mehreren Kurzgeschichten Ende der 1940er-Jahre vier sogenannte "Robotergesetze“ entwickelte, die einen Konflikt zwischen Menschheit und intelligenten Maschinen unterbinden sollten. Diese Gesetze funktionieren als literarische Fiktion ganz hervorragend, auch weil sie eine Reihe paradoxer, also spannungsträchtiger Zielkonflikte beinhalten, die ihre Tauglichkeit im Rahmen einer EU-Richtlinie aber deutlich einschränken dürften.

Die Schwierigkeiten der gesetzlichen Einhegung autonomer Maschinen beginnen in Wahrheit schon früher. Zum Beispiel bei der Tatsache, dass bis heute niemand genau sagen kann, was einen "autonomen, intelligenten Roboter“ oder eine "künstliche Intelligenz“ ganz konkret ausmacht. Allein die Frage, was "Intelligenz“ sein könnte, muss im juristischen Sinn als unbeantwortbar gelten. Manche künstliche Intelligenzen basieren auf stabil einprogrammierten Grundregeln, andere auf flexiblen neuronalen Netzwerken, wieder andere auf sich evolutionär entwickelnden Algorithmen. Andere täuschen Intelligenz nur vor. Das Feld ist weit und umfasst Staubsaugerroboter genauso wie neurologisch exakte Gehirnsimulationen (was nicht heißen soll, dass Staubsaugerroboter dumm wären). Die meisten selbstfahrenden Autos können nach vorprogrammierten Regeln einparken. Manche können aber auch spontan entscheiden, dass eine Parklücke besser von der anderen Richtung angefahren werden sollte. Dazwischen liegen technologisch Welten. Im Alltag läuft es auf dasselbe hinaus: Eine Maschine agiert, der Mensch schaut zu und fragt sich, was er da gerade beobachtet.

Die Euronorm EN ISO 8373 definiert eine intelligente Maschine als "Roboter, der seine Aufgaben dadurch erledigt, dass er seine Umwelt wahrnimmt und/oder mit externen Einflüssen interagiert und sein Verhalten anpasst“. Das EU-Parlament fordert trotzdem "eine unionsweite Begriffsbestimmung für cyber-physische Systeme, autonome Systeme, intelligente autonome Roboter und deren Unterkategorien“. Jürgen Schmidhuber wiederum denkt eher in Oberkategorien: "Die superklugen KIs der Zukunft werden sich vor allem für andere superkluge KIs interessieren und weniger für Menschen und Frösche. Menschen interessieren sich ja auch mehr für andere Menschen als für Frösche.“

Schmidhuber, wissenschaftlicher Direktor des Labors für Künstliche Intelligenz in Lugano, forscht an sogenannten generellen künstlichen Intelligenzen, also Systemen, die selbstständig und ohne Einschränkung in einer beliebigen Umgebung tätig werden können. Im Wesentlichen sind das jene Maschinen, die in der apokalyptischen Science-Fiction-Literatur bevorzugt die Weltherrschaft übernehmen. Schmidhuber hat trotzdem andere Sorgen: Die Automatisierung der Arbeitswelt dürfte durch lernfähige Maschinen schon bald weit über den reinen Produktions- oder Transportsektor hinausgehen. Menschen werden arbeitslos werden. Und "Roboterbesitzer werden Steuern zahlen müssen, um die Mitglieder unserer Gesellschaft zu ernähren, die keine existenziell notwendigen Jobs mehr ausüben“. Schmidhuber regt deshalb ein bedingungsloses Grundeinkommen an. Ähnlich sieht es auch die Stiftung für effektiven Altruismus: Im statistischen Durchschnitt werde der technologische Fortschritt wohl den Lebensstandard erhöhen, im statistischen Mittel aber werde der Wohlstand sogar sinken, weil nur eine schmale Elite von der Automatisierung profitiere. Der Sozialstaat müsse sich dem anpassen: "Modelle eines bedingungslosen Grundeinkommens oder einer negativen Einkommenssteuer sind zur gerechteren Verteilung der Produktivitätsgewinne prüfenswert.“

Robotergewerkschaft?

Man kann die Geschichte auch vom anderen Ende her erzählen. In dieser Perspektive wären nicht die Menschen vor den Maschinen, sondern diese vor dem Übergriff der Menschheit zu schützen. Manfred Hild, Leiter des Labors für Neurorobotik an der Humboldt-Universität zu Berlin, erklärte gegenüber dem Magazin "National Geographic“ kürzlich: "Die Geschichte der Sklaverei wird sich in den kommenden 100 Jahren wiederholen.“ Und zwar nicht auf dem Rücken von Menschen. Die Konsequenzen sind - für Neurorobotik-Forscher zumindest - absehbar: "Eine Liga der Roboter, die Interessen artikuliert und Rechte einfordert, ist denkbar.“ Weiterführende Fragen: Brauchen Maschinen ein Wahlrecht? Und werden die Automaten Sozialdemokraten?

Aber auch ohne Robotergewerkschaft können künstliche Intelligenzen Einfluss auf demokratische Vorgänge nehmen. Sie tun es schon jetzt. Politische Debatten in den sozialen Netzwerken werden zunehmend von sogenannten "Social Bots“ geprägt - Computerprogrammen, die menschliche Nutzer simulieren. Sie veröffentlichen eigene Botschaften, antworten auf vordefinierte Schlagworte oder liken und retweeten die Nachrichten bestimmter Personen. Die Debatte wird dadurch - und durch die Filterblasenhaftigkeit der sozialen Netzwerke - zunehmend polarisiert, die politische Stimmungslage verzerrt. Dieses Problem darf nicht unterschätzt werden. Während der ersten TV-Debatte zwischen den US-Präsidentschaftskandidaten Hillary Clinton und Donald Trump am 26. September 2016 wurde jeder dritte Pro-Trump-Tweet von einem Bot abgesetzt. Bei Clinton war es jeder vierte. Nach einer Studie der University of Southern California und der Indiana University sind von den weltweit rund 319 Millionen Twitter-Nutzern bis zu 15 Prozent, also etwa 48 Millionen, Bot-Profile. Dazu kommt, dass die Erstellung solcher Social Bots vergleichsweise günstig ist. Für rund 500 Dollar kann man im Internet eine hochwertige Software kaufen, mit der sich rund 10.000 Twitter-Accounts steuern lassen. In Deutschland will man auch angesichts der bevorstehenden Bundestagswahlen stärker gegen die künstlichen Poster vorgehen. Die Unions-Justizminister möchten die sozialen Plattformen wie Facebook und Twitter auffordern, die Beiträge von Social Bots zukünftig zu kennzeichnen (was technisch übrigens keineswegs trivial ist). Die Justizminister von Bayern, Hessen und Sachsen-Anhalt wollen das Betreiben von Social Bots gar unter Strafe stellen. Dafür soll der (noch in Begutachtung befindliche) Straftatbestand "Digitaler Hausfriedensbruch“ ausgeweitet werden. Das Strafmaß würde von Geldstrafen bis zu einem Freiheitsentzug von zehn Jahren reichen.

Droht Maschinenherrschaft?

Der Silicon-Valley-Unternehmer Elon Musk, als CEO des Elektrowagenherstellers Tesla mit künstlicher Intelligenz en detail vertraut, sieht in derartigen Verzerrungen demokratischer Entscheidungen ebenfalls eine zentrale Gefahr. Noch gefährlicher erscheint ihm aber die Endzeitvision einer Maschinenherrschaft: "KI ist der seltene Fall, von dem ich denke, wir sollten in der Regulierung proaktiv anstatt reaktiv sein“, erklärte Musk kürzlich bei einer Tagung von US-Gouverneuren. Die rituellen Warnungen von KI-Unternehmen, jedwede Regulierung sei innovations- und ergo wirtschaftsfeindlich, lässt der KI-Unternehmer Musk nicht gelten: "Ich komme mit modernster künstlicher Intelligenz in Berührung, und ich denke, die Leute sollten sich wirklich Sorgen machen.“ Musk begegnet seiner eigenen Sorge übrigens mit Unternehmensgründungen: einerseits mit dem Non-Profit-Forschungsprojekt "Open AI“, das Sicherheitsaspekte genereller künstlicher Intelligenzen untersucht, andererseits dem Unternehmen "Neuralink“, das die menschliche Intelligenz durch technische Mittel - vorzugsweise durch Gehirnimplantate - leistungsfähiger machen will. Motto: Die beste Methode, die Zukunft vorauszusagen, ist, sie zu erfinden.

Solange man die Zukunft nicht kennt, sollte man freilich auf alles Mögliche vorbereitet sein - und sich zum Beispiel mit Nick Bostrom auseinandersetzen. Bostrom forscht am Institut für die Zukunft der Menschheit (Future of Humanity Institute) in Oxford an der Schnittstelle von Technik, Philosophie und apokalyptischer Science-Fiction und erläutert in seinem Bestseller "Superintelligenz“, warum die ersten leistungsfähigen künstlichen Intelligenzen größere Gefahren mit sich bringen werden als selbst die schlimmsten Auswüchse der Gentechnologie oder der Nuklearenergie. Bostrom entfaltet dabei das Konzept der Intelligenz-Explosion: jenem Zeitpunkt, an dem künstliche Intelligenzen so autonom sein werden, dass sie sich rasend schnell immer noch weiter verbessern und die menschliche Intelligenz innerhalb kürzester Zeit um ganze Größenordnungen hinter sich lassen. Die Evolution ist ein gemächliches Gewerbe - der technologische Fortschritt eher nicht.

Aber wann werden die Computer tatsächlich mehr können, als wir ihnen ursprünglich beigebracht haben? Die Schätzungen der KI-Experten schwanken dramatisch. Dass es noch in diesem Jahrhundert dazu kommen wird, will aber niemand ausschließen. Vielleicht wurde die entscheidende Entwicklung sogar schon erfunden und nur noch nicht entsprechend wahrgenommen. Oder es braucht gar keinen großen technologischen Durchbruch mehr, sondern einfach nur schnellere Rechner. Dramatische Fortschritte kommen manchmal durch den Hintereingang. Wir sollten uns besser nicht überraschen lassen. Denn intelligente Maschinen sind von Natur aus sehr zielorientiert und lassen sich von ethischen oder sozialen Erwägungen in der Regel nicht gern ausbremsen - außer natürlich, diese werden ihnen von vornherein eingepflanzt. Leider gibt es im laufenden KI-Wettrüsten für die Entwickler derzeit kaum Anreize, sich mit Sicherheitsfragen herumzuplagen. Wenn etwas schiefgeht, geht vielleicht die Welt unter. Wenn nicht, lässt sich ein Vermögen verdienen. Man muss nicht super-intelligent sein, um vorauszusehen: Dieses Risiko wird eingegangen werden.

Darüber sollten wir reden.

Sebastian Hofer

Sebastian Hofer

schreibt seit 2002 im profil über Gesellschaft und Popkultur, ist seit 2020 Textchef dieses Magazins und zählt zum Kernteam von faktiv.