Chinesischer Raum

Wird die Maschine zum Menschen?

Wird die Maschine zum Menschen?

Warum Computer nicht denken können wie wir.

Der US-amerikanische Philosoph John R. Searle, einer der berühmtesten Vertreter seines Fachs, war neulich bei Google. Der 84-Jährige ist bekannt für sein John-Wayne-artiges Auftreten; gern erklärt er schnell mal ein paar Jahrhunderte Philosophiegeschichte als „Bullshit“. Also fand er auch klare Worte gegenüber den Tech-Überfliegern von Google, die von den Möglichkeiten der „Künstlichen Intelligenz“ schwärmen: Computer könnten nicht denken wir wir, behauptete Searle – und vor allem: Sie werden es niemals können. Searles Argument beruht auf einem Gedankenexperiment. Stellen Sie sich vor, Sie verstehen kein Wort Chinesisch. Nun sitzen Sie in einem Raum mit einer Schachtel voller chinesischer Schriftzeichen. Außerdem haben Sie ein Buch mit Regeln, die Sie dazu anleiten, Fragen korrekt auf Chinesisch zu beantworten.

Wenn Ihnen nun jemand einen Zettel mit chinesischen Schriftzeichen in den Raum hineinreicht, schauen Sie einfach in Ihrem Regelbuch nach und setzen die Schriftzeichen entsprechend zusammen. So können Sie auf Chinesisch antworten, ohne auch nur irgendetwas zu verstehen. Ein Computer, so behauptet Searle, macht es nicht anders als Sie – er wendet einfach stur bestimmte Regeln auf einen bestimmten „Input“ an und gibt einen „Output“ aus. Searles „Chinese-Room“-Argument besagt: Syntax ist nicht gleich Semantik. Ein Computer manipuliert nur Symbole, ohne zu wissen, was sie bedeuten. Erst vor Kurzem hat ein von Google entwickeltes Go-Programm einen der stärksten Go-Spieler der Welt besiegt. Aber auch diesem Programm fehlte nach Searle etwas Entscheidendes, das Computer nie haben werden, nämlich Bewusstsein. Computer können viele Dinge heute schon besser als wir. Aber sie sind sich dessen nicht bewusst. Sie verstehen nicht einmal, was sie da tun.

Wie denken Sie darüber? Bitte schreiben Sie mir unter thomas.vasek@profil.at