Ist das Gute im Menschen angeboren?

Das Moral-Gen: Ist das Gute im Menschen angeboren? Wissenschafter meinen: ja

Genom verfügt über ein moralisches Regelwerk

Drucken

Schriftgröße

An einer verletzten, blutüberströmten Frau achtlos vorübergehen, bloß weil man den neuen Anzug nicht beschmutzen will? Einen guten Freund um zweitausend Euro betrügen? Oder eine gebrechliche Tante töten, um frühzeitig an ihr Erbe zu gelangen? Konfrontiert mit solchen Szenarios, denken sich die meisten Menschen wohl: „Kaum möglich.“ Und das ist auch gut so. Denn ohne moralische Skrupel kämen wir nur schwerlich miteinander aus.

Doch was steckt dahinter? Vielleicht ist es nur die verinnerlichte Angst vor Bestrafung. Oder eine unbewusste, eigennützige Kalkulation, nach der sich Menschlichkeit letzten Endes doch auszahlt. Der Glaube, Gutes tun zu müssen, könnte aber auch nicht viel mehr als eine raffinierte Illusion der Evolutionsgeschichte sein.

Womöglich sind wir lediglich „Überlebensmaschinen“, programmiert auf die ziellose Reproduktion unserer Gene, wie der britische Evolutionsbiologe Richard Dawkins in seinem 1976 erschienenen Klassiker „Das egoistische Gen“ meinte; mit seiner provokanten Sicht, selbst der Altruismus des Einzelnen sei auf den Egoismus seiner Gene zurückzuführen, prägte er die Sicht des Menschen jahrzehntelang.

Inzwischen weht ein anderer Wind durch Labore, Lehrsäle und populärwissenschaftliche Bücher. Immer nachdrücklicher präsentieren Verhaltensforscher, Psychologen, Tierexperten und gar Mathematiker eine optimistischere Version der condition humaine: Der Mensch ist im Grunde seines Wesens weit besser als sein Ruf.

Moralische Grundregeln stecken wo-möglich schon in uns, wenn wir das Licht der Welt erblicken. Unabhängig von Kultur, Bekenntnis oder Geschlecht gibt es ein fundamentales Normgerüst, das allen Menschen gemeinsam ist. Im Kopf ist ein spezielles Netzwerk aufgespannt, welches das ethische Bewusstsein am Laufen hält. Demnach treibt den Menschen nicht nur der blinde Trieb, sich als Tüchtigster gegen Konkurrenten durchzusetzen, sondern er will durchaus kooperieren (siehe Kasten rechts). Kurzum: Maximen wie Thomas Hobbes’ „homo hominem lupus est“ (der Mensch ist dem Menschen ein Wolf) müssen nicht der Weisheit letzter Schluss sein.

Selbst unsere behaarten Vettern, die Primaten, verfügen über einen Sinn für Fairness und Einfühlungsvermögen, zentrale Bestandteile der menschlichen Moral (siehe Kasten Seite 89). Doch ob sie in Kategorien von Gut und Böse denken, ist zweifelhaft. Der Mensch dagegen verurteilt die Selbstbereicherung von Konzernbossen genauso wie Trickbetrüger, ist entsetzt über sexuellen Kindesmissbrauch und rügt notorische Lügner. Den moralischen Instinkt, der unser Gespür für das Rechte und Schlechte lenkt, prägt aber nicht die Umwelt. Dies behauptet der Kognitionspsychologe Marc Hauser von der Harvard University in Cambridge, USA. Er will entdeckt haben, dass die Moral in unseren Genen steckt.

Moralkonstanten. Als Hauser vor fünf Jahren gemeinsam mit dem Linguisten Noam Chomsky über den Sprachinstinkt des Menschen forschte, kam ihm die Idee, dass auch Moral ähnlich funktionieren könne. Beide Systeme basieren auf Regeln. Und so wie alle Sprachen grammatische Grundstrukturen teilen, gibt es auch in der Moral Konstanten, etwa das Gebot, nicht zu töten. Mit diesem zugegebenermaßen eher schlichten Befund gewappnet, wandte sich Hauser, renommierter Experte für Tierintelligenz, an seine Fachkollegen und erkundigte sich, welche Wissenschafter die Analogie bisher genauer unter die Lupe genommen hatten.

Tatsächlich waren sie nicht die Ersten, die sich auf dieses Terrain wagten. Bereits Moralphilosoph John Rawls hatte dem Thema Anfang der siebziger Jahre in seinem Klassiker „Theorie der Gerechtigkeit“ einige Zeilen gewidmet. Später wurde die Idee von zwei Rechtsphilosophen aufgegriffen, die Anfang der neunziger Jahre bei Chomsky studiert hatten. Matthias Mahlmann von der Freien Universität Berlin postulierte vor sieben Jahren in einer Monografie eine „Universalgrammatik der Moral“. Und John Mikhail vom Georgetown University Law Center in Washington, D. C., verfolgt heute ähnliche Hypothesen. Doch kein Naturwissenschafter hatte diese Theorie bisher mit ausgefeilten Experimenten auf den Prüfstand gestellt. Hauser stellte sich dieser Herausforderung. Das vorläufige, durchaus kontrovers diskutierte Ergebnis seiner Forschungen legte er vergangenen September in einem Buch mit dem Titel „Moral Minds“ vor.

„Wenn Kinder ihre Muttersprache erlernen, denken sie nicht groß darüber nach“, erklärt Hauser in seinem Büro im neunten Stock des William-James-Gebäudes mit Blick über den Harvard-Campus. „Es passiert ganz natürlich, ähnlich wie ihnen im Mutterleib ihre Arme gewachsen sind.“ Bei dem moralischen Kompass verhalte es sich ähnlich. Nur dessen Mechanik sei so unbekannt, dass selbst Jahrtausende intensiven Nachgrübelns über Moral diese nicht erhellen konnten.

Es gibt im Wesentlichen zwei unterschiedliche Ansätze, Handlungen moralisch zu beurteilen: den utilitaristischen (hier zählen allein die Konsequenzen) und den deontologischen (bei dem es um die Handlung und nicht um deren Folgen geht). Doch so, wie es Philosophen gerne hätten, denken wir nicht. Hauser stellte in Experimenten fest, dass unsere ethischen Urteile unbekannten Regeln folgen. Die traditionellen Konzepte der Philosophen seien dagegen nur Modelle, um die Intuitionen zu rekonstruieren.

Test im Internet. Hauser dringt in das Innerste des moralischen Denkens ein, indem er Menschen mit Szenarien konfrontiert, die sie ethisch beurteilen müssen. Er hat einen Moraltest ins Internet gestellt, an dem bislang rund 300.000 Personen teilgenommen haben (http://moral.wjh. harvard.edu/index2.html). Die Antworten der Teilnehmer waren durchwegs erstaunlich konstant – unabhängig von Religion, Alter, Geschlecht, Ausbildung oder Herkunftsland. Dies deutet darauf hin, dass Menschen aufgrund desselben Regelwerks und Imperativen wie „Sei fair!“ urteilen. Zwar repräsentieren hunderttausende Internetsurfer nicht die komplette Menschheit, doch inzwischen führt Hauser auch Tests mit Nomadenvölkern durch – mit vergleichbaren Ergebnissen.

Im Zentrum des klassischen Beispiels für ein moralisches Dilemma steht ein Eisenbahnwaggon. Stellen Sie sich folgendes Szenario vor: Sie stehen neben einem Bahngleis an einer Weiche. Außer Kontrolle geraten, rast ein Waggon heran. Auf der links abzweigenden Spur macht sich eine Gruppe von fünf Eisenbahnarbeitern zu schaffen, rechts ein einzelner. Unternehmen Sie nichts, schwenkt der Waggon links ab und tötet die fünf Männer. Indem Sie den Weichenhebel umlegen, können Sie die fünf retten – dann stirbt jedoch die Einzelperson. Die meisten Menschen antworten, sie würden den Waggon umleiten. In einem anderen Szenario können Sie einen stämmigen Mann mit einem schweren Rucksack von der Brücke auf die Gleise stoßen, um den Waggon aufzuhalten. Diesmal geben fast alle Befragten an, eine solche Tat sei unvertretbar, und das, obwohl das Ergebnis in beiden Fällen das gleiche wäre.

Die klassischen Erklärungsmodelle können diesen vermeintlichen Widerspruch nicht aufklären. Ein Utilitarist würde nur auf das Ergebnis schauen, also beide Handlungen absegnen, ein Deontologe beide Möglichkeiten ablehnen, da Töten immer falsch ist. Die Lösung des Knotens besteht darin, dass unser moralisches Gespür unterschwellig einer unbekannten Regel folgt: Wir unterscheiden offensichtlich zwischen beabsichtigtem und vorhergesehenem Schaden. Wer die Weiche umstellt, sieht zwar voraus, dass der einzelne Arbeiter sterben wird, beabsichtigt dies aber nicht. Wer den Mann hingegen von der Brücke stößt, will ihn töten, um die anderen zu retten.

Dilemma Sterbehilfe. Das ist freilich nicht Hausers einzige Entdeckung in dem unbewussten Regelfundus. So halten Menschen auch Schaden, der durch Körperkontakt entsteht, für weit verwerflicher als jenen, bei dem es zu keiner Berührung kommt. Und eine Handlung mit negativen Folgen wirkt auf Menschen schlimmer als die Unterlassung einer Handlung, die dennoch dasselbe Ergebnis hat. Letzteres wird anschaulich anhand der Debatte um aktive und passive Sterbehilfe. Man mag entscheiden, einem todgeweihten Patienten eine tödliche Überdosis zu verabreichen oder die lebenserhaltenden Systeme abzuschalten. In beiden Fällen wäre das Resultat das gleiche: Der Patient stirbt.

Dennoch ist es in fast allen Ländern – die Niederlande sind eine Ausnahme – strafbar, Sterbenskranken tödliche Medikamente zu verabreichen. Der Grund liegt laut Hauser in unserer moralischen Intuition: Die aktive Herbeiführung des Todes halten wir für moralisch stets schwerwiegender als eine weitgehend passive Haltung, die zu demselben Ergebnis führt. Evolutionspsychologisch ergibt das freilich Sinn: Unterlässt jemand eine Handlung, können wir uns nicht sicher sein, ob er dies auch absichtlich getan hat. Deshalb zögern wir, sie moralisch eindeutig zu verurteilen. Doch wie das Euthanasiebeispiel zeigt, ist die ererbte Moral nicht immer für die moderne Welt geschaffen. „Darin zeigt sich auch der Wert dieser Forschung“, meint Hauser: „So können Gesetzgeber erkennen, aus welchen Quellen sich unser moralisches Denken speist.“

Auf der Grundlage dieser Regeln und moralischen Imperative entsteht die uns vertraute Wertevielfalt. Ein Beispiel: Alle Gesellschaften glauben, dass man nicht töten soll. Aber überall gibt es Ausnahmen. So gelten Ehrenmorde in den westlichen Demokratien als verabscheuungswürdig. In anderen Gesellschaften dagegen hält man solche Verbrechen für geradezu angezeigt. Ebenso halten Eskimos Kindsmord für zulässig, wenn die Ressourcen knapp sind. Und während die Staaten Westeuropas die Todesstrafe ablehnen, wird sie in den USA bis heute weitgehend unwidersprochen praktiziert.

Wertvorstellungen. Während alle entscheidenden Prägephasen für den Spracherwerb in den ersten Lebensjahren liegen, scheinen sich moralische Vorstellungen an und jenseits der Schwelle zur Jugend, im Alter von neun bis fünfzehn Jahren, zu verfestigen. Leben japanische Kinder während dieser Zeitspanne in den USA, entwickeln sie ausgeprägte amerikanische Wertvorstellungen und Gepflogenheiten. Kehren sie hingegen vor dieser Phase in ihre Heimat zurück, hinterlässt der Aufenthalt nur oberflächliche Spuren in ihrem Verhalten. Emigrieren sie erst nach dem 15. Lebensjahr nach Amerika, erleben sie dort einen Kulturschock, ohne sich das moralische Denken ihrer Umwelt noch zu eigen machen zu können.

Die genannten Regeln ergeben freilich noch keine „Grammatik“ der Moral. Zweifellos steht die Forschung in diesem Bereich noch am Anfang. Als etwa der ebenfalls an der Harvard University lehrende Linguist Steven Pinker zu Beginn der neunziger Jahre das Buch „Der Sprachinstinkt“ schrieb, konnte er auf fast ein ganzes Jahrhundert moderner Grammatikforschung zurückblicken. Das Projekt der Moralgrammatik war bis vor fünf Jahren noch weitgehend Neuland. Deshalb gibt Hauser sich optimistisch, dass in 30 Jahren ebenfalls ein komplexes Regelwerk der Ethik vorliegen könne.

Ganz so optimistisch sehen andere Forscher dies allerdings nicht. Der Philosoph Richard Rorty, der früher an der Stanford University lehrte, wendet ein, dass Hauser keine klare Trennlinie zwischen Moral und sozialen Konventionen ziehe. Und die Psychologen Paul Bloom und Izzat Jarudi von der Yale University kritisieren im Fachblatt „Nature“, dass die Analogie zur Sprache nicht so weit trägt, wie sich Hauser das wohl wünschen würde.

So verfügen alle Sprachen, trotz struktureller Variationen, etwa über Verben, aber in manchen folgt das Objekt auf das Verb, in anderen geht es dem Verb voraus. In der Moral findet sich dagegen vielmehr nur ein Unterschied in der Gewichtung. So halten alle Kulturen Aufrichtigkeit und Fairness für wichtig, aber manche betonen Aufrichtigkeit mehr, andere Fairness. Zudem sei ein moralisches System innerhalb einer Kultur nicht so universal, wie es Sprache ist. In Pakistan gibt es zwar Ehrenmorde, die viele Menschen in diesem Kulturkreis für moralisch gerechtfertigt halten. Doch darin seien sich beileibe nicht alle Pakistani einig. Über die Frage hingegen, wie ein grammatikalisch korrekter Satz in Urdu auszusehen hat, gibt es keine Debatte. Doch Bloom gesteht zu: „Das widerlegt Hausers These freilich nicht grundlegend, nur reicht die Parallele zur Sprache wohl nicht ganz so weit.“

Moralische Urteile. Mag die Suche nach dem unbewussten moralischen Regelwerk noch ein Novum sein, untersuchen Neuropsychologen mithilfe bildgebender Verfahren doch bereits seit einigen Jahren, was im Gehirn passiert, wenn wir moralische Urteile fällen. Damit wollen die Forscher Licht ins Dunkel eines alten Streits bringen: ob moralische Urteile aus dem Bauch heraus gefällt werden, wie der schottische Philosoph David Hume behauptete, oder Ergebnis rationaler Erkenntnis seien, wie Immanuel Kant es formulierte. Erste Befunde stellen immerhin klar, dass es kein exklusives Rechenzentrum in der Großhirnrinde gibt, das auf Kommando moralische Urteile ausspucken würde. Vielmehr handelt es sich um ein Netzwerk der für Emotionen, abstraktes Denken und zwischenmenschliche Beziehungen zuständigen Hirnareale.
Hausers Harvard-Kollege Joshua Greene, der sich aufgrund seines Interesses an Ethik vom Philosophen zum Neuropsychologen gewandelt hat, analysiert dieses Netzwerk seit Jahren. Im Kernspintomografen hat der Forscher Versuchspersonen schon etliche moralische Dilemmata lösen lassen. Dabei hat sich ein spannendes Bild herausgeschält. Konfrontiert mit dem Zug-Beispiel, regen sich bei der Vorstellung, einen Mann von der Brücke zu stoßen, bei Probanden hemmende Gefühle, die sie daran hindern, eine Person mit bloßen Händen zu Tode zu stürzen. Davon zeugen winzige Flecken im Stirnlappen, im Scheitelhirn und an der Basis der Großhirnrinde, die gelb und rot auf den Hirnbildern aufleuchten. Es sind dieselben Regionen, die bei Angst oder Trauer aufblinken.

Doch ganz andere Ergebnisse erhielt Greene, wenn es um die Frage ging, ob man den Weichenhebel umlegen darf, um fünf Gleisarbeiter zu retten. In diesem Fall scheinen vor allem die kognitiven Areale auf: der hinter der Stirn gelegene präfrontale Kortex und der anteriore cinguläre Kortex tief hinter der Stirnmitte – beide Areale sind an der kognitiven Lösung von Problemsituationen beteiligt. „Es gibt im Gehirn zwei unterschiedliche Prozesse, die verschiedenen Typen moralischer Probleme dienen“, erklärt Greene. „Betreffen sie uns unmittelbar, reagieren wir primär emotional, wenn nicht, betrachten wir die moralischen Fragen rationaler.“

Demnach wären im Gehirn zwei Systeme beteiligt, wenn es um moralische Fragen geht, die wiederum die beiden klassischen ethischen Positionen spiegeln: den Utilitarismus, welcher Handlungen distanziert nach ihren Folgen beurteilt, und die Deontologie, die Handlungen moralischen Eigenwert zuschreibt. „Der Streit der Philosophen wurzelt womöglich in ihren Gehirnen“, scherzt Greene. „Deontologie betrifft absolute Verbote der Gesellschaft wie Mord – hier reagieren wir emotional. Nicht essenzielle moralische Fragen betrachten wir dagegen eher utilitaristisch, indem wir rational die Folgen abschätzen.“

Zu diesen Ergebnissen passt eine Studie Hausers, die er kürzlich gemeinsam mit dem Neuropsychologen Antonio Damasio abgeschlossen hat. Die Forscher testeten eine Gruppe Soziopathen, deren ventromedialer präfrontaler Kortex, eine Hirnregion hinter Nase und Stirn, die als Mittler zwischen Gefühl und Verstand gilt, zerstört war. Stand bei Szenarien wie dem Waggon-Beispiel zur Debatte, handgreiflich zu werden, entschieden sie wie Utilitarier – ohne zu zögern, stießen sie den Mann von der Brücke. Von einer solchen Entscheidung halten normale Menschen dagegen die Gefühle zurück – eine Möglichkeit, die den Soziopathen abgeht. Aber auf moralische Fragen, die eine Tätlichkeit involvierten wie im Falle der Weichenumstellung, gaben sie dieselben Antworten wie die meisten anderen Menschen.

Gefühlsbremse. Die rationale Beurteilung moralischer Probleme war bei den Soziopathen weiterhin intakt – aber es fehlte die Gefühlsbremse, die sie davor bewahrt hätte, grausame Akte gutzuheißen. Dies demonstriere, so Greene, dass Emotionen und Ratio beide eine zentrale Rolle für unser ethisches Empfinden spielen. Dabei will Hauser es natürlich so sehen, dass Ratio eine Spur wichtiger ist. Denn sollte die moralische Universalgrammatik unsere Moral regieren, müsste vor jedem Urteil eine unbewusste Analyse stehen. Endgültig entscheiden werden diese Frage vermutlich erst neue Aufnahmetechniken. Denn bildgebende Verfahren liefern vorläufig nur Schnappschüsse, keinen Film des Denkens. Daher ist es schwierig zu entscheiden, welches Areal die Melodie vorgibt, nach der die anderen tanzen.

Doch ein sicheres moralisches Urteil macht uns längst noch zu keinen Gutmenschen. Wie Hauser und Greene wiederholt betonen, unterscheidet sich, warum wir handeln, deutlich davon, wie wir eine Handlung beurteilen. Moralische Regeln und Gebote, aufgrund deren wir etwas für gut oder schlecht befinden, sagen nichts darüber aus, wie wir uns letztlich in einer Situation verhalten. Dabei kommen noch andere Faktoren ins Spiel: Egoismus, eingefahrene Gewohnheiten, Affekte. Doch auch unser soziales Handeln basiert auf einigen Bausteinen, die uns Menschen, auf den ersten Blick zumindest, im guten Licht erscheinen lassen. So operieren in unseren Gehirnen „Spiegelneuronen“, welche die Grundlage für menschliches Mitgefühl bilden (siehe Kasten Seite 88). Und jüngste Experimente mit Kleinkindern haben gezeigt, dass uns Hilfsbereitschaft angeboren ist (siehe Kasten rechts).

Doch die Utopie friedlichen Zusammenlebens scheitert vor allem an einer Hürde: an der tief sitzenden Angst und Aggression Fremden gegenüber. Selbst Menschen, die behaupten, keinerlei Vorurteile anderen Menschen gegenüber zu hegen, entlarven sich in Experimenten selbst. Ein Test der Neuropsychologin Elizabeth Phelps von der New York University demonstrierte bereits im Jahr 2000, dass Weiße, die in rascher Abfolge Bilder von Schwarzen sehen, unbewusst mit großen Vorbehalten reagieren – hingegen Personen ihrer Hautfarbe weit positiver sehen.

Solche Vorurteile Fremden gegenüber haben Folgen. Sie kommen bei Vorstellungsgesprächen unterschwellig ebenso zum Tragen wie bei Begegnungen auf der Straße oder in Lokalen. Und sie sind fast unvermeidbar. Konfrontiert mit anderen Personen, klassifiziert der Mensch Personen innerhalb Millisekunden nach Rasse, Alter und Geschlecht. Dabei nimmt er jene, die er zu seiner eigenen Gruppe zählt, schneller und positiver wahr. Fremdgruppen hingegen begegnet er zunächst mit einer instinktiven Feindseligkeit. Und kommt es in einer Gesellschaft mit anderen Gruppen zum Streit um Ressourcen, kommt es gar zum Krieg zwischen Ländern, dann gelten die hohen Werte der verinnerlichten Ethik bevorzugt für die eigene Gruppe. Kein Wunder: Die Moral diente stammesgeschichtlich dem Zweck, das soziale Leben einer überschaubaren Gruppe zu regeln. Utopia, der Weltfrieden, war leider nie das Ziel.

Aber der Mensch muss sich von der Evolution nicht gängeln lassen. Im Gegenteil: Er ist lernfähig. Das sieht man an den stetigen Fortschritten in Sachen Gleichberechtigung, Rassismus oder Tierrechten. Auf der Grundlage des universellen Gebots „Füge kein unnötiges Leiden zu“ können wir so durch rationalen Diskurs erkennen, dass wir das Leiden von Tieren so weit wie möglich vermindern sollten. Noch vor drei Jahrzehnten gab es weltweit keine nennenswerten Tierschutzgesetze, heute sieht das ganz anders aus. Die kulturelle Evolution schreitet mitunter also flott voran – und erweitert den menschlichen Sinn für das Gute.

Von Hubertus Breuer