Denken ist zwecklos: Warum Menschen so irrational sind

Ein ganzes Set kognitiver Verzerrungen erklärt, warum wir uns oft hochgradig irrational verhalten und mitunter sogar absurden Verschwörungsmythen auf den Leim gehen.

Drucken

Schriftgröße

Kennen Sie die Anker-Heuristik? Die Truthahn-Illusion? Vielleicht den Barnum- oder den Halo-Effekt? Diese und eine Reihe weiterer Phänomene erklären, warum wir irrationale Entscheidungen treffen, während wir überzeugt sind, gänzlich vernünftig zu denken. Die Begriffe bezeichnen typische kognitive Verzerrungen: mentale Stolperfallen, die uns bei der Beurteilung von Situationen, Personen oder Risiken aufs Glatteis führen und rationalem Handeln entgegenstehen.

Ein Beispiel für die Anker-Heuristik sind reduzierte Preise in Online-Shops: Unser Gehirn sieht nur den alten, oft durchgestrichenen Preis als Referenz, setzt damit einen „Anker“ und bemisst daran die Attraktivität des neuen Preises – auch wenn dieser völlig willkürlich ist. Die Truthahn-Illusion ist eine Warnung, subjektive Erfahrung aus der Vergangenheit in die Zukunft zu projizieren. Jeden Tag bringt der Bauer dem Truthahn Futter. Der Truthahn hält ihn daher für seinen besten Freund – bis Thanksgiving. Den Barnum-Effekt wiederum machen sich Verfasser von Horoskopen zunutze: Er beschreibt die Neigung, völlig belanglose Aussagen auf die eigene Person zu beziehen (Achten Sie auf Ihre Träume!). Und der Halo-Effekt bezeichnet die Tendenz, sympathische Menschen auch für intelligent oder besonders sozial zu halten.

Insgesamt sind mehr als 50 kognitive Verzerrungen erfasst. Der Mensch mag prinzipiell ein Vernunftwesen sein, in vielen Situationen versagt das Ratio-Modul aber, und der angeblich gesunde Hausverstand gewinnt Oberhand. Das Hirn nimmt Abkürzungen und bewertet die Welt intuitiv. Solche Heuristiken sind oft effizient, scheitern jedoch leicht, wo Alltagserfahrung an Grenzen stößt, zum Beispiel bei der Bewertung statistischer Risiken oder bei komplexen Geschehnissen wie einer Pandemie oder dem Klimawandel.

Womit wir bei Donald Trump wären.

Die Kognitionspsychologie müsste dem Ex-Präsidenten der USA und seiner Fangemeinde eigentlich ewig dankbar sein. Generationen von Studierenden fänden hier Stoff für Masterarbeiten, weil sich selten so schön ganze Bündel kognitiver Verzerrungen aneinanderreihen. Wenn wir uns fragen, wie es sein kann, dass der einst mächtigste Mann der Welt chronisch kompletten Bullshit verzapft, hilft uns zunächst der Dunning-Kruger-Effekt weiter. Er besagt, dass sich die Selbsteinschätzung der eigenen Kompetenz und die tatsächlichen Fähigkeiten mitunter umgekehrt proportional verhalten. Volkstümlicher ausgedrückt: Die größten Pfosten halten sich für besonders sachkundig, ohne das Ausmaß der eigenen Ahnungslosigkeit auch nur in Ansätzen zu begreifen. Der Effekt kommt etwa zum Tragen, wenn man beherzt Chlorbleiche zum Gurgeln gegen das Coronavirus empfiehlt oder von explodierenden Bäumen in Österreichs Waldstädten spricht. Vor Anflügen von Selbstzweifel schützt der Blind-Spot-Bias: die Blindheit gegenüber eigenem Unvermögen, verbunden mit der Überzeugung, stets rational zu denken.

Dass Trumps Anhängerschaft auch die absurdesten Geschichten und Verschwörungserzählungen bereitwillig glaubt, lässt sich ebenfalls mithilfe von Verzerrungen erhellen. Der Wahrheitseffekt beruht darauf, dass man Behauptungen einfach nur oft genug wiederholen muss, damit sie für wahr gehalten werden. Wiederholung begründet Akzeptanz, was PR-Strategen ebenso ausnützen wie Parteien oder eben Menschen, die unablässig verkünden, ihnen sei eine Wahl gestohlen worden.

Der nächste Effekt ist besonders in Zeiten der Filterblasen von Bedeutung: der Bestätigungsfehler oder Confirmation bias. Wir haben den Hang, vor allem Informationen zu beachten, die unsere Meinung bestätigen, und jene auszublenden, die unsere Ansicht widerlegen. Unbewusst wird Information bevorzugt, die vorhandene Überzeugungen stützt. Problematisch wird es, wenn man sich nur noch in Gruppen herumtreibt, in denen Pseudobelege für eine flache Erde oder dafür ausgetauscht werden, dass Bill Gates in Corona-Impfstoffen Mikrochips versteckt hat.

Zusätzlich tritt der Sunk-Cost-Fehler in Aktion: Man hält eisern an einer Überzeugung fest, wenn sie mit hohem Aufwand erworben wurde. Deshalb raunen jene, die Verschwörungserzählungen in die Welt setzen: Lest selbst nach! Denkt selber! Stellt Fragen! Dann hängen die Angesprochenen nächtelang im Internet und weichen allein deshalb nicht mehr von ihren Meinungen ab, weil sie sich sonst eingestehen müssten, Unmengen Zeit verplempert zu haben.

Kann man kognitiven Verzerrungen nicht beikommen? Eher nein, am allerwenigsten mit Fakten. Schuld ist der Backfire- oder Bumerang-Effekt: Versucht man einen Verschwörungsmythos mit Evidenz zu entkräften, stärkt dies meist den Verschwörungsglauben.

So können wir uns lediglich bewusst machen, dass wir alle bis zu einem gewissen Grad unserem Denken nicht trauen können.

Alwin   Schönberger

Alwin Schönberger

Ressortleitung Wissenschaft