Haben Sie sich schon einmal gefragt, ob die Welt wirklich so ist, wie Sie sie sehen? Beim Blick aus dem Büro beispielsweise sind manche Dinge eindeutig: Der Baum steht vor dem Fenster, das Auto fährt vorbei, der Kollege stellt sein Fahrrad vor dem Gebäude ab, ein besonders schönes Fahrrad. Ihnen fällt auf, dass im Moment fast alle Kollegen mit dem Rad zur Arbeit kommen, kaum jemand nimmt die Öffentlichen oder das Auto. Seit Sie beschlossen haben, sich selbst ein neues Fahrrad zu kaufen, sehen sie ständig Kollegen auf dem Rad. Aber ist das wirklich so? Natürlich, Sie halluzinieren nicht, die Kollegen, die Sie auf dem Rad sehen, sind wirklich da. Aber die anderen, die beispielsweise mit dem Auto kommen, auch. Ihr Gehirn schenkt den Motorisierten nur gerade wenig Aufmerksamkeit.
Die Psychologie beschäftigt sich seit Jahrzehnten mit der Frage, wie Menschen ihre Umwelt wahrnehmen. Das Ergebnis: Von einer objektiven Abbildung der Realität ist unsere Wahrnehmung weit entfernt. Vielmehr filtern wir unbewusst das, was uns Augen, Ohren und andere Sinnesorgane übermitteln. Unser Gehirn strukturiert und interpretiert. Vorerfahrungen, Emotionen und innere Annahmen färben unseren Blick auf die Umwelt, lange bevor sie ins Bewusstsein dringen. Das ist sinnvoll, denn tagtäglich prasseln Unmengen an Eindrücken auf uns ein: Gesichter, Geräusche, Muster, Objekte. Diese Reize kann das Gehirn nicht alle gleichzeitig verarbeiten, es wäre überfordert. Deshalb wird unbewusst vorausgewählt, welche Informationen relevant sind und welche ignoriert werden können. Nur die als bedeutsam eingestuften Reize gelangen ins Bewusstsein. Dort werden sie weiter sortiert, bewertet und in einen Zusammenhang gebracht.
So überlebenswichtig dieses Filtern ist – so weitreichend können die Folgen sein: Denn subjektive Wahrnehmung geht unweigerlich mit systematischer Verzerrung einher. Forscher versuchen, besser zu verstehen, wie unser Gehirn tickt, wann es falsche Schlüsse zieht – und wie sich das auf Menschen und ihre Umwelt auswirkt.
Sechs kognitiven Verzerrungen zeigen, wie unser Denken oft unbewusst gelenkt wird.
1 – Die Versunkene-Kosten-Falle
Sich zu trennen, eine Beziehung zu beenden, fällt oft schwer. Das hat häufig gute Gründe – aber manchmal steckt dahinter auch ein Denkfehler: Wenn man viel Zeit, Geld oder Mühe in etwas gesteckt hat, fällt es nämlich schwer loszulassen. Auch wenn es sinnvoll wäre. Psychologen bezeichnen dieses Phänomen als versunkene Kostenfalle oder als Sunk Cost Fallacy.
Versunkene Kosten sind ein Begriff aus den Wirtschaftswissenschaften und bezeichnen Geld, das schon ausgegeben und nicht mehr wiederzubekommen ist. Der Verhaltensökonom und Nobelpreisträger Richard Thaler von der University of Chicago untersuchte erstmals das Phänomen und zeigte, dass Menschen eher eine Ware oder Dienstleistung nutzen, wenn sie bereits Geld dafür ausgegeben haben – auch dann, wenn die Investition eine Fehlinvestition war. Man werfe gutes Geld schlechtem Geld hinterher.
Kognitive Verzerrungen lauern überall: Wenn man einen langweiligen Film ansieht, guckt man häufig dennoch weiter. Schließlich hat man bereits Zeit darauf verschwendet. Dass man noch mehr Zeit verliert, wenn man zu Ende guckt, ignoriert man. Das liegt daran, dass wir uns damit schwertun, Verluste zu akzeptieren. Statt eine Sache zu beenden, weil sie nicht mehr sinnvoll ist, machen wir weiter, aus Angst, die investierte Zeit oder das Geld wären sonst umsonst gewesen. Dabei liegen die Kosten in Form von Geld oder Zeit schon in der Vergangenheit und sind nicht mehr zu ändern. Auch ist der Impuls, getroffene Entscheidungen nicht infrage zu stellen, häufig stärker als die Bereitschaft, objektiv neu zu bewerten. Das ist verständlich. Trotzdem könnte eine simple Frage die Entscheidung erleichtern: Würde ich die Sache auch neu beginnen, wenn ich noch einmal die Wahl hätte? Ist die Antwort Nein, ist es wohl Zeit für ein Ende.
2 – Der Bestätigungsfehler
Wie soll man Menschen begegnen, die eine andere Meinung haben? Vor allem bei politischen Themen ist dies ein heikles Problem, viele Menschen weltweit haben sogar das Gefühl, die Kommunikation sei schwerer geworden und die Fronten verhärtet. Ein Grund dafür könnte der Bestätigungsfehler sein. Er beschreibt das Phänomen, dass wir Informationen bevorzugen, die unsere Meinung stützen, statt sie zu widerlegen. Was nicht zu unserer Meinung passt, blenden wir aus. Auch in Gesprächen achten wir stärker auf Aussagen, die zu unserer Meinung passen.
Das beginnt schon bei der Suche nach Informationen. Wer glaubt, eine bestimmte Ernährung und Lebensweise seien gesund oder eine bestimmte politische These sei korrekt, sucht gezielt nach Studien und Texten, die dies belegen. Hinweise auf Risiken oder Fehler werden übersehen oder als wenig glaubwürdig abgetan. Sollten Probanden in Studien beispielsweise Argumente für und gegen eine These sammeln, so fanden sie deutlich mehr für die Seite, die ihre eigene Meinung vertrat.
Das kann mehrere Gründe haben: Zum einen hilft es, den eigenen Selbstwert zu schützen. Zum anderen ist es schlicht weniger anstrengend, bestätigende Informationen zu verarbeiten, anstatt sich mit neuen auseinanderzusetzen und im schlimmsten Fall das Weltbild anpassen zu müssen. Doch der Bestätigungsfehler kann gravierende Folgen haben. In der Politik kann er dazu führen, dass man nur noch Argumente für die eigene Partei wahrnimmt. Im Berufsleben können Fehlentscheidungen entstehen, weil Warnzeichen ignoriert werden.
Um dem Bestätigungsfehler entgegenzuwirken, hilft es, bewusst nach anderen Sichtweisen zu suchen, wie Wissenschaftler herausgefunden haben: Wurden Probanden in Studien bewusst dazu aufgefordert, dies zu tun, gelang es ihnen, ihre Tendenz zur Bestätigung der eigenen Meinung zu überwinden.
Oft wirkt die Vergangenheit klarer, als sie wirklich war. Wie das Fußballspiel ausging, ob die Brücke einstürzen würde, wie eine Aktie sich entwickelt – wenn etwas passiert ist, sind wir schnell davon überzeugt, dass man das hätte kommen sehen. Psychologen nennen das Rückschaufehler. Denn: Wir überschätzen im Nachhinein unser Wissen darüber, wie wahrscheinlich Ereignisse wirklich waren. Doch in Wahrheit ist vieles nur deswegen offensichtlich, weil wir das Ergebnis schon kennen. Der Psychologe Baruch Fischhoff von der Carnegie Mellon University zeigte dies in mehreren Experimenten schon in den Siebzigerjahren.
Ein weiteres Beispiel sind Sportereignisse: Wenn ein Außenseiter ein Spiel gewinnt, hört man oft von Kommentatoren und Fans, dass das vorhersehbar war. Dabei hätten vor dem Spiel nur wenige auf diesen Ausgang gesetzt. Dieser Effekt lässt sich in Studien und im Alltag immer wieder zeigen. Auch bei politischen Entscheidungen oder wirtschaftlichen Entwicklungen passiert das. Man denkt, die Krise war absehbar oder der Erfolg logisch.
Welche Mechanismen dahinterstecken, ist dagegen noch immer nicht vollkommen geklärt. Wissenschaftler vermuten, dass das Gehirn die Informationen, die wir vor einem Ereignis abgespeichert haben, schlecht von denen trennen kann, die wir nach dem Ereignis haben. Je nach Art des Ereignisses können auch weitere Gründe wie Persönlichkeitsunterschiede und Einstellungen eine Rolle spielen: Forscher aus den Niederlanden beschäftigen sich beispielsweise mit dem Rückschaufehler im juristischen Kontext. Sie zeigten, dass Menschen, die einen größeren Wunsch nach Schuldzuweisung und Bestrafung haben, stärker vom Rückschaufehler betroffen sind.
Es lohnt sich also, zu hinterfragen, wenn Menschen behaupten, Ereignisse seien vorhersehbar gewesen. Oft hilft nur, bei wichtigen Ereignissen noch einmal zu recherchieren, statt sich auf die eigene Erinnerung zu verlassen. Denn in Studien, in denen Probanden auf den Effekt hingewiesen wurden, zeigte er sich trotzdem.
Der Begriff „Halo“ stammt aus dem Englischen und bedeutet „Heiligenschein“, denn genau wie ein solcher Lichtschein kann auch ein positiver Eindruck alles „überstrahlen“: Manchmal reicht nämlich ein einzelnes Merkmal einer Person oder Sache, um den Gesamteindruck übermäßig zu beeinflussen. Häufig entsteht dieser Effekt, wenn wir jemanden sehen und dabei ein stark positives Detail wahrnehmen, etwa ein sympathisches Lächeln, ein gepflegtes Äußeres oder eine selbstbewusste Stimme. Von diesem Merkmal schließen wir dann auf andere Eigenschaften, die wir gar nicht direkt beurteilen können, wie den Charakter oder die Intelligenz.
Schon 1920 beschrieb der amerikanische Psychologe Edward Lee Thorndike dieses Phänomen. Er befragte dazu Offiziere der amerikanischen Armee zu ihren Soldaten. Diejenigen, die als attraktiv beschrieben wurden, bewerteten die Offiziere positiver – also beispielsweise intelligenter oder ehrlicher. Mehr als hundert Jahre später überprüften Wissenschaftler aus den USA und England dieses Phänomen bei Menschen aus 45 verschiedenen Ländern und elf verschiedenen Weltregionen. Sie sollten auf der Basis von Gesichtern die Persönlichkeit von Menschen einschätzen. Der Halo-Effekt zeigte sich dabei konstant bei Menschen aus allen elf Regionen, von Afrika über die Amerikas und Europa bis Asien und Ozeanien.
Im Alltag begegnet uns diese Verzerrung oft. Besonders kritisch wird es, wenn der Effekt unsere Urteile unbewusst lenkt. Wir trauen attraktiven Menschen häufiger Führungsqualitäten zu oder halten extravertierte Personen automatisch für intelligenter. Wer sich dessen bewusst ist, kann versuchen gegenzulenken. Soll man beispielsweise eine Person einstellen, kann man sich vorher aufschreiben, welche Eigenschaften oder Qualifikation für den Job wichtig sind, und überlegen, wie man sie gewichten will. Man kann sich den Effekt aber auch vor einem Bewerbungsgespräch oder einem Date zunutze machen und besonders auf sein Äußeres achten.
„Frauen sind ja alle . . .“, „Junge Leute wollen doch nur . . .“, „Alle Italiener essen gerne . . .“ Hat Ihr Hirn einen dieser Sätze automatisch vervollständigt? Das wäre normal, denn wir alle sind im Laufe unseres Lebens mit Stereotypen in Kontakt gekommen, also mit den Vorstellungen darüber, welche Merkmale Menschen haben, weil sie einer bestimmten sozialen Gruppe angehören. Man begegnet ihnen in Gesprächen, in Medien oder in alten Erzählungen. Oft wirken sie harmlos, wie etwa das Bild, dass alle Italiener gerne Pizza essen. Auch in Comedyshows oder Satire tauchen sie häufig auf, wo sie zur Vereinfachung oder Überzeichnung dienen.
Stereotype sind problematisch, weil sie Menschen pauschal einordnen, mal positiver, mal negativer. So helfen sie unserem Gehirn, schnell zu urteilen. Sie machen es aber auch schwer, die Einzelnen zu sehen. Wer bewusst oder unterbewusst glaubt, schon alles über jemanden zu wissen, übersieht dabei oft wichtige Informationen. Manche Stereotype sind so negativ, dass sie andere Menschen verletzen. Andere erzeugen einen Druck, etwas besonders gut können zu müssen, weil es der eigenen sozialen Gruppe zugeschrieben wird.
Vielleicht haben Sie auch schon einmal den „stereotype threat“ erlebt: Wer sich eines negativen Stereotyps über die eigene Gruppe bewusst ist, hat Angst, dem zu entsprechen. Als Folge verwendet er manchmal so viel Energie und Gedanken darauf, diesem Bild nicht zu entsprechen, dass am Ende ironischerweise genau das passiert, weil keine Ressourcen mehr für die eigentliche Aufgabe übrig sind. Das kann beim Einparken passieren, bei einem Leistungstest oder im Mathematikunterricht. Umgekehrt können negative Stereotype über andere Gruppen zu besseren Leistungen führen, dem „stereotype lift“. Dem kann man entgegenwirken, indem man zum Beispiel betont, dass Fähigkeiten erlernbar sind, und eine wertschätzende, stereotyparme Umgebung schafft.
Schon eine einzige Zahl kann unser Urteil stark beeinflussen. Wie ein Anker in den Boden sinkt sie in unser Bewusstsein und lenkt uns, auch wenn sie gar nichts mit der Sache zu tun hat. Ein klassisches Beispiel ist der Preis im Supermarkt. Wenn neben einem Produkt steht, dass es vorher doppelt so teuer war, erscheint uns der jetzige Preis automatisch günstig. Selbst wenn wir gar nicht wissen, ob der ursprüngliche Preis echt war.
Aber da hört es noch nicht auf: Der Ankereffekt funktioniert auch mit scheinbar zufälligen Zahlen, wie die Wissenschaft zeigt. In Studien mussten Personen beispielsweise erst die letzten Ziffern ihrer Telefonnummer aufschreiben und dann schätzen, wie alt Mahatma Gandhi wurde. Die Schätzungen fielen höher aus, wenn die Telefonnummer hohe Zahlen enthielt. Das zeigt, wie stark unser Denken von scheinbar trivialen äußeren Einflüssen gelenkt wird. Wir glauben, frei zu entscheiden, aber oft wirkt ein erster Eindruck im Hintergrund weiter.
Wer den Effekt kennt, kann sich davor schützen. Es kann schon helfen, sich aktiv bewusst zu machen, wo solche Anker im Alltag ausgeworfen werden. Besonders häufig passiert das bei der Werbung. Um der Bewusstseinsprägung zu entgehen, kann man sich ausnahmsweise sogar etwas bei den sozialen Medien abschauen: Dort überlegen sich Influencer gerade mit viel Inszenierung, wie viel Geld ihnen Gegenstände und Erlebnisse wert wären, bevor sie sich den Preis anschauen. Das mag seltsam anmuten, aber so sind soziale Medien. Sich vorher zu überlegen, wie viel einem etwas wert ist, ist aber keine schlechte Strategie, um sich weniger von preislichen Ankern beeinflussen zu lassen.
Die Entzauberung des Menschen als rein rational entscheidendes Wesen gelang den beiden Kognitionspsychologen Daniel Kahneman und Amos Tversky bereits in den Siebzigerjahren: Sie konnten nachweisen, dass Menschen oft anders denken, als es nach rationalen Gesichtspunkten zu erwarten wäre. Kahneman erhielt 2002 für seine Forschung den Nobelpreis für Wirtschaftswissenschaften, Tversky war zu diesem Zeitpunkt bereits verstorben. Mit ihrer Prospect Theory – zu Deutsch: neue Erwartungstheorie – stellten sie die Vorstellung infrage, dass Menschen Informationen nüchtern abwägen und objektiv urteilen.
Vor allem in unsicheren Situationen greifen wir auf einfache Denkabkürzungen zurück, auf sogenannte Heuristiken. So kann schon die Formulierung einer Information unsere Einschätzung verändern. Ein Beispiel aus der Medizin: Die Aussage, eine Operation habe eine „neunzigprozentige Überlebensrate“, wirkt beruhigend. Die alternative Formulierung „zehn Prozent Sterblichkeit“ löst hingegen deutliches Unbehagen aus. Dabei ist beides inhaltlich identisch. Dieser sogenannte Framing-Effekt zeigt: Sprache beeinflusst unsere Wahrnehmung und oft auch unser darauf basierendes Verhalten. Denn Heuristiken helfen uns, schnell zu reagieren – sie führen aber auch zu systematischen Denkfehlern und falschen Entscheidungen.
Aber wie genau funktioniert unser Denken? Kahneman beschreibt in seinem Buch „Schnelles Denken, langsames Denken“ zwei Systeme, die wir ständig nutzen. System eins arbeitet schnell, automatisch und ohne große Anstrengung. Es verlässt sich auf Erfahrungen, Gewohnheiten und einfache Heuristiken. Dieses System greift oft auf das zurück, was uns gerade in den Sinn kommt oder was emotional stark wirkt. Es reagiert sofort und eignet sich gut für alltägliche Entscheidungen, bei denen wir nicht lange überlegen wollen und die keine weitreichenden Folgen haben. System zwei hingegen geht deutlich langsamer vor. Es denkt bewusst, analysiert sorgfältig und prüft verschiedene Möglichkeiten. Dieses Denken erfordert Konzentration und kostet Kraft. Wer System zwei nutzt, muss sich mit Widersprüchen auseinandersetzen, Argumente abwägen und aktiv nach Fehlern suchen. Das fällt oft schwer, besonders wenn wir unter Zeitdruck stehen oder müde sind.
Im Alltag schalten unser Gehirn deshalb meist auf System eins. Es spart Energie und gibt uns das Gefühl, schnell zurechtzukommen. Doch das schnelle Denken ist anfällig für Fehler, es liefert schnelle Antworten, prüft aber nicht, ob sie wirklich stimmen. Wenn wir uns allein darauf verlassen, neigen wir dazu, voreilige Schlüsse zu ziehen.
Neurobiologische Studien deuten darauf hin, dass beim schnellen, intuitiven Denken andere Hirnregionen beansprucht werden als beim langsamen, reflektierten Denken – auch wenn eine klare Trennung bisher nicht eindeutig nachgewiesen werden konnte. Eine aktuelle Metaanalyse von Neurowissenschaftlern aus Florenz etwa zeigt, dass bei typischen „langsamen“ Denkaufgaben besonders Hirnareale wie der mediale und der superiore Frontalkortex, die linke Insula, der anteriore cinguläre Kortex sowie der linke untere Frontallappen aktiv sind. Sie stehen für Aufmerksamkeit, Konflikterkennung und kognitive Kontrolle.
„Menschen sind keine irrationalen Idioten, sondern adaptive Entscheider.“
Gerd Gigerenzer
Doch es gibt auch Kritik an der Interpretation Kahnemans, dass die Verzerrungen grundsätzlich irrational seien. Der Psychologe Gerd Gigerenzer etwa erforscht seit Jahrzehnten Denkprozesse. Er war Direktor des Max-Planck-Instituts für Bildungsforschung und leitet das Harding-Zentrum für Risikokompetenz an der Universität Potsdam. Viele Denkabkürzungen seien unter bestimmten Bedingungen sinnvoll und nützlich, sagt er. „Menschen sind keine irrationalen Idioten, sondern adaptive Entscheider. Manchmal können einfache Regeln uns also auch zu guten Entscheidungen führen.“ Er nennt das ökologische Rationalität. „Eine Faustregel kann unter Unsicherheit oft bessere Ergebnisse liefern als komplexe statistische Modelle.“ Wenn Ärzte in Bezug auf eine Operation von einer neunzigprozentigen Überlebenschance sprechen, wollen sie die Behandlung oft empfehlen. Wird dagegen von einer elfprozentigen Sterblichkeitsrate gesprochen, sind sie selbst weniger überzeugt, sagt Gigerenzer. Unsere Wahrnehmung reagiere also nicht „falsch“, sondern sensibel auf solche Signale. Genau das kann in manchen Situationen helfen, Entscheidungen besser einzuordnen. „Mehr Information ist nicht immer besser, manchmal führt weniger zu mehr“, fasst Gigerenzer zusammen.
Manchmal, aber nicht immer. Denn er betont auch, dass man herausfinden muss, in welchen Situationen das eine sinnvolle Strategie ist – und in welchen nicht. Schließlich wirken solche Heuristiken und die Entscheidungen, die wir auf ihrer Grundlage treffen, nicht nur auf uns selbst. Sie beeinflussen auch, wie wir andere Menschen beurteilen, wie wir Risiken einschätzen und wem wir Vertrauen schenken. Dabei wirken sich diese Denkfehler nicht auf alle Menschen gleichermaßen aus. Besonders Menschen, die nicht den gängigen Erwartungen entsprechen oder aus vertrauten Mustern herausfallen, spüren die Folgen solcher schnellen Urteile. Heuristiken können dazu führen, dass sie übersehen oder ungerecht behandelt werden. Das zeigt sich zum Beispiel in Bewerbungsgesprächen, im Schulalltag oder in medizinischen Entscheidungen. Unsere Wahrnehmung und alles, was daraus resultiert, betrifft also oft nicht nur uns selbst, sondern auch andere.
Wer einfache Regeln nutzt, kann damit manchmal gute Lösungen finden. Doch es bleibt entscheidend, in welchem Zusammenhang das geschieht. Ein erster Schritt besteht darin, sich bewusst zu machen, dass wir alle solche kognitiven Verzerrungen in uns tragen. Niemand denkt völlig neutral – und das ist gut so. Zu wissen, wann unser Gehirn in bester Absicht vorschnell Informationen verarbeitet, kann Verzerrungen und möglichen negativen Folgen entgegenwirken. Wichtig ist nicht, ob diese Denkfehler auftreten, sondern wie wir mit ihnen umgehen.