Wie unzuverlässig wir denken: Kognitive Verzerrungen

Wir alle kennen Situationen, in denen wir nicht ganz so klar denken.

Wenn wir ein paar Gläser Wein genossen haben, nehmen wir Dinge weniger schnell wahr und reagieren langsamer. Jeden Morgen, wenn wir aufwachen, brauchen wir ein paar Sekunden, um uns zurechtzufinden und die Orientierung zu finden. Wer mit Migräne im Bett liegt, kann sich ob der hämmernden Schmerzen im Kopf kaum auf etwas anderes konzentrieren. Auch unser Gemütszustand kann uns das Denken vernebeln: Wenn wir trauern, wenn wir Wut verspüren, wenn wir Sex haben, wenn wir erschrecken – in all diesen Situationen haben wir mehr oder weniger kurzfristig einen nicht so klaren Kopf.

Die Idee, dass wir manchmal nicht so klar und eher verzerrt denken, ist unspektakulär, und kaum jemand würde das ernsthaft verneinen. Wie sieht es aber mit einer anderen Idee aus: Wir denken nicht nur manchmal verzerrt, sondern fast immer – verzerrt denken ist der Standardmodus unseres Denkens!

Das klingt sehr provokativ. Haben wir denn nicht alle das Gefühl, ja die Überzeugung, dass wir meistens «rational» denken können und dies auch tun? Ist es nicht ein Affront, zu behaupten, dass wir Menschen nicht nur punktuell, sondern systematisch nicht klar urteilen und handeln? Und was genau soll bedeuten, dass wir systematisch verzerrt denken? Ist auf unseren Verstand gar kein Verlass?

Was sind kognitive Verzerrungen?

Wenn die Rede von kognitiven Verzerrungen ist, ist damit keine Wertung gemeint. Es geht also nicht darum, auf jemanden mit dem Finger zu zeigen und des verzerrten Denkens zu beschuldigen. Wir alle sind nämlich von solchen Verzerrungen betroffen. Kognitive Verzerrungen sind menschlich.

Jeden Tag bewegen wir uns in einem regelrechten Meer von Informationen. Wir nehmen enorm viele Dinge wahr, und verarbeiten enorm viele Dinge. Und das funktioniert recht gut: Das Verarbeiten von Informationen ist die Grundlage für unser alltägliches Handeln, und damit manövrieren wir uns im Grossen und Ganzen gut durch den Alltag. Aber warum eigentlich gehen wir in dem alltäglichen Meer von Informationen nicht unter? Sind unsere allmächtige Gehirne Supercomputer?

Kognitive Verzerrungen sind menschlich.

Im Gegenteil: Unsere Gehirne als Ergebnis evolutionärer Entwicklung sind nicht perfekt, sondern «gut genug». Der Grund, warum wir uns im täglichen Informationsmeer zurechtfinden, ist darum auch nicht ein perfektes Gehirn, sondern eher ein effizientes Gehirn. Den grössten Teil unserer Kognition (d.h. unserer Informationsverarbeitung) machen eher unbewusste, routinisierte Prozesse aus. Diese kognitiven Abkürzungen, oder Heuristiken, sorgen dafür, dass wir mit der täglichen Informationsflut zurechtkommen, ohne kognitiv überlastet zu werden. Für spezielle Denkanstrengungen haben wir dann ausreichend Kapazitäten, um uns ihnen fokussiert zu widmen.

Kognitive Verzerrungen können dazu führen, dass wir uns systematisch selber täuschen.

Das Problem mit unserer zweiteiligen Informationsverarbeitung (der grosse Teil findet routinisiert-unbewusst, der kleine Teil aktiv-reflektierend statt) ist, dass wir aufgrund unserer routinisierten Heuristiken bestimmten systematischen Verzerrung ausgesetzt sein können, ohne, dass wir das merken. Gerade weil wir unbewusst und fast automatisiert Informationen verarbeiten, gehen wir davon aus, dass das, was dabei herauskommt, stimmt. Wissenschaftlich gesehen wissen wir aber, dass dem nicht so ist: Unsere kognitiven Verzerrungen können teilweise dazu führen, dass wir faktisch komplett falsche Schlüsse ziehen, oder, dass wir meinen, unsere Schlüsse seien objektiver Natur , obwohl sie in Tat und Wahrheit das Produkt unbewusster subjektiver Prozesse sind.

Kurz gesagt: Kognitive Verzerrungen können dazu führen, dass wir uns systematisch selber täuschen.

Einige Beispiele

Es gibt zahlreiche gut dokumentierte kognitive Verzerrungen, welche sich in ganz unterschiedlichen Kontexten manifestieren können (vgl. die weiterführenden Quellen am Ende des Textes). An dieser Stelle soll keine erschöpfende Liste aller Verzerrungen präsentiert werden, sondern nur eine kleine (subjektive) Auswahl, um das Konzept der kognitiven Verzerrung etwas greifbarer zu machen. Bei jeder Verzerrung steht der englische Begriff in Klammern. Nebst einer kurzen Definition der jeweiligen Verzerrung ist ein beispielhaftes Szenario angegeben, wo die Verzerrung auftreten kann.

Attributionsfehler
(Fundamental attribution error)

Barnum-Effekt / Forer-Effekt
(Barnum effect / Forrer effect)

Bestätigungsfehler
(Confirmation Bias)

Dunning-Kruger-Effekt
(Dunning-Kruger effect)

Konfabulation / Falsche Erinnerung
(False memory effect)

Mitläufereffekt
(Bandwagon Effect)

Projektionsfehler
(Projection bias)

Prävalenzfehler
(Base rate fallacy)

Rückschaufehler
(Hindsight bias)

Selbstüberschätzung
(Overconfidence bias)

Selektive Wahrnehmung
(Selective perception)

Status quo-Tendenz
(Status quo bias)

Warum sind kognitive Verzerrungen wichtig?

Es gibt also kognitive Verzerrungen. Warum genau soll das von Bedeutung sein?

Wir verarbeiten Informationen nicht in einem luftleeren Raum, sondern eingebettet in unsere gesellschaftliche Realität. Wir handeln und wir üben mit unseren Handlungen Einfluss auf andere Menschen und, allgemeiner, auf unsere Umwelt aus. Kognitive Verzerrungen können zur Folge haben, dass wir meinen, über objektive Informationen zu verfügen, an denen wir unsere Handlungen ausrichten. Wenn die Informationen aber gerade unzuverlässig sind, weil sie ein Produkt verzerrten Denkens sind, verschwenden wir möglicherweise Zeit und Energie mit unserem Tun, und schlimmstenfalls richten wir sogar Schaden an.

Wo spielen kognitive Verzerrungen aber speziell im Bereich des Wissenschaftlichen eine Rolle?

Anekdotisches Denken ist die Folge frei wuchernder kognitiver Verzerrungen.

Wenn Menschen eine eher wissenschafts-ablehnende Haltung haben, argumentieren sie im Grunde stets auf dieselbe Art und Weise: Wissenschaft mag zwar schön und gut sein. Aber das, was wir selber fühlen und erleben, ist mindestens so aussagekräftig wie Wissenschaft. Den eigenen subjektiven Anekdoten wird volles Vertrauen geschenkt, und die Möglichkeit, dass unsere Anekdoten vielleicht das Ergebnis verzerrter Wahrnehmung und Verarbeitung von Informationen sind, wird ausgeschlossen.

Eine wissenschafts-ablehnende Haltung ist die Folge anekdotischen Denkens. Und anekdotisches Denken ist die Folge frei wuchernder kognitiver Verzerrungen.

Können wir kognitive Verzerrungen «ausschalten»?

Die klare Antwort: Nein.

Die Bereitschaft, zu akzeptieren, dass wir uns getäuscht haben können, ist die Grundlage kritischen Denkens.

Es gibt gegenwärtig keine Mittel, um unser Gehirn so zu verändern, dass wir nicht mehr anfällig für verzerrtes Denken wären. Der alternative Weg, um jede Verzerrung zu vermeiden, wäre ein permanentes aktives Nachdenken darüber, ob das eigene Denken bei jeder noch so banalen Informationsverarbeitung verzerrt ist oder nicht. Diese unmögliche Sisyphusarbeit dürfte ein probates Mittel sein, um rasch den Verstand zu verlieren.

Ganz hilflos sind wir aber nicht. Wir können nämlich unsere Anfälligkeit für verzerrtes Denken ein wenig reduzieren. Dadurch, dass Sie bis hierher gelesen haben, haben Sie schon einen Schritt in diese Richtung gemacht: Wenn wir uns bewusst sind, dass auch wir verzerrt denken, werden wir unserem eigenen Denken gegenüber skeptisch. Diese Einsicht ist essenziell. Die Bereitschaft, zu akzeptieren, dass wir uns getäuscht haben können, ist die Grundlage kritischen Denkens.

Weiterführende Quellen

Literatur

Asch, S.E. (1956). Studies of independence and conformity: I. A minority of one against a unanimous majority. Psychological Monographs: General and Applied, 70 (9), 1–70. doi:10.1037/h0093718.

Burson, K.A., Larrick, R.P. & Klayman, J. (2006). Skilled or unskilled, but still unaware of it: how perceptions of difficulty drive miscalibration in relative comparisons. Journal of personality and social psychology, 90 (1), 60–77. doi:10.1037/0022-3514.90.1.60.

Chabris, C.F. & Simons, D.J. (2011). The Invisible Gorilla: And Other Ways Our Intuition Deceives Us. HarperCollins Publishers Limited.

Dunning, D., Johnson, K., Ehrlinger, J. & Kruger, J. (2003). Why People Fail to Recognize Their Own Incompetence. Current Directions in Psychological Science, 12 (3), 83–87. doi:10.1111/1467-8721.01235.

Fischhoff, B. & Beyth, R. (1975). I knew it would happen: Remembered probabilities of once—future things. Organizational Behavior and Human Performance, 13 (1), 1–16. doi:10.1016/0030-5073(75)90002-1.

Forbes, D.P. (2005). Are some entrepreneurs more overconfident than others? Journal of Business Venturing, 20 (5), 623–640. doi:10.1016/j.jbusvent.2004.05.001.

Forer, B.R. (1949). The fallacy of personal validation: a classroom demonstration of gullibility. The Journal of Abnormal and Social Psychology, 44 (1), 118–123. doi:10.1037/h0059240.

Hamilton, D.L. & Gifford, R.K. (1976). Illusory correlation in interpersonal perception: A cognitive basis of stereotypic judgments. Journal of Experimental Social Psychology, 12 (4), 392–407. doi:10.1016/S0022-1031(76)80006-6.

Heuer, R.J. (1999). Psychology of Intelligence Analysis. Center for the Study of Intelligence.

Bar-Hillel, M. (1980). The base-rate fallacy in probability judgments. Acta Psychologica, 44 (3), 211–233. doi:10.1016/0001-6918(80)90046-3.

Hilbert, M. (2012). Toward a synthesis of cognitive biases: how noisy information processing can bias human decision making. Psychological bulletin, 138 (2), 211–237. doi:10.1037/a0025940.

Hsee, C.K. & Hastie, R. (2006). Decision and experience: why don’t we choose what makes us happy? Trends in Cognitive Sciences, 10 (1), 31–37. doi:10.1016/j.tics.2005.11.007.

Kahneman, D. (2011). Thinking, Fast and Slow. Macmillan.

Kahneman, D., Knetsch, J.L. & Thaler, R.H. (1991). Anomalies: The Endowment Effect, Loss Aversion, and Status Quo Bias. Journal of Economic Perspectives, 5 (1), 193–206. doi:10.1257/jep.5.1.193.

Kahneman, D. & Tversky, A. (1996). On the reality of cognitive illusions. Psychological review, 103 (3), 582–591; discusion 592–596.

Kruger, J. & Dunning, D. (1999). Unskilled and unaware of it: how difficulties in recognizing one’s own incompetence lead to inflated self-assessments. Journal of personality and social psychology, 77 (6), 1121–1134.

Loewenstein, G., O’Donoghue, T. & Rabin, M. (2003). Projection Bias in Predicting Future Utility. The Quarterly Journal of Economics, 118 (4), 1209–1248. doi:10.1162/003355303322552784.

McRaney, D. (2012). You Are Not So Smart. Oneworld Publications.

Nickerson, R.S. (1998). Confirmation bias: A ubiquitous phenomenon in many guises. Review of General Psychology, 2 (2), 175–220. doi:10.1037/1089-2680.2.2.175.

Otgaar, H., Candel, I., Merckelbach, H. & Wade, K.A. (2009). Abducted by a UFO: prevalence information affects young children’s false memories for an implausible event. Applied Cognitive Psychology, 23 (1), 115–125. doi:10.1002/acp.1445.

Read, J.D. (1996). From a passing thought to a false memory in 2 minutes: Confusing real and illusory events. Psychonomic Bulletin & Review, 3 (1), 105–111. doi:10.3758/BF03210749.

Ross, L. (1977). The Intuitive Psychologist And His Shortcomings: Distortions in the Attribution Process. In Leonard Berkowitz (Hrsg.), Advances in Experimental Social Psychology (Band Volume 10, S. 173–220). Academic Press.

Samuelson, W. & Zeckhauser, R. (1988). Status quo bias in decision making. Journal of Risk and Uncertainty, 1 (1), 7–59. doi:10.1007/BF00055564.

Spanos, N.P., Burgess, C.A. & Burgess, M.F. (1994). Past-Life Identities, Ufo Abductions, and Satanic Ritual Abuse: The Social Construction of Memories. International Journal of Clinical and Experimental Hypnosis, 42 (4), 433–446. doi:10.1080/00207149408409369.

Storbeck, J. & Clore, G.L. (2005). With Sadness Comes Accuracy; With Happiness, False Memory Mood and the False Memory Effect. Psychological Science, 16 (10), 785–791. doi:10.1111/j.1467-9280.2005.01615.x.

Tavris, C. & Aronson, E. (2008). Mistakes Were Made (but Not by Me): Why We Justify Foolish Beliefs, Bad Decisions, and Hurtful Acts. Harcourt.

Tversky, A. & Kahneman, D. (1974). Judgment under Uncertainty: Heuristics and Biases. Science, 185 (4157), 1124–1131. doi:10.1126/science.185.4157.1124.

Tversky, A. & Kahneman, D. (1986). Rational Choice and the Framing of Decisions. The Journal of Business, 59 (4), 251–278.

Internetlinks

List of cognitive biases, Wikipedia.

Autor