Lesezeit: 11 Minuten
Kategorie: Lifestyle
Wissenschaftler berichten, dass die Bereitschaft sich mit Fakten auseinanderzusetzen immer weiter sinkt und die Haltung gegenüber der Wissenschaft aggressiver wird.
Wir haben oft gegrübelt und versucht, die aktuellen Entwicklungen zu verstehen. Die Situation ist höchst komplex, und sicherlich haben wir keine holistische Erklärung, geschweige denn Lösung, gefunden. Allerdings erkennen wir in diesen Verhaltensweisen Denkmuster, die in uns allen stecken. Vielleicht können wir nicht die Massen beeinflussen, aber jeder kann an sich selbst arbeiten.
Mit einem Verständnis für deine kognitiven Prozesse und potenziellen Denkfallen kannst du effektiver handeln.
Deshalb stellen wir dir 3 weitverbreitete Heuristiken vor und wie du diesen entgegen wirken kannst:
- Das Gesetz der kleinen Zahlen
- Verfügbarkeitsheuristik
- Ankereffekt
Eine Heuristik ist eine Denkstrategie, die die Problemlösung vereinfacht. Wenn du eine Frage beantworten sollst, ohne alle nötigen Informationen zu haben, versuchst du dich der Lösung bestmöglich anzunähern. Oftmals beantwortest du dabei eine leichtere Frage, ohne die Ersetzung zu bemerken. Heuristiken, wir beschäftigen uns konkret mit Urteilsheuristiken, können durchaus nützlich sein, manchmal aber zu schwerwiegenden systematischen Fehlern führen.
Die vorgestellten Urteilsheuristiken wurden von Nobelpreisträger Daniel Kahneman und seinem verstorbenen Forschungspartner Amos Tversky erforscht. In dem Buch Schnelles Denken, langsames Denken fasst Kahneman seine Forschungen zusammen.
Er erklärt, dass sich unsere kognitiven Prozesse in 2 Systemen abspielen, die er System 1 und System 2 nennt. Ein kurzer Überblick zu der Funktion der beiden Systeme:
Sowohl System 1, als auch System 2 sind ständig aktiv.
System 1 ist dein Autopilot: es agiert schnell, mühelos, intuitiv und bringt dich sicher durch den Tag. Du bemerkst die Abläufe von System 1 nicht bewusst.
System 2 ist für alle Tätigkeiten zuständig, die deiner Aufmerksamkeit bedürfen, etwa Konzentration ausüben oder komplexe Entscheidungen treffen. System 2 zu benutzen kostet dich mentale Energie, deshalb verwendest du es nur wenn nötig. Die meiste Zeit des Tages verlässt du dich auf dein automatisch laufendes System 1.
Die Gefahr besteht darin, dass System 1 fehleranfällig ist. Deine Intuition mag dir das Eine suggerieren, würdest du aber mit System 2 diese Sachverhalte hinterfragen, könntest du klare Denkfehler identifizieren.
Ein Bewusstsein für typische Heuristiken wird es dir erleichtern, diese Situationen zu erkennen und zu handeln.
Denkfalle 1: Das Gesetz der kleinen Zahlen
Wir schenken den Inhalten von Nachrichten mehr Aufmerksamkeit als Informationen über deren Zuverlässigkeit. Eine Facette davon ist, dass wir für statistische Beobachtungen kausale Erklärungen finden, selbst wenn die Vorkommnisse auf Zufall beruhen. Die daraus resultierenden Schlüsse sind unweigerlich falsch.
Ein Beispiel: Eine Studie zu Nierenkrebs in den 3.141 Landkreisen der USA hat ergeben, dass die niedrigste Rate in ländlichen, spärlich besiedelten, traditionell republikanischen Staaten im Mittleren Westen, Süden und Westen auftritt. Du bist wahrscheinlich gerade dabei, eine Hypothese dazu aufzustellen. Dein System 2 ist aktiv und verarbeitet Vorschläge sowie Assoziationen, die dir dein System 1 bereitstellt. Wie die Statistiker Howard Rainer und Harris Zwerling kommentieren, liegt es nahe, den ländlichen Lebensstil mit niedriger Umweltverschmutzung als Grund für die niedrige Rate zu identifizieren.
In derselben Studie wurden auch die Landkreise mit der höchsten Rate von Nierenkrebs identifiziert: ländliche, spärlich besiedelte Landkreise, traditionell in republikanische Staaten im Mittleren Westen, Süden und Westen. Man könnte daraus schließen, dass die hohe Rate auf die Armut, schlechten Zugang zu medizinischer Versorgung und erhöhten Alkoholkonsum in ländlichen Gebieten zurückzuführen ist.
Du merkst schon, dass etwas nicht stimmt. Der Fehler ist, dass wir dazu tendieren kausale Zusammenhänge zu suchen; dabei haben wir es mit einer statistischen Beobachtung zu tun.
Ländliche Gebiete weisen eine niedrige Bevölkerungsanzahl auf. Mit höherer Wahrscheinlichkeit werden die Ergebnisse bei kleinen Stichproben extremer sein; in beide Richtungen. Je größer die Stichprobe, wie etwa in städtischen Gebieten, desto mehr wird sich der Wert dem Durchschnitt annähern.
Diesem Fehler ist auch die Gates Foundation unterlegen. Es wurde nach den Merkmalen der erfolgreichsten Schulen gesucht und ein Ergebnis war, dass überdurchschnittlich viele der erfolgreichsten Schulen der USA klein waren. Mit einem hohen Investment hat die Foundation den Aufbau von kleineren Schulen gefördert. Leider hat niemand die Schulen am unteren Leistungsspektrum betrachtet, denn auch diese waren kleiner als der Durchschnitt. Bei kleineren Schulen war schlicht die Variabilität der Ergebnisse höher ohne jeglichen kausalen Zusammenhang.
Dein System 1 ist besonders gut darin, kausale Verbindungen herzustellen. Es ist leider unfähig, die Validität von Informationen zu hinterfragen oder statistische Fakten zu verarbeiten. System 1 unterdrückt Unklarheiten, mit dem Zweck, schlüssige Geschichten zu konstruieren.
Wie du diese Denkfalle vermeiden kannst
Du brauchst dein System 2, um dem Gesetz der kleinen Zahlen auf die Spur zu kommen. System 2 ist in der Lage zu zweifeln und Fakten, die nicht als Geschichte miteinander zu vereinbaren sind, zu behalten. Dafür wirst du ein Extra an mentaler Energie brauchen. Frage dich bei Informationen immer, aus welcher Quelle sie stammen – dein System 1 macht in der Bewertung keinen Unterschied, ob eine Geschichte aus einer respektablen Zeitung oder dem Tratsch im Büro entspringt.
Sei besonders skeptisch, wenn dir statistische Ergebnisse präsentiert werden: Wie du gesehen hast, braucht es immer einen Kontext, ansonsten besteht die Gefahr der Manipulation.
Denkfalle 2: Verfügbarkeitsheuristik
Die Verfügbarkeitsheuristik ist eine Methode, mit der du die Bedeutsamkeit in Abhängigkeit der Häufigkeit bestimmter Vorfälle bei unvollständigen Informationen bewertest. Folgendes passiert: du ersetzt die fehlenden Informationen durch die, die dir verfügbar sind. Du weißt vielleicht nicht, wie hoch die Scheidungsrate bei über 60-Jährigen ist. Aber du weißt, wie leicht dir dazu individuelle Beispiele einfallen. Bei dieser Heuristik ersetzt du die eigentliche Fragestellung dadurch, wie leicht es dir fällt, passende Beispiele zu finden. Fällt es dir sehr leicht, bewertest du die Häufigkeit oder den Umfang einer Kategorie hoch. Dadurch entstehen zwangsläufig Fehler.
Ein ganz praktisches Beispiel anhand einer Studie mit Ehepaaren: die Partner wurden jeweils individuell gefragt, wie viel sie zu verschiedenen Aspekten der Ehe, wie etwa dem Haushalt, beitrugen. Die Angaben der Paare ergaben summiert mehr als 100 % – weil jeder seine eigenen Anstrengungen deutlich stärker erinnerte, als die des Partners. Die Verfügbarkeit dieser Erinnerungen führte zu einer verzerrten Einschätzung der Häufigkeit. Auch im Arbeitsumfeld führt dieser Vorgang häufig dazu, dass jedes Teammitglied in seiner Wahrnehmung deutlich mehr zu einem Projekt beigetragen hat, als alle anderen.
Im größeren Kontext beeinflusst die Verfügbarkeitsheuristik auch gesellschaftliche Bewegungen. Gerade in unserer Zeit können wir viele Beispiele dafür finden, wie die Berichterstattung der Medien die Wahrnehmung von Risiken und Bedrohungen verzerren kann.
Das Ausgangsbeispiel dazu ist eine Studie, in der die Probanden gebeten wurden, jeweils zwei Todesursachen nach ihrer Wahrscheinlichkeit zu bewerten. Für jedes Paar gaben die Teilnehmer an, welche Ursache häufiger auftritt und in welchem Verhältnis die beiden stehen. Die Ergebnisse wurden mit aktuellen Gesundheitsstatistiken (der USA) verglichen. So sehen einige der Ergebnisse aus:
- Schlaganfälle verursachen fast doppelt so viele Todesfälle wie alle Unfälle zusammengenommen, aber 80 % der Probanden stuften einen Unfalltod als wahrscheinlicher ein.
- Tornados sollten mehr Menschen das Leben kosten als Asthma, obwohl Asthma 20-mal mehr Todesopfer fordert.
- Tod durch Blitzschlag wurde als weniger wahrscheinlich eingestuft als Tod durch Lebensmittelvergiftung, obwohl er 52-mal häufiger ist.
- Krankheiten fordern etwa 18-mal mehr Todesopfer als Unfälle, aber beide Todesursachen wurden als etwa gleich wahrscheinlich beurteilt.
- Unfälle sollten über 300-mal mehr Todesopfer fordern als Diabetes, während das Verhältnis in Wirklichkeit 1:4 beträgt.
Die Ergebnisse lassen sich dadurch erklären, dass wahrgenommenen Häufigkeiten durch selektive Berichterstattung verzerrt werden. Medien richten sich nach den Interessen der Öffentlichkeit und ungewöhnliche Vorfälle sind dabei deutlich aufmerksamkeitswirksamer.
Cass R. Sunstein, Harvard Rechtswissenschaftler und Co-Autor von Nudge: wie man kluge Entscheidungen anstößt, sowie Jurist Timur Kuran haben einen Begriff für die extremen Auswüchse solcher Entwicklungen geprägt: “availability cascade“ oder Verfügbarkeitskaskade. Eine Story über eine bestimmte Gefahr erregt die Aufmerksamkeit einer Bevölkerungsgruppe. Die Medien berichten über diese emotionale Reaktion, die Öffentlichkeit reagiert darauf wiederum verstärkt. Ein sich verselbstständigender Kreislauf wird in Gang gesetzt und endet darin, dass ein potenzielles Risiko deutlich überbewertet wird. Versucht jemand, die Angst mit Fakten einzudämmen, wird dem mit Misstrauen bis Feindseligkeit begegnet.
Menschen, die sich stärker von Intuition leiten lassen, sind anfälliger für die Verfügbarkeitsheuristik. System 1 steuert die Handlungen und Entscheidungen. Dabei bleibt unbemerkt, dass Probleme nicht gelöst, sondern durch leichtere Fragestellungen nur umgangen werden.
Wie du diese Denkfalle vermeiden kannst
Du kannst die Denkfehler der Öffentlichkeit nicht ausbügeln, leider. Aber du kannst deine eigenen Entscheidungen verbessern. Heuristiken aufzudecken und ihnen entgegenzuwirken ist mit großer mentaler Anstrengung verbunden. Die Chance einen kostspieligen Fehler zu vermeiden macht es aber lohnenswert. Aktiviere dein System 2 durch Fragen zum Sachverhalt. Reflektiere dabei deine eigenen Umstände – bewertest du ein Risiko über oder unter, weil es in letzter Zeit vermehrt oder gar nicht in deiner Wahrnehmung aufgetreten ist? Ziehe bei wichtigen Entscheidungen Statistiken für einen Reality Check hinzu.
In Bezug auf das beschriebene Szenario in Partnerschaften oder Arbeitsteams hilft es schon, daran zu denken, dass jeder dazu neigt, den eigenen Beitrag überzubewerten. Es wird vorkommen, dass du mehr als Andere machst. Aber in den meisten Fällen werden alle Partner/Mitglieder dieser Überzeugung sein – stellt gemeinsam fest, dass alle Anstrengungen nicht zu mehr als 100 % führen können.
Denkfalle 3: Ankereffekt
Der Effekt tritt dann auf, wenn du eine numerische Beurteilung eines unbekannten Werts durchführst. Der Anker, ein bestimmter Wert, dem du ausgesetzt bist, bevor du deine Beurteilung durchführst, beeinflusst das Ergebnis deiner Schätzung. Das passiert auch, wenn der Ankerwert und deine Schätzung inhaltlich absolut keinen Zusammenhang vorweisen.
Wie das gemeint ist, zeigt ein Experiment von Daniel Kahneman und Amos Tversky. Dieses bestand aus zwei Schritten: erst wurde ein Glücksrad gedreht – der Ankerwert, dann zwei Fragen gestellt – die Beurteilung. Das Glücksrad war für die Studie so manipuliert, dass es bei einer Skala von 0-100 nur bei den Werten 10 und 65 stehen bleiben konnte. Jeder Student erhielt also entweder den Wert 10 oder 65 und wurde gebeten, diesen aufzuschreiben. Danach wurden den Teilnehmern diese 2 Fragen gestellt: „Ist der Anteil der afrikanischen Nationen unter den UN Mitgliedern höher oder niedriger als die Zahl, die du gerade aufgeschrieben hast?” und “Was ist deiner Einschätzung nach der Anteil afrikanischer Nationen in der UN?”. Offensichtlich kann der Anker keine Hinweise auf die richtige Antwort der Fragen geben. Trotzdem hatten die Werte einen klaren Einfluss auf die durchschnittlichen Schätzungen: Diejenigen, die eine 10 sahen, schätzen 25 %, diejenigen, die eine 65 sahen, schätzen 45 %.
Auch Experten sind vor diesem Effekt nicht gefeit, wie ein Experiment mit Immobilienmaklern zeigte. Die Makler wurden gebeten, ein Objekt zu bewerten und sahen dabei auch den Angebotspreis – eine Gruppe sah einen Wert deutlich über Marktwert, eine deutlich unter Marktwert. Alle gaben eine Schätzung ab und betonten dabei, dass der Preis keinerlei Einfluss auf ihre professionelle Bewertung hatte. Die Ergebnisse zeigten jedoch, dass die Makler sich deutlich von dem Ankerpreis lenken ließen, ohne es zu merken.
Der Ankereffekt kann sich sowohl in System 1, als auch in System 2 abspielen. In manchen Situationen ergibt es durchaus Sinn, sich an einer angegebenen Zahl zu orientieren. Wenn du dich in einem bestimmten Bereich nicht auskennst, kann ein Anker als Ausgangswert für eine Annäherung dienen. Dann passt System 2 deine Einschätzung anhand dieses Ankers schrittweise an. So haben im selben Experiment mit den Immobilienmaklern auch Studenten eine Schätzung des Objekts vorgenommen. Da sie sich sonst nicht auskannten, gaben sie an, sich am Angebotspreis zu orientieren und haben diesen bewusst als Anker anerkannt.
In anderen Szenarien kann der Anker auch unterbewusst als Priming-Effekt wirken. Wie im Beispiel des Glücksrads beeinflusst der Ankerwert dein System 1, obwohl du natürlich nicht glaubst, dass es einen Zusammenhang zu der Anzahl der afrikanischen Nationen in der UN gibt.
Dein System 1 versucht ein Szenario zu konstruieren, in dem der Ankerwert Sinn ergibt. Dies passiert ohne dein Wissen und so beeinflussen zusammenhangslose Zahlen deine Entscheidungen.
Wie du diese Denkfalle vermeiden kannst
Der Ankereffekt zeigt, wie beeinflussbar wir sind, oft ohne es zu merken. Dieses Phänomen wird im Marketing gerne ausgenutzt (z. B. durch Preisreduktionen oder rationierten Verkauf). Auch in Verhandlungen solltest du dir des Ankers sehr bewusst sein. Grundsätzlich ist derjenige im Vorteil, der das erste Angebot macht, also den Anker setzt. Wenn du dich in einer Verhandlung wiederfindest, solltest du dein System 2 aktivieren. Konzentriere dich zum Beispiel auf Argumente, die gegen den Ankerwert sprechen. Ein weiterer Weg, den Ankereffekt aufzuheben, ist, darüber nachzudenken, welches Minimum Angebot dein Gegenüber akzeptieren würde oder welche Kosten für ihn entstehen, wenn die Verhandlung platzt. Aktiv nach Gegenargumenten zu suchen ist eine effektive Strategie, denn es hebt die unterbewusste Beeinflussung deiner Gedanken auf.
Das Gesetz der kleinen Zahlen, die Verfügbarkeitsheuristik und der Ankereffekt sind unterschiedliche Ausprägungen derselben kognitiven Verzerrung, der wir unterliegen: Unser System 1 neigt dazu, schlüssige Geschichten zu konstruieren. Es ist nicht in der Lage, die Glaubwürdigkeit von Fakten zu bewerten und hat keinerlei statistische Fähigkeiten. Dazu brauchen wir System 2. Die Herausforderung liegt daran, solche Denkfallen zu erkennen und unsere Intuition dann zu hinterfragen.
Du kannst dein Bewusstsein dafür trainieren, indem du Fakten und Behauptungen kritisch gegenübertrittst. Gerade bei wichtigen Entscheidungen solltest du die mentale Energie dafür aufwenden.
Schnelles Denken, langsames Denken, Teil II – Heuristiken und kognitive Verzerrungen – Daniel Kahneman
Sehr geehrte Damen und Herren,
dies ist ein
super Artikel zur Einführung in das Thema Heuristiken.
Ich finde den Überblick, den Sie über Tverskys und Kahnemanns Ansatz gegeben haben super strukturiert und detailliert dargestellt.
Eine Sache stört mich dennoch: Ob Heuristiken tatsächlich zu Denkfehlern führen/ Denkfehler darstellen, ist überhaupt noch gar nicht evident. Der Rückschluss, dass mangelnde Informationen zwangsläufig zu fehlerhaften urteilen führen, ist meines erachtens nach naiv. Gigrenzer und Kollegen (1999) haben einen anderen Ansatz für Heuristiken entwickelt, welcher den von Tversky in Frage stellt. Gigrenzer lieferte Evidenz dafür, dass simple Heuristiken in unsicheren Entscheidungssituationen zu besseren Entscheidungen führen. Diese sind begründet auf dem Prinzip der „ökologischen rationalität“. Heuristiken werden an die jeweilige Entscheidungssituation angepasst und nach Gigrenzers Auffassung haben wir einen mentalen Werkzeugkasten, bestehend aus mehreren Heuristiken, welcher nach Anpassungspeozessen deutlich bessere Entscheidungen hervorbringen, als die mathematischen Wahrscheinlichkeitsurteile vorhersagen. Gigrenzer und Kollegen beschreiben simple Heuristiken als fast&frugal – schnell und sparsam.
Gerade das ignorieren von bestimmten Details bei einem Entscheidungsprozess ist wichtig für die Effektivität der Heuristik.
Dementsprechend wäre es sinnvoll, diesen Ansatz als Ansatz zu kennzeichnen und nicht als Wahrheit zu verkaufen, welche letzlich zu kontraproduktiven Ergebnissen bzw. ineffektiven Denkstrategien führen. Der Ansatz von Tversky und Kahnemann ist aus dem Jahre 1974. Auf Anfrage sende ich Ihnen liebend gerne Evidenz für meine Aussagen, diese stammen aus der kognitionspsychologischen Forschung.