(Zu) „Schnelles Denken“ – auch der Ärzt*innen

In einer Studie wurden mehrere Hundert in der Grundversorgung tätige Medizinalpersonen geprüft, wie sie vier Krankheitsfälle beurteilten (vor und nach positiven oder negativen Testergebnissen). Die Fehleinschätzungen bewegten sich für alle geprüften Fälle im selben Rahmen. Für den hypothetischen Test wurden in allen drei Gruppen der positive (95% statt korrekt 2%) und der negative Vorhersagewert grob falsch angegeben.
„Die Ergebnisse sind ernüchternd und zeigen, wie sehr wir uns vom ersten Eindruck leiten lassen und Testergebnisse dann hoch werten, wenn sie unsere initiale Meinung bestätigen. Bemerkenswert ist, dass mehr als die Hälfte der Studienteilnehmenden an Universitätskliniken tätig war, die ja für eine intensive wissenschaftliche Weiter- und Fortbildung bekannt sind, und dass die Resultate für die verschiedenen Berufskategorien weitgehend identisch waren. Die Studie erinnert uns daran, unser eigenes Denken ständig wissenschaftlich-kritisch zu hinterfragen.“
(Kommentar des Infomed-Screen [infomed-screen 25 — No. 8] zur spannenden Studie von Morgan DJ et al., Accuracy of practitioner estimates of probability of diagnosis before and after testing. JAMA Intern Med. 2021 Jun 1;181(6):747-755. [Link]

Schnelles Denken, langsames Denken

Schon Eugen Bleuler nannte dieses schnelle Denken der Ärzte anfangs 20. Jahrhundert „autistisch, unkontrolliert“. Der explizite Ausdruck „Schnelles Denken“ stammt von Daniel Kahneman: „Schnelles Denken, langsames Denken“ erschien 2012, lange vor Corona. Doch längst ist es ein Klassiker, sein Inhalt zeitlos aktuell: Das Buch des Nobelpreisträgers (2002 auf dem Gebiet der Urteils- und Entscheidungstheorie) schärft den Blick für die blinden Flecke unseres Denkens – auf der Grundlage der neuesten Entwicklungen in der kognitiven und der Sozialpsychologie.

Es erklärt, warum Menschen sich so stark von Emotionen (und so wenig von rationalen Argumenten) beeinflussen lassen, und räumt auf mit der vielleicht grössten unserer Illusionen: dass die Welt genau so sei, wie sie uns erscheint.

Das ist sie leider nicht, klärt uns Kahneman auf. Denn unser mentales System arbeitet nach dem Gesetz der geringstmöglichen Anstrengung. Auf die meisten Eindrücke reagieren wir intuitiv und automatisch; dieses »schnelle Denken« aber ist anfällig für viele systematische Verzerrungen (Biases). Hört man etwa, dass bei einer tödlichen Epidemie eine Impfung 2000 von insgesamt 6000 Betroffenen »retten« könnte, klingt das toll; die Botschaft, dass man bei der Impfung 4000 »verlieren« würde, erscheint uns als Desaster – obwohl sie dasselbe Ergebnis beschreibt.

Ein Beispiel für schnelles Denken: »Wie viele Tiere jeder Art nahm Moses mit in die Arche?«

»Der Mensch ist es nicht gewohnt, scharf nachzudenken«, lautet Kahnemans Essenz. Und nicht nur das: Die Menschen überschätzen auch ständig ihr eigenes Wissen und ihre Fähigkeit zum vernünftigen Denken – wobei Experten dafür sogar besonders anfällig sind (und besonders unwillig, ihr Scheitern zuzugeben).

Unsere Denkfehler und Heuristiken

In den 1970er-Jahren erachteten die meisten Sozialwissenschaftler zwei Annahmen über die menschliche Natur als erwiesen. Zum einen, dass Menschen sich im Allgemeinen rational verhalten und normalerweise klar denken. Zum anderen, dass Emotionen wie Furcht, Zuneigung und Hass die meisten Fälle erklären, in denen Menschen von der Rationalität abweichen. Kahneman stellt beide Annahmen infrage. Er dokumentiert systematische Fehler im Denken gewöhnlicher Menschen und führt diese Fehler auf die Konstruktion des Kognitionsmechanismus zurück und nicht auf die Verfälschung des Denkens durch Emotionen.

Die Substitutionsheuristik (Eine Heuristik ist grob gesagt eine Faustregel.) tritt ein, wenn wir uns mit einer Frage konfrontiert sehen, die wir mit unserem derzeitigen Kenntnisstand eigentlich nicht beantworten könnten. Um aber eine Antwort zu liefern, ersetzen wir die ursprüngliche Frage durch eine, die für uns einfacher zu beantworten ist. Nehmen wir beispielsweise die folgende: „Dieser Mann kandidiert für das Amt des Außenministers. Wie erfolgreich wird er im Amt sein?“ Automatisch ersetzen wir die gestellte Frage durch eine einfachere wie: „Sieht dieser Mann so aus, als könnte er einen guten Job als Außenminister leisten?“

So haben beispielsweise Politikwissenschaftler herausgefunden, dass die Verfügbarkeitsheuristik zu erklären hilft, weshalb einige Probleme in der Öffentlichkeit grosse Aufmerksamkeit finden, während andere vernachlässigt werden. Menschen neigen dazu, die relative Bedeutung von Problemen danach zu beurteilen, wie leicht sie sich aus dem Gedächtnis abrufen lassen – und diese Abrufleichtigkeit wird weitgehend von dem Ausmass der Medienberichterstattung bestimmt.

Bei einem Menschen wie Bill Gates, der genial in einer Sache ist (nämlich Software zu entwickeln), nehmen wir an, dass auch seine anderen Eigenschaften sehr positiv oder sogar genial sind (dass er auch einen grossen Beitrag im Gesundheitswesen leisten könne). Wir neigen dazu, uns selbst dann eine Meinung über Menschen zu bilden, wenn wir kaum etwas über sie wissen.

Ankerheuristik und der diagnostische Prozess bei uns Ärzt:innen

Auf Symptome fokussieren!

Der diagnostische Prozess muss häufig mit begrenzten Informationen und in limitierter Zeit zu einem Ziel – zu einer Diagnose! – führen. Kognitive Verzerrungen («cognitive biases») beeinflussen diesen Prozess. Bei der Präsentation von Krankengeschichten zum Beispiel werden bestimmte Charakteristika besonders erwähnt, hingegen werden als weniger relevant beurteilte Informationen weggelassen. Durch das selektive Hervorheben gewisser Informationen besteht das Risiko für einen «Ankerbias» – also die Tendenz, sich bereits früh im diagnostischen Prozess auf diese einzelnen Informationen zu beschränken [1, 2].
Bislang fehlten grössere Studien zu diesem Thema. Umso bemerkenswerter ist eine Querschnittstudie aus den USA [3]: Untersucht wurden die Krankengeschichten von über 100 000 Patientinnen und Patienten mit chronischer Herzinsuffizienz, die sich mit «Kurzatmigkeit» auf der Notfallstation vorgestellt hatten. In diesem Kollektiv wurden zwei Gruppen verglichen, die initial unterschiedlich triagiert worden waren: Konkret eine Gruppe mit und eine ohne den expliziten Vermerk «chronische Herzinsuffizienz». War bereits bei der initialen Triage durch das Notfallpflegepersonal dokumentiert worden, dass eine chronische Herzinsuffizienz bekannt war, kam es in der Folge zu weniger Untersuchungen für eine Lungenembolie (8,8% vs. 13,4%), auch wurde die Diagnose verzögert gestellt (90 min vs. 75 min). Im Langzeitverlauf (30 Tage) zeigte sich zwar kein Unterschied in der Inzidenz von Lungenembolien zwischen den beiden Gruppen – in der akuten Notfallsituation wurde die Diagnose Lungenembolie aber mit dem Anker «chronische Herzinsuffizienz» deutlich seltener gestellt (0,08% vs. 0,23%).
Die explizite Etikette «chronische Herzinsuffizienz» scheint damit einen kognitiven Anker zu setzen, der für die behandelnden Ärztinnen und Ärzte die Diagnose Lungenembolie weniger wahrscheinlich macht. Dies ist nachvollziehbar und – insbesondere im Notfallsetting bei hohem Patientenandrang – plausibel: Sind die mentalen Ressourcen erschöpft, bleibt man näher beim Anker. Vor dem Hintergrund, dass eine chronische Herzinsuffizienz einen Risikofaktor für eine venöse Thromboembolie darstellt, ist das Ausmass dieses kognitiven Bias aber doch einigermassen erstaunlich.

Zur Minimierung der Ankerheuristik schlagen die Autoren vor, bei der Fallvorstellung stärker auf Symptome und weniger auf explizite (Vor-)Diagnosen zu fokussieren.

Quellen: 1) Science, 1974, doi.org/10.1126/science.185.4157.1124.
2) N Engl J Med. 2022, doi.org/10.1056/NEJMcpc2115846.
3) JAMA Intern Med. 2023, doi.org/10.1001/jamainternmed.2023.2366.
(in „Weekly Briefing“, Swiss Medical Forum; 13.7.23; Prof. Lars Huber)

Wir sind dümmer als nötig!

Unser Gehirn hat die Tendenz, Dinge zu vereinfachen: Es bewertet, ohne dafür ausreichend Informationen zu Verfügung zu haben. Dadurch kommt es zu Fehleinschätzungen. Dieses Phänomen bezeichnet man als überzogene emotionale Kohärenz oder „Halo-Effekt“.

Unsere Gehirne verlassen sich auf falsche Suggestionen und Vereinfachungen, um Informationslücken zu füllen. Dazu gehört auch der Bestätigungsdenkfehler (Confirmation Bias), der häufigste Denkfehler des Menschen: Nur das, was mein Weltbild, mein Glaube und Kernüberzeugung bestätigt, kann ich sehen. Den ganzen Rest vermeide ich, zu sehen.

Oder mein Liebling unter allen Denkfehlern, dass alles, was natürlich ist, besser sei als alles Synthetische (naturalistischer Fehlschluss (engl. naturalistic fallacy))!

Wie helfen uns diese Informationen bei unserer Entscheidungsfindung?

  • Individuen treffen Entscheidungen auf keiner rein rationalen Basis.
  • Unsere Emotionen, nicht die Ratio, lenken oft unsere Entscheidungen.

Unsere Vernunft ist nur der kleine, hilflose Reiter auf dem grossen Elefanten unserer Bauch­gefühle. Das gilt, wenn wir moralische Urteile fällen, wenn wir Personen oder ihre Handlungen bewerten. Aber auch, wenn es um unsere politischen Präferenzen geht. Unser Reiter der Vernunft tut nur so, als gebe er die Richtung vor. Wo es langgeht, bestimme in Wirklichkeit einzig und allein der Elefant.

  • Vorsicht bei mentalen Bildern: Sie suggerieren Welterklärungen, führen aber zu Fehlprognosen.
  • Lass dir von medialer Berichterstattung keine falschen Eintrittswahrscheinlichkeiten suggerieren! Katastrophen haben massgeblich zur menschlichen Geschichte beigetragen, aber häufig überschätzen wir ihre Eintrittswahrscheinlichkeit aufgrund der lebhaften Bilder, die uns die Medien von ihnen vermitteln. (Lies dazu auch unsere verzerrte Risikoeinschätzung der Gesundheitsgefahren: walserblog.ch/2016/04/16/risikowahrnehmung/)

“Ich setze ein Fragezeichen hinter alles, vor allem hinter mich!”

Diese Aussage von Bertrand Russell wurde für mich (vor allem in meiner Arbeit – aber auch privat) immer wichtiger. Er sagt weiter: «Keine unserer Überzeugungen ist wirklich wahr, zumindest haben sie alle den Schatten von Unbestimmtheit und Irrtum.»
Wenn wir der Wahrheit so nahe wie möglich kommen wollen, sollten wir also Gewissheit vermeiden. Denn dann müssen wir beständig an uns zweifeln. «The Will to Doubt» (Der Wille zum Zweifel) nannte Russell diese Lebenseinstellung.

Quellen: oben angegeben.

Letzte Aktualisierung durch Thomas Walser:
24. August 2023