Denkfehler in der psychiatrischen Diagnostik

Die Psychiatrie versteht sich als Teil der Medizin. Daher hat sie sich auch dem medizinischen Modell der psychischen Krankheiten verschrieben. Aus diesem Modell folgt, dass psychische Krankheiten auf körperlichen Ursachen (meist Hirnstörungen) beruhen. Es konnte allerdings bisher noch nicht wissenschaftlich nachgewiesen werden, dass dies tatsächlich der Fall ist. Deshalb fehlen auch die Voraussetzungen zur Entwicklung einer objektiven psychiatrischen Diagnostik im Sinn des medizinischen Modells. Da es diese Diagnostik nicht gibt, ist der Arzt vor allem auf die folgenden drei Informationsquellen angewiesen:

  1. Beobachtung der Verhaltensweisen des Patienten im Arztzimmer oder in der Klinik
  2. Auskünfte des Patienten über sich selbst und seine Weltsicht
  3. Informationen aus dritter Hand (Angehörige, Vorbehandler, Polizei etc.)

Es dürfte sich also von selbst verstehen, dass eine psychiatrische Diagnose unter diesen Bedingungen nur subjektiv sein kann. Es mag zwar auch objektive Daten geben, wie beispielsweise rechtskräftige Verurteilungen oder körperliche Erkrankungen. Aber dabei handelt es sich keinesfalls um Biomarker einer „psychischen Störung“. Ein Biomarker ist eine zuverlässig messbare biologische Größe, die zur Diagnose einer Krankheit oder zur Prognose ihres Verlaufs genutzt werden kann.

Dies bedeutet zwangsläufig, dass psychiatrische Diagnosen denselben potenziellen Verzerrungen unterliegen wie die Wahrnehmung und Beurteilung von Personen im Allgemeinen. Die folgenden Beispiele sind Früchte eines Streifzugs durch die wundersame Welt der kognitiven und affektiven Verzerrungen, die ein Psychiaterhirn, wie jedes andere auch, beeinträchtigen können.1)Meine Aufzählung erhebt keinen Anspruch auf Vollständigkeit. Wer dieses Thema weiter verfolgen möchte, kann im Internet nach Informationen über Denkfehler suchen. Die Resultate sind allerdings schier unüberschaubar.

  • Bestätigungsfehler. Hierunter verstehen wir die Tendenz, nur noch nach Informationen zu suchen, die eine einmal gefasste Meinung bestätigen. Entsprechend werden Informationen, die diese widerlegen, ignoriert oder entwertet und schnell wieder vergessen. Die Bedeutung dieses Fehlers in diagnostischen Prozessen wurde eindrucksvoll durch das Rosenhan-Experiment belegt. Hier wurden „normale“ Menschen als Pseudo-Patienten in psychiatrische Kliniken geschickt – ohne Wissen der behandelnden Ärzte. Um aufgenommen zu werden, täuschten die Patienten einmalig akustische Halluzinationen vor. Die meisten Psychiater hielten hartnäckig an ihrer Ursprungsdiagnose fest, obwohl sich die „Patienten“ nach ihrer Aufnahme im Hospital völlig normal verhielten. Einige der echten Mitpatienten bemerkten dies, nicht aber die Experten. Die Pseudo-Patienten protokollierten beispielsweise ihre Beobachtungen zunächst heimlich und dann, weil dies vom Personal nicht beachtet wurde, öffentlich. In den Patientenberichten der Anstalten wurde dies üblicherweise als „pathologisches Schreibverhalten“ gedeutet 2)Rosenhan, D. (1973): On Being Sane in Insane Places. In: Science, 179, 250-8.
  • Ambiguitätseffekt. Menschen neigen bei Entscheidungen unter Unsicherheit zur Wahl von Optionen, die mit bekannten Wahrscheinlichkeiten verbunden sind.
    Ein Beispiel: Wir haben die Wahl zwischen drei Restaurants (A, B, C). Wir wissen, dass in Restaurant A 70 % der Gäste zufrieden waren. Wir besitzen keine Informationen über die Zufriedenheit der Gäste in den beiden anderen Speiselokalen. In diesem Fall tendieren wir dazu, uns für A zu entscheiden.
    Dies ist natürlich irrational. Selbst im Restaurant könnten wir ja zu jenen 30 Prozent gehören, denen es nicht geschmeckt hat. Aber der Mensch schätzt offenbar irrationale Entscheidungen. Deswegen sind ja auch Hotel- oder Ärztebewertungen im Internet so beliebt.
    Da Psychiater bekanntlich auch nur Menschen sind, unterliegen sie in der diagnostischen Entscheidungssituation ebenfalls dem Ambiguitätseffekt. Nehmen wir an, ein Psychiater kenne sich mit den Wahrscheinlichkeiten rund um die Diagnose A gut aus. Die Wahrscheinlichkeiten bezüglich der Alternativdiagnosen B und C seien ihm demgegenüber nicht so besonders gut vertraut. Unter diesen Bedingungen wird ein Patient im Zweifelsfall vermutlich die Diagnose A erhalten.
  • Anker-Effekt. Menschen tendieren dazu, sich bei Entscheidungen zu stark auf einen einzelnen Gesichtspunkt, ein einzelnes Merkmal aus einem komplexen Gefüge, leiten zu lassen. Dieser Anker überstrahlt dann alle anderen, möglicherweise viel gewichtigeren Aspekte der Angelegenheit.
    Darum ist es beispielsweise nicht ratsam, einem Psychiater zu erzählen, man höre Stimmen, die sonst niemand hört – es sei denn, man wolle als „schizophren“ diagnostiziert werden. Multiple Persönlichkeiten beispielsweise hören viel häufiger Stimmen als Schizophrene, aber das wissen die meisten Psychiater nicht.3)Mit Ausnahme jener Psychiater natürlich, die sich intensiv mit der „Dissoziativen Identitätsstörung“ auseinandergesetzt haben. Siehe z. B. Ross, C. A. (2000). The Trauma Model. Richardson, TX, Seite 115
    Möchte man also gern als multiple Persönlichkeit diagnostiziert werden, sollte man lieber von Flashbacks sprechen, von plötzlichen, quälenden Erinnerungen an Gewalt und Missbrauch in der Kindheit. Dann klappt’s auch mit der Diagnose.
    Doch Scherz beiseite: Der Anker-Effekt spielt allein schon wegen des Zeitdrucks, unter dem heute viele Ärzte arbeiten müssen, vermutlich eine in vielen Fällen ausschlaggebende Rolle.
  • Aufmerksamkeitsverzerrung. Dieses Phänomen kann man am leichtesten mit einem Beispiel veranschaulichen:
    A. Menschen kündigen einen Selbstmord an und bringen sich um.
    B. Menschen kündigen einen Selbstmord an und bringen sich nicht um.
    C. Menschen kündigen keinen Selbstmord an, töten sich aber selbst.
    D. Menschen kündigen keinen Selbstmord an und bringen sich auch nicht um.
    Viele neigen dazu, sich in solchen Situationen auf die emotional bedeutsamen Alternativen zu konzentrieren und die anderen zu vernachlässigen, selbst wenn sie eine höhere Wahrscheinlichkeit haben. Deswegen wimmelt es in geschlossenen Abteilungen psychiatrischer Anstalten vor Menschen, die Selbstmordgedanken geäußert haben. Dabei ist es keineswegs sicher, dass mit der Ankündigung eines Suizids eine erhöhte Selbstmordgefährdung verbunden ist.
  • Verfügbarkeits-Heuristik. Menschen bevorzugen bei Entscheidungen Informationen, nach denen sie nicht lange im Gedächtnis kramen müssen, sondern die ihnen unmittelbar in den Sinn kommen. Aus diesem Grunde halten die meisten Zeitgenossen die so genannten psychisch Kranken auch für gefährlicher, als sie tatsächlich sind. Schließlich sind die Zeitungen voll mit Berichten über „psychisch kranke“ Gewalttäter, die in die Psychiatrie gebracht wurden.
    In einer Studie zeigte sich beispielsweise, dass 46 Prozent der Berichte in der britischen Presse über „psychisch Kranke“ das Thema „Gewalt“ betrafen 4)Ward, G. (1997). Making Headlines: Mental Health and the National Press. London: Health Education Authority. Über friedfertige „psychisch Kranke“ wird viel seltener berichtet, wenn überhaupt. Man muss nur das Stichwort „Psychiatrie“ in „Google News“ eingeben. Dann kann man sich davon zu überzeugen, dass dies in Deutschland nicht anders ist.
    Da Psychiater bekanntlich auch nur Menschen sind, unterliegen sie ebenfalls dieser Verzerrung, selbst wenn sie die einschlägigen Statistiken kennen sollten. Dies dürfte eine zumindest teilweise Erklärung für die häufig beklagte Überschätzung der Gefährlichkeit von Probanden durch psychiatrische Prognostiker sein.
  • Verfügbarkeits-Kaskade. Eine Behauptung wird umso glaubwürdiger, je mehr Menschen sich öffentlich zu ihr bekennen. Dies ist die Geschäftsgrundlage der Psychiatrie. Weil immer und immer wieder Abweichungen von sozialer Norm als „psychisch krank“ bezeichnet werden, wird dieses Deutungsmuster schließlich zur unumstößlichen Wahrheit. Psychiater glauben umso lieber daran, als dieser Glaube ihnen ja ein schönes Leben in Saus und Braus ermöglicht. Dies gilt im Übrigen nicht nur für den Begriff der „psychischen Krankheit“, sondern auch für die entsprechenden Erklärungsmodelle.
    Dank eines beträchtlichen Marketingaufwandes wurden z. B. die Dopamin-Hypothese der Schizophrenie und die Serotonin-Hypothese der Depression durch eine Verfügbarkeits-Kaskade zum Allgemeingut und gelten auch heute noch als gesichertes Wissen. Dabei wurden sie schon vor Jahrzehnten unumstößlich widerlegt 5)Gøtzsche, P. C. (2015). Deadly Psychiatry and  Organized Denial. Kopenhagen 2015 / Valenstein, E. S. (1998). Blaming the Brain. New York: The Free Press Das menschliche Hirn ist ein komplexes System. Man kann psychische Störungen nicht durch ein simples Zuviel oder Zuwenig bestimmter Botenstoffe erklären, die für die Erregungsübertragung im Nervensystem sorgen.
  • Gegenschlag-Effekt. Wenn Informationen gegen die eigene Überzeugung sprechen, neigen Menschen umso inbrünstiger dazu, auf ihrem Glauben zu beharren. Dies zeigt sich gerade auch in der Psychiatrie, die im Augenblick als Wissenschaft bekanntlich vor einem Scherbenhaufen steht. Wer nun aber wähnt, dass man in diesen Kreisen angesichts des Unbestreitbaren in sich ginge, hat sich gewaltig in den Finger geschnitten. Im Gegenteil: Man trumpft auf wie nie zuvor.
    Ein besonders dramatisches Beispiel für den Gegenschlag-Effekt ist das „klinische Urteil“ des erfahrenen Experten. Seit mehr als fünfzig Jahren wird ein empirischer Beleg nach dem anderen dafür angehäuft, dass dieses „klinische Urteil“ höchst fehlerbehaftet ist. Dennoch weigern sich viele Experten nach wie vor, die erwiesenermaßen haushoch überlegenen statistischen Modelle auch nur in Erwägung zu ziehen 6)Dawes R.M., Faust D., Meehl P.E. (1989). Clinical versus actuarial judgment. Science, 243:1668–74.
  • Gruppendenken. Man glaubt, was viele glauben, weil es viele glauben. Die Geschichte der Psychiatrie ist eine Geschichte der Moden. Viele Jahre glaubten alle an Jean-Martin Charcot, den „Napoleon der Neurosen“. Dann glaubten alle an Sigmund Freud, den „Entdecker des Unbewussten“. Dann glaubten viele lieber an Burrhus Frederic Skinner, den Herrn der Ratten und Tauben. Heute glauben alle an Brain Scans, die wie Rorschach-Tintenkleckse gedeutet werden.
    Man nennt dies auch den Bandwagon-Effekt. Der „Bandwagon“ ist der Wagen in einer Parade, auf dem die Kapelle sitzt und dem deswegen die größte Aufmerksamkeit zuteil wird. Und wenn dort Sigmund Freud die Musik macht, dann ist man halt Psychoanalytiker. Heute ist man Neuropsychiater oder Neuropsychologe.
  • Barnum-Effekt. Menschen neigen dazu, vage und allgemein gültige Aussagen über ihre Person zu akzeptieren. Ein Beispiel für diesen Effekt ist der Glaube an Zeitungshoroskope. Dies führt zu folgendem typischen Ablauf: Ein Psychiater stellt seinem Patienten eine Lehrbuchdiagnose. Der Patient stimmt ihr zu, weil der dem Barnum-Effekt unterliegt. Der Psychiater fasst dies als Bestätigung seiner Diagnose auf.
  • Basis-Raten-Fehlschluss. Nehmen wir einmal an, in einem Staat lebten eine Million Menschen. Davon seien hundert potenzielle „psychisch kranke“ Massenmörder. Es wird nun ein Testverfahren entwickelt, um diese potenziellen Massenmörder zu identifizieren und sie rechtzeitig einzusperren.
    Jeder Test hat natürlich eine Fehlerquote. Er kann potenzielle Massenmörder nicht entdecken und er kann harmlose Bürger fälschlich als potenzielle Massenmörder identifizieren. Unterstellen wir, die Fehlerquote sei in beiden Fällen 1 Prozent. Dies bedeutet: Wenn potentielle Massenmörder den Test machen, wird er in 99 Prozent der Fälle dies auch erkennen, in einem Prozent der Fälle nicht. Wenn normale Bürger den Test machen, wird er in 99 Prozent der Fälle keinen Befund ergeben und sie in einem Prozent der Fälle fälschlicherweise als potenzielle Massenmörder einstufen.
    Dieser Test wird nun bei Fritz M. angewendet und das Ergebnis lautet: potenzieller Massenmörder. Wie groß ist die Wahrscheinlichkeit, dass es sich dabei tatsächlich um einen solchen handelt? Wer mit der Bayes-Statistik nicht vertraut ist, wird vermutlich eine falsche Antwort geben. Die richtige lautet: Die Wahrscheinlichkeit liegt bei ungefähr 1 Prozent. 99 der „psychisch kranken“ Massenmörder haben ein positives Testergebnis, aber auch 9999 der 999900, die keine psychisch kranken Massenmörder sind. Deshalb haben insgesamt 10098 ein positives Testergebnis, unter denen sich 99 tatsächliche „psychisch kranke“ Massenmörder befinden.
    Und so ist die Wahrscheinlichkeit, dass eine positiv getestete Person tatsächlich ein „psychisch kranker“ Massenmörder ist, gleich 99 geteilt durch 10098, und das ist weniger als 1 Prozent.
    Nach jedem Massenmord, der von den Massenmedien ausgeschlachtet wird, melden sich Psychiater zu Wort. Sie fordern Massenuntersuchungen, um „psychisch kranke Gewalttäter“ vor ihren Taten auszusondern und zu behandeln. Dass diese Psychiater gut beraten wären, einen Volkshochschulkurs zu den Grundlagen der Statistik und Wahrscheinlichkeitslehre zu belegen, liegt auf der Hand. Dass diesem Rat nur wenige folgen werden, erklärt sich durch die anderen der hier aufgeführten und weiteren Verzerrungen ihrer Urteilskraft.
  • Blinde-Fleck-Verzerrung. Menschen neigen dazu, sich selbst als weniger anfällig für Denkfehler zu halten als andere Menschen. Psychiater werden behaupten, dass ihnen aufgrund ihrer Ausbildung und ihrer Erfahrung weniger Fehlurteile über Menschen unterlaufen als dem Rest der Bevölkerung. Diese Auffassung hat der empirischen Überprüfung zwar nicht standgehalten, wird aber dennoch von Psychiatern und anderen Experten hartnäckig vertreten 7)Dawes, R. (1996). House of Cards. Psychology and Psychotherapy Built on Myth. New York: Free Press.
  • Entscheidungslegitimierende Verzerrung. Darunter verstehen wir die Tendenz, die Konsequenzen einer eigenen Entscheidung positiver zu bewerten, als sie es bei objektiver Betrachtung tatsächlich sind. Aus diesem Grund ist es angezeigt, Berichte zu Therapieerfolgen mit allergrößter Skepsis zu betrachten – vor allem, wenn sie von den behandelnden Therapeuten stammen. Ein drastisches Beispiel ist die Lobotomie. Sie wurde von den Operateuren überwiegend als hilfreich eingeschätzt, wohingegen die Ergebnisse weitgehend verheerend waren. Da ist sich sogar die „Fachwelt“ heute einig. Vielfach diagnostizierten die Operateure die von ihnen massakrierten Patienten als „gebessert“, obwohl sie in einem kläglichen Zustand dahinvegetierten 8)Hill, J. (1992). Der frontale Griff an das Gehirn und die Entwicklung der Psychochirurgie. Hamburg: Lit.

Die Liste der potenziellen emotional-kognitiven Verzerrungen unserer Wahrnehmung, unseres Denkens und Urteilens will schier kein Ende nehmen. Man könnte ein eigenes Buch mit ihnen füllen und hätte dennoch nicht das Gefühl, dieses Thema erschöpfend behandelt zu haben. Es wäre vermessen, den Eindruck zu erwecken, dem Leser hier einen vollständigen Überblick über alle relevanten Denkfehler gegeben zu haben. Die Beispiele sollten aber genügen, um zu zeigen, dass subjektive Urteile einer Vielzahl verzerrender Einflüsse unterliegen. Gegen diese kann sich kein Mensch wappnen – auch ein Psychiater nicht, niemand.

Bei der Durchsicht meiner Liste fällt mir allerdings auf, dass ich noch einen sehr entscheidenden Trugschluss vergessen habe, nämlich den Trugschluss des eingebildeten Konsensus. Viele Psychiater argumentieren so, als seien sie das Sprachrohr einer einheitlichen Lehrmeinung. Dazu tendieren sie vor allem, wenn sie ihre Diagnosen und Behandlungsvorschläge verteidigen. Beliebte Formulierungen, die diesem Trugschluss Ausdruck verleihen, beginnen mit „Wir Psychiater sprechen von…“ oder „Wir Psychiater bezeichnen dies als…“

Dies ist allerdings eine Neigung, der viele Menschen unterliegen. Sie glauben, dass ihre Meinungen von der Mehrheit oder doch zumindest von einer großen Zahl von Gleichgesinnten mitgetragen würden. Nur zu oft ist das ein Irrtum. Auch Psychiater streiten sich mitunter wie die Kesselflicker über Theorien und Therapien und werden sich oft auch hinsichtlich ein und desselben Patienten nicht einig.

Denkfehler lauern in jedem Beruf, nicht nur in der Psychiatrie. Im Allgemeinen werden den Berufsvertretern in ihrer Ausbildung aber Strategien vermittelt, deren Häufigkeit und Schwere möglichst gering zu halten. In der Psychiatrie ist das anders. Der Psychiater muss sich selbst und andere täuschen, um den Beruf überhaupt ausüben zu können. Will er eine Behandlung mit der Kasse abrechnen, muss er seinen diagnostischen Code mit dem G versehen. G bedeutet, dass eine gesicherte Erkrankung vorliegt. Angesichts der schwerwiegenden Mängel psychiatrischer Diagnostik ist dies aber nie der Fall.

 

Fußnoten   [ + ]

1. Meine Aufzählung erhebt keinen Anspruch auf Vollständigkeit. Wer dieses Thema weiter verfolgen möchte, kann im Internet nach Informationen über Denkfehler suchen. Die Resultate sind allerdings schier unüberschaubar.
2. Rosenhan, D. (1973): On Being Sane in Insane Places. In: Science, 179, 250-8
3. Mit Ausnahme jener Psychiater natürlich, die sich intensiv mit der „Dissoziativen Identitätsstörung“ auseinandergesetzt haben. Siehe z. B. Ross, C. A. (2000). The Trauma Model. Richardson, TX, Seite 115
4. Ward, G. (1997). Making Headlines: Mental Health and the National Press. London: Health Education Authority
5. Gøtzsche, P. C. (2015). Deadly Psychiatry and  Organized Denial. Kopenhagen 2015 / Valenstein, E. S. (1998). Blaming the Brain. New York: The Free Press
6. Dawes R.M., Faust D., Meehl P.E. (1989). Clinical versus actuarial judgment. Science, 243:1668–74
7. Dawes, R. (1996). House of Cards. Psychology and Psychotherapy Built on Myth. New York: Free Press
8. Hill, J. (1992). Der frontale Griff an das Gehirn und die Entwicklung der Psychochirurgie. Hamburg: Lit