Entscheidungen

Teil 1

Die Irrtümer der Irren

Sehr häufig beruhen psychiatrische Diagnosen im Kern darauf, den Diagnostizierten Irrtümer zu unterstellen. Diese Menschen seien „psychisch krank“, so heißt es, weil sie auf ihren Annahmen beharrten, bei denen es sich jedoch um Fehlschlüsse oder aber um Aussagen handele, die nach menschlichem Ermessen nicht mit der Wirklichkeit übereinstimmen könnten. Das Verhalten der Betroffenen scheint auf rätselhaften Fehlentscheidungen zu beruhen, und deswegen bezeichnet man sie als „psychisch krank“, weil sich nämlich keine vernünftige Erklärung dafür finden lässt.

Zwar wird jedermann ein gewisses Maß an Irrationalität zugestanden, denn sonst blieben ja nur sehr wenig „psychisch Gesunde“ übrig; aber ein nur vage bestimmtes Übermaß an nicht nachvollziehbarem Denken wird im Allgemeinen nicht toleriert und führt zur Einstufung als „psychisch krank“, „irre“, „verrückt“ oder als „Fall für den Psychiater“.

Es gibt natürlich auch einige „Syndrome“, bei denen die Unterstellung von Irrtümern, zumindest vordergründig, keine oder keine herausragende Rolle spielt. Doch diese „Krankheitsbilder“ stellen eher eine Minderheit dar.1

Einige Beispiele sollen verdeutlichen, dass die Unterstellung von Irrtümern tatsächlich ein beherrschendes Thema psychiatrischer Diagnosen ist:

  • Als Wahn gilt eine Überzeugung, die mit der Realität unvereinbar ist, an der aber der „Kranke“ unbeirrt festhält.
  • Eine Halluzination ist eine Wahrnehmung ohne äußere Reizquellen, also eine Trugwahrnehmung.
  • Gefühle der Wertlosigkeit und Schuldgefühle werden als „krankhaft“ gedeutet, wenn ihre Intensität und Dauer einem etwaigen Fehlverhalten nicht angemessen ist (falsche Einschätzung).
  • Das Selbstwertgefühl wird als „krankhaft“ übersteigert eingestuft, wenn es aus der Sicht anderer Menschen nicht der eigenen Leistungsfähigkeit entspricht.
  • Angst wird als „krankhaft“ betrachtet, wenn diese Reaktion nicht durch das Ausmaß einer realen Bedrohung erklärt werden kann.
  • Zwangsgedanken und Zwangshandlungen werden beibehalten, obwohl die betroffene Person erkannt hat, dass sie übertrieben sind und in keinem realistischen Bezug zu dem stehen, was sie sie zu neutralisieren oder zu verhindern versuchen; hier wird der Irrtum von den Betroffenen eingeräumt.
  • Die „posttraumatische Belastungsstörung“ zeichnet sich dadurch aus, dass die „Symptome“, die als Reaktion auf eine akute Belastung verständlich sind, auch in Situationen ohne Bedrohung weiterbestehen.
  • Bei der Somatisierungsstörung leidet der Betroffene unter körperlichen Phänomenen, die nicht oder nur teilweise durch körperliche Ursachen erklärbar sind (das Phänomen ist also gleichsam der unbewusste Ausdruck eines Irrtums).
  • Bei der Hypochondrie ist der Betroffene von der Gewissheit durchdrungen, körperlich krank zu sein, obwohl dies aus ärztlicher Sicht ausgeschlossen werden kann oder sehr unwahrscheinlich ist; er verwechselt „seelische Probleme“ mit körperlichen Symptomen.
  • Irrige Annahmen über die eigene Identität kennzeichnen das „Krankheitsbild“ der „Dissoziativen Identitätsstörung“.
  • Menschen mit „Anorexie“ schätzen ihr eigenes Gewicht bzw. die Gefahr, dick zu werden, falsch ein.
  • Eine Fülle von Fehleinschätzungen kennzeichnet auch die so genannten Persönlichkeitsstörungen. Beispiel: Schwarz-Weiß-Denken und unangemessene Wut beim „Borderline-Syndrom“; grandioses Gefühl eigener Wichtigkeit bei der „Narzisstischen Persönlichkeitsstörung“.

Es kommt hier nicht darauf an, ob den entsprechend psychiatrisch Diagnostizierten Irrtümer zu Recht oder zu Unrecht unterstellt werden. Es geht mir vielmehr darum zu fragen, ob es gerechtfertigt sei, scheinbar rätselhafte, offenbar unrichtige Annahmen, selbst wenn sie de facto als Irrtümer betrachtet werden müssten, als Symptome von Krankheiten zu deuten.

Wenn man Irrtümer, an denen, mitunter sogar wider bessere Einsicht, beharrlich festgehalten wird, als Ausdruck einer Pathologie begreift, dann impliziert diese Interpretation ja, dass ein gesunder Geist bzw. ein gesundes Nervensystem generell Irrtümer zu vermeiden oder schnellstmöglich zu korrigieren strebt.2

In seiner Schrift „Zur Psychopathologie des Alltagslebens“ beschäftigt sich Sigmund Freud mit den Fehlhandlungen und Irrtümern, die auf unbewussten, verdrängten Absichten beruhen.

Zu den Irrtümern schreibt er:

Man wird vielleicht nicht geneigt sein, die Klasse von Irrtümern, für die ich hier Aufklärung gebe, für sehr zahlreich oder besonders bedeutungsvoll zu halten. Ich gebe aber zu bedenken, ob man nicht Grund hat, die gleichen Gesichtspunkte3 auch auf die Beurteilung der ungleich wichtigeren Urteilsirrtümer der Menschen im Leben und in der Wissenschaft auszudehnen. Nur den auserlesensten und ausgeglichensten Geistern scheint es möglich zu sein, das Bild der wahrgenommenen äußeren Realität vor der Verzerrung zu bewahren, die es sonst beim Durchgang durch die psychische Individualität des Wahrnehmenden erfährt (Freud 1904: Kindle-Edition, Pos. 1256).“

Einerseits ist Freud also davon überzeugt, dass Irrtümer einer Psychopathologie entspringen können und andererseits glaubt er, dass diese Psychopathologie allgegenwärtig sei, so dass nur die „auserlesensten und ausgeglichensten Geister“ davor bewahrt bleiben.

Bei aller Verschiedenheit des psychoanalytischen und des heute in der Psychiatrie vorherrschenden Denkens, ist hier doch eine Gemeinsamkeit zwischen Freud und der überwiegenden Mehrheit zeitgenössischer Psychiater zu konstatieren: Sie beruht auf der Überzeugung, man könne aufgrund theoretischer Erwägungen gewissen Formen von Irrtümern als krankhaft diagnostizieren.

Es stellt sich also die Frage, ob diese theoretischen Erwägungen bisher empirisch erhärtet werden konnten. Die „Psychopathologie des Alltagslebens“ stellt eine Sammlung von Anekdoten dar; und durch deren Analyse glaubt Freud, im Sinne eines Indizienbeweises, belegen zu können, dass seine These der verdrängten Absichten hinter den Fehlleistungen der Wahrheit entspräche. Dies ist die Sherlock-Holmes-Methode: Der Detektiv erschließt aus Merkmalen des Tatorts den Hergang der Tat und engt den Kreis der mutmaßlichen Täter ein, bis schlussendlich, in Verbindung mit weiteren Anhaltspunkten, der wahre Täter entlarvt werden kann. Diese Methode funktioniert allerdings nur in Romanen.4

So wie Merkmale des Tatortes auf vielfältigen Ursachen beruhen können, die aus ihnen nicht zweifelsfrei zu erschließen sind, so kann auch ein und dieselbe Verhaltensweise, also beispielsweise auch ein auf Irrtümern beruhendes Verhalten, durch eine Vielzahl psychischer und neuronaler Prozesse hervorgebracht worden sein.

Freuds Forschungsmethode spielt in der heutigen Psychiatrie allenfalls nur noch eine randständige Rolle (ebenso wie seine Theorien des Unbewussten und der Verdrängung), so dass ich mich im Folgenden auf die Sichtweisen des gegenwärtigen psychiatrischen Mainstreams konzentrieren werde.5

Ein Modell des pathologischen Irrtums

Um Irrtümer als Symptome einer Psychopathologie deuten zu können, müsste es gelingen, einen besonderen neuronalen oder psychischen Mechanismus zu identifizieren, der bestimmten Formen oder Ausprägungen von Irrtümern zugrunde liegt. Sofern Irrtümer, gleich welcher Art, stets auf allgemein menschlichen Prozessen in der Psyche oder im Nervensystem beruhen sollten, so wäre es ja nicht gerechtfertigt, von einer Psychopathologie zu sprechen – es sei denn, man wollte den Irrtum schlechthin und damit die sich notorisch irrende Menschheit insgesamt für krank erklären.

Man stelle sich vor, ein Mensch (nennen wir in Paul) habe die Wahl zwischen Handlungen und 10000 Versuche, bei denen er sich für die eine oder die andere Handlung (A oder B) entscheiden kann. A führt mit siebzigprozentiger Wahrscheinlichkeit zum Erfolg, B mit fünfzigprozentiger. Dies ist Paul jedoch zu Beginn des Versuch nicht bekannt. Sein erklärtes Ziel besteht darin, seinen Gewinn zu maximieren. A und B sind mit vergleichbaren Kosten verbunden.

Nehmen wir zur Vereinfachung an, es handelte sich darum, entweder auf Taste A oder auf Taste B zu drücken. Als Gewinn erhält man jeweils 10 Cents. Paul wird aufgefordert, das Ergebnis seiner Versuche (Gewinn und Tastenwahl) in einer Strichliste festzuhalten.

Nach einiger Zeit sollte Paul die unterschiedlichen Erfolgswahrscheinlichkeiten erkennen und, da er seinen Gewinn ja maximieren will, nur noch auf die Taste A drücken. Nun stellt sich aber heraus, dass Paul nach wie vor A und B in wechselnden Häufigkeiten betätigt. Seine Begründung dafür lautet, dass er ein System hinter den Belohnungen vermute, dass er herausfinden wolle, um seinem Erfolg der Traumquote von 100 Prozent anzunähern.

Wir sagen Paul, dass er sich irrt, denn die Erfolgswahrscheinlichkeiten für A und B sind fix. Doch Paul glaubt uns nicht. Vielmehr meint er, es gehöre zum experimentellen Design, dass die Versuchsleitung die Existenz des real vorhandenen Systems bestreite; er aber sei schlauer als durchschnittliche Versuchspersonen.

Wir legen ihm unseren von der Universität genehmigten Versuchsplan vor, der nichts dergleichen vorsieht, aber auch dies kann ihn nicht umstimmen.

Aus psychiatrischer Sicht haben wir hier also einen Menschen vor uns, der unkorrigierbar an seinem Irrtum festhält. Er leidet gleich an einem doppelten Wahn.

  • Erstens behält Paul sein irrtümliches Verhalten bei, obwohl die Tatsachen dagegen sprechen. Taste A ist eindeutig mit einer höheren Erfolgswahrscheinlichkeit verbunden als Taste B. Drückt er hundertmal auf Taste A, darf er mit € 7,00 rechnen; drückt er jedoch hundertmal auf Taste B, mit € 5,00.
    Sobald er dies bemerkt hat, wäre es vernünftig, bei den folgenden Versuchen nur noch auf Taste A zu drücken, denn dann erhielte er beispielsweise für die nächste Sequenz von 200 Versuchen voraussichtlich in etwa € 14,00, bei jeder anderen Strategie könnte die Ausbeute nur geringer sein; der Erwartungswert läge irgendwo zwischen € 14,00 und € 10,00, beispielsweise im Falle einer Gleichverteilung des Tastendrucks bei € 12,00.
  • Zweitens glaubt Paul an ein System, das sein Verhalten rechtfertigt. Er meint, dass die Belohnungen nicht nach dem Zufallsprinzip mit A bzw. B verbunden seien, sondern dass sie einer vorher festgelegten Reihenfolge folgten. Dafür allerdings sind keine Anhaltspunkte zu erkennen; es handelt sich um eine unbegründete Vermutung, auf der dieser Mensch wider alle Erfahrung unverbrüchlich beharrt.

Dies ist also ein Modell des „pathologischen Irrtums“, denn die fest für wahr gehaltene Idee widerspricht erstens dem, was aufgrund beobachtbarer Tatsachen als wahrscheinlich betrachtet werden kann und zweitens dem, was andere, als kundig geltende Leute für richtig halten.

Um dieses Modell allerdings zu validieren, müsste sich ein individueller Prozess finden lassen, der bei Paul und ähnlich gestrickten Menschen das beschriebene Verhalten hervorruft – und dieser Prozess dürfte bei jenen Menschen nicht ablaufen, die sich früher oder später im eigenen Interesse dafür entscheiden, nur noch die Taste A zu drücken, weil jeder Druck auf Taste B die Ausbeute im Schnitt nicht verbessern kann.

Am Rande sei bemerkt, dass es sich hier bei der Bezeichnung „pathologischer Irrtum“ um eine Bewertung handelt, die auf der Voraussetzung ruht, es sei vernünftig, gesund oder normal, nach Gewinnmaximierung zu streben. Es mag aber von Fall zu Fall vernünftig sein, dies nicht zu tun.6

Meines Wissens wurde ein vergleichbares Experiment noch niemals realisiert, geschweige denn validiert. Es wurde allerdings eine große Zahl von Experimenten zum menschlichen Entscheidungsverhalten verwirklicht. Gibt es vielleicht Hinweise, dass bestimmten Formen und Ausprägungen von Irrtümern nicht allgemein menschliche Gesetzmäßigkeiten, sondern individuelle Besonderheiten zugrunde liegen, die im Sinne einer Psychopathologie gedeutet werden könnten?

Es ist wohl kaum zu bestreiten, dass allen Menschen, also auch jenen, die noch nie im psychiatrischen Sinn auffällig geworden sind, Irrtümer unterlaufen. Derartige Denkfehler finden sich natürlich auch bei Menschen mit einer psychiatrischen Diagnose. Irrtümer, die auf allgemein menschliche Neigungen zurückzuführen sind, eignen sich also nicht, um „psychisch kranke“ von „psychisch gesunden“ Menschen zu unterscheiden.7

Im obigen Modell könnte beispielsweise das Hot-hand-Phänomen eine Rolle spielen (Gilovich et al. 1985). Menschen neigen zu dem Glauben, dass eine zufällige Häufung von Erfolgen weitere Erfolge nach sich ziehen wird. Beispiel: Ein Basketballspieler, der während eines Spiels bereits zweimal ins Netz getroffen hat, wird von seinen Mitspielern besonders häufig angespielt, weil sie fälschlicherweise wähnen, er habe in diesem Spiel eine „heiße Hand“.

So könnte auch Paul in unserem Modell zweimal kurz hintereinander mit der Tastendruckkombination AABBA jeweils 50 Cents „verdient“ haben und daraufhin glauben, dies sei das System oder zumindest ein Teil davon. Es wäre also verfehlt, solche Fehler als Ausdruck einer Psychopathologie zu interpretieren, weil Menschen allgemein dazu neigen (Kahneman 2011).

Es ist definitiv niemand davor gefeit, solchen Irrtümern im Alltag häufiger zu erliegen; wollte man deren Häufung psychopathologisch deuten, so müsste man wohl das Verhalten und Erleben der Menschheit insgesamt als Ausdruck einer Psychopathologie betrachten.

Dies mag ein amüsanter Gedanke sein; da ein solcher Begriff aber nicht mehr zur Differenzierung taugen würde, wäre er, zumindest aus wissenschaftlicher Sicht, sinnlos.

Das obige Modell des „pathologischen Irrtums“ setzt also zudem voraus, dass die unvernünftigen Entscheidungsprozesse des „Irren“ nicht auf allgemein menschlichen Denkfehlern beruhen, sondern eine Besonderheit aufweisen, die den Irren zum Irren macht.

Alleinstellungsmerkmale irrer Entscheidungen

Gesucht werden Entscheidungsprozesse, Entscheidungsprozesse solcher Art, die typisch sind für die so genannten psychisch Kranken, und die zu jenen falschen Wahlen führen, zu Irrtümern, die charakteristisch sind für diverse angebliche psychische Krankheiten.

Wir begeben uns bei dieser Suche in ein schwieriges Gebiet; doch dies wird uns aufgezwungen durch die Wahl des Konstrukts der „psychischen Krankheiten“. Es bezieht sich nämlich auf mentale Vorgänge, von denen die Psychiatrie sagt, sie beruhten im Kern auf krankheitswertigen Störungen des Gehirns.

Mentale Prozesse kann man aber nicht direkt beobachten wie Vorgänge in der Außenwelt. Man muss sie erschließen aus dem Verhalten der betroffenen Person, aus Veränderungen der Hirnaktivität und / oder aus Berichten dieser Person über Vorgänge in ihrer Innenwelt.

Schlüsse aus dem Verhalten sind aber stets fragwürdig, weil Gehirn und Psyche komplexe Gebilde sind und ein- und dasselbe Verhalten in aller Regel vielen mentalen und physischen Prozessen geschuldet sein kann. Berichte des Betroffenen über eigenes Erleben sind ebenfalls mit Vorsicht zu genießen, denn niemand, kein Mensch weiß mit Sicherheit, wie seine Gedanken, Gefühle, Stimmungen etc. zustande gekommen sind und welchen Einfluss das bewusste Erleben auf sein Verhalten hatte.

Dieser Aufsatz wird sich mit Studien auseinandersetzen, die sich mit den Quellgründen jener Irrtümer beschäftigen, die für mutmaßlich psychisch Kranke angeblich kennzeichnend sein sollen.

Die „Nullhypothese“ lautet, dass den Irrtümern der so genannten psychisch Kranken dieselben Prozesse zugrunde liegen, auf denen auch die Denkfehler der so genannten psychisch Gesunden beruhen. Die Suche gilt also empirischen Untersuchungen, die diese „Nullhypothese“ falsifizieren oder doch zumindest erschüttern könnten.

Ein Fall Damasios

Vorab sei darauf hingewiesen, dass hier jene Fälle aus der Betrachtung ausgeschlossen werden, bei denen die Störung von Entscheidungsprozessen auf nachgewiesene neurologische oder andere körperliche Erkrankungen zurückzuführen ist.

Ein Beispiel dieser Art, nämlich das Geschick eines Patienten namens Elliot, schildert António Damasio (2001):

Der Tumor war groß und wuchs rasch. Als er diagnostiziert wurde, hatte er die Größe einer kleinen Apfelsine. Es handelte sich um ein Meningiom, das seinen Namen dem Umstand verdankt, dass es sich aus den Meningen entwickelt, den Häuten, die das Gehirn umhüllen.“

Der Eingriff wurde von einem ausgezeichneten medizinischen Team vorgenommen und der Tumor entfernt. Wie meist in solchen Fällen musste auch das Gewebe des Stirnlappens, das von dem Tumor in Mitleidenschaft gezogen worden war, entfernt werden. Die Operation war in jeder Hinsicht ein Erfolg, und insoweit solche Tumore in der Regel nicht wiederkehren, waren die Aussichten ausgezeichnet. Als weniger glücklich erwies sich indessen Elliots Persönlichkeitswandel.“

Elliot erhielt schließlich eine Rente. Ich erklärte, dass seine Störungen tatsächlich durch eine neurologische Erkrankung verursacht worden seien. Zwar war er körperlich gesund und in den meisten seiner geistigen Fertigkeiten unbeeinträchtigt, aber seine Fähigkeit, Entscheidungen zu treffen und die nächsten Stunden zu planen – von Monaten und Jahren ganz zu schweigen -, war empfindlich gestört. Diese Veränderungen waren in keiner Weise mit den kleinen Trübungen unserer Urteilsfähigkeit zu vergleichen, die uns alle von Zeit zu Zeit heimsuchen. Auch normale und intelligente Individuen mit vergleichbarem Bildungshintergrund treffen fehlerhafte und unzulängliche Entscheidungen, aber nicht mit so durchgängig verhängnisvollen Konsequenzen. Elliots Persönlichkeitsveränderung war tiefgreifend und ließ auf eine Erkrankung schließen. Auch war dieser Wandlung keine entsprechende Charakterschwäche vorausgegangen, und ganz gewiss führte der Patient sie nicht absichtlich herbei; ihre primäre Ursache war einfach die Schädigung eines bestimmten Gehirnabschnitts.“

Damasios Schlussfolgerung ist nicht zwingend.

Einerseits: Die Prozesse in den mikroskopischen neuronalen Netzwerken, die menschlichen Entscheidungen zugrunde liegen, sind erstens noch unbekannt und zweitens können sie mit den gegenwärtigen Instrumenten auch nicht erforscht werden. Wenn Elliots Verhalten beispielsweise eine Simulation zum Zwecke des Rentenbetrugs gewesen wäre, so hätte man ihm dies nicht mit objektiven Verfahren zweifelsfrei nachweisen können.

Andererseits lassen sich der Literatur keine vernünftigen Einwände entnehmen, die gegen Damasios Diagnose sprechen könnten. Es lässt sich beim Stand der Erkenntnis generell nicht bezweifeln, dass manche Irrtümer auf Schädigungen des Nervensystems beruhen können.

Doch diese Fälle sind, wie bereits hervorgehoben, nicht Gegenstand der folgenden Betrachtung. Hier geht es um Irrtümer von Menschen, die als „psychisch krank“ gelten; und dies bedeutet, dass Schädigungen ihres Nervensystems von der Psychiatrie zwar vermutet, aber nicht nachgewiesen werden können.

Studien an Patienten wie Elliot mögen einen heuristischen Wert besitzen. Da die Hirnschäden bei ihnen aber nicht experimentell geplant wurden und auch nicht in weiteren Studien repliziert werden können, lassen sich die jeweiligen, an Individuen erhobenen Befunde nicht verallgemeinern.

Methodisches

Ein halbwegs ideales Experiment zur Klärung der Frage, ob eine bestimmte Störung von Entscheidungsprozessen einer bestimmten „psychischen Krankheit“ zugrunde liegt, also allein oder in Tateinheit mit anderen Faktoren diese Krankheit verursacht, hätte wie folgt auszusehen:

  1. Man zieht eine ausreichend große und daher repräsentative Stichprobe zufällig aus der Grundgesamtheit, über die man eine Aussage machen möchte, also in diesem Falle aus der Allgemeinbevölkerung.
  2. Man testet diese Stichprobe, um festzustellen, ob bei diesen Personen eine vorher exakt definierte Dysregulation eines Entscheidungsprozesses vorliegt.
  3. Man untersucht über mehrere Jahre regelmäßig den „psychischen Gesundheitszustand“ der Versuchspersonen mit einem reliablen und validen Messinstrument hinsichtlich des Vorliegens der interessierenden „psychischen Störung“.
  4. Man untersucht mit geeigneten statistischen Verfahren die Enge des Zusammenhangs zwischen der Dysregulation bzw. Störungsfreiheit des in Rede stehenden Entscheidungsprozesses und der entsprechenden „psychischen Krankheit“.
  5. Besonders interessieren hier natürlich erstens jene Fälle, bei denen die Dysregulation des Entscheidungsprozesses vor dem ersten Auftreten der „Krankheit“ festgestellt wurde und zweitens jene Fälle, bei denen die Krankheit auftrat, obwohl zuvor keine Besonderheit des Entscheidungsprozesses identifiziert werden konnte.
  6. Wesentlich ist hier, dass jede Versuchsperson dieselbe Chance hat, in die Stichprobe aufgenommen zu werden. Sie wurde nach dem Zufallsprinzip aus der interessierenden Population ausgewählt.

Untersuchungspläne, die von diesem Modell abweichen, kann man im strengen Sinne nicht also experimentell bezeichnen. Es handelt sich bei Untersuchungen mit davon abweichendem Design um Quasi-Experimente, deren Validität umso stärker bedroht ist, je bedeutsamer die Abweichungen sind (Cook & Campbell 1979).

Es versteht sich von selbst, dass eine derartige „ideale“ Untersuchung aus pragmatischen und ethischen Gründen in der Regel nicht realisiert werden kann. Salopp und verkürzt formuliert: Erstens ist sie zu teuer und zweitens müsste man alle in die Stichprobe aufgenommenen Personen zwingen können, an der Untersuchung teilzunehmen.

Es ist also legitim, weniger anspruchsvolle Studien durchzuführen. Man muss sich dabei aber bewusst bleiben, dass die Aussagekraft solcher Quasi-Experimente eingeschränkt ist. Kleinere Abweichungen vom idealen Design kann man u. U. vernachlässigen. Allein, das hiesige Forschungsfeld ist nicht durch kleinere Abweichungen gekennzeichnet, sondern durch gravierende.

Schizophrenie

Das Experiment von Cattapan-Ludewig

Katja Cattapan-Ludewig und Mitarbeiter untersuchten Dysregulationen im Entscheidungsprozessen bei Menschen mit einer ersten schizophrenen Episode (Cattapan-Ludewig et al 2008). Die Versuchspersonen waren 32 „first-episode“ bzw. schizophreniforme (F20.8) Patienten, die mit dreißig „gesunden“ Kontroll-Personen verglichen wurden.

Vorweg sei betont: Etwaige Unterschiede zwischen den „gesunden“ und den „kranken“ Versuchspersonen können nur dann als Hinweise darauf gedeutet werden, dass Merkmale des Entscheidungsprozesses Ursache einer Schizophrenie sind, wenn sich die beiden Gruppen nur hinsichtlich der Diagnose, nicht aber systematisch bezüglich anderer Merkmale unterschieden. U. a. aus diesem Grunde entschied sich das Forscherteam für Versuchspersonen, die am Beginn ihrer „Erkrankung“ standen. Denn die Medikamente, die „Schizophrene“ im weiteren Verlauf oftmals kontinuierlich einnehmen, können auch kognitive Prozesse beeinträchtigen; dies könnte also zu einem relevanten Unterschied zwischen der Versuchs- und der Kontrollgruppe führen. Es wäre allerdings auch denkbar, dass sich die „Gesunden“ von den „Kranken“ zudem hinsichtlich der Art und des Ausmaßes von nicht ärztlich verordnetem Drogenkonsum unterscheiden. Der Gefahr einer Verzerrung dieser Art kann durch die Entscheidung für First-Episode- bzw. schizophreniforme Patienten natürlich nicht vorgebeugt werden. Daher war Drogenkonsum ein Ausschlussgrund für die Teilnahme am Experiment in beiden Gruppen.

Die Kontrollgruppe bestand aus Mitgliedern des Klinikpersonals bzw. aus Menschen, die sich auf entsprechende Anzeigen in lokalen Medien gemeldet hatten. Die beiden Gruppen wurden hinsichtlich ihres Geschlechts und ihres Alters aufeinander abgestimmt.

Die Ausschlusskriterien für die Schizophrenie-Gruppe waren: Drogenabhängigkeit, gravierende medizinische Erkrankungen, geistige Behinderung, Kopfverletzungen und andere psychiatrische „Erkrankungen“.

Zur Kontrollgruppe wurden Menschen mit einer Vorgeschichte „psychischer Erkrankungen“ und psychopharmakologischer Behandlung, Drogenabhängigkeit, gravierenden medizinischer Erkrankungen, geistiger Behinderung, Kopfverletzungen und psychotisch gestörten Verwandten ersten Grades nicht zugelassen.

Es finden sich in diesem Forschungsbericht keine Angaben darüber, mit welchen Methoden das Vorliegen bzw. Fehlen der Ausschlusskriterien erhoben wurde.

Die psychopathologischen Symptome wurden mit der PANSS (Positive and Negative Syndrome Scale) ermittelt.8

Vierzehn der 32 Schizophrenie-Versuchspersonen hatten bisher noch keine Medikamente erhalten, der Rest war für einen Zeitraum von weniger als zwei Monaten mit Neuroleptika behandelt worden.

Die Aufgabe dieses Experiments bestand in der „two-choice prediction task“. Die Versuchspersonen mussten vorhersagen, auf welcher Seite eines Monitors das Bild eines Autos auftauchen würde. Das Fahrzeug wurde nach der Entscheidung der Versuchsperson für eine Seite für 250 Millisekunden gezeigt. Sofort nach der Präsentation des Fahrzeugs begann ein neuer Durchgang des Experiments. Die Versuchspersonen erhielten keine Informationen über die Sequenz der Präsentationen; es wurde ihnen also nicht mitgeteilt, ob die Fahrzeuge zufällig oder in einer bestimmten Reihenfolge auf der einen oder anderen Seite des Bildschirms erscheinen würden. Sie wussten nicht, dass der Ort der jeweils gezeigten Autos auf der Entscheidung der Versuchsperson basierte, das heißt, dass sie bei 64 von 128 Durchgängen den Ort des Autos „richtig“ vorhersagten.

Vorab: Es ergaben sich keine statistisch signifikanten Unterschiede der Leistung im Test zwischen den „Schizophrenen“ mit und ohne Medikation. Dies bedeutet aber keineswegs, dass sie in der Population nicht existieren, sondern nur, dass sie sich in dieser kleinen Stichprobe (14 nicht medikamentös behandelte, verglichen mit 18 medikamentös behandelten Patienten) nicht nachweisen ließen.

Verglichen mit den „gesunden“ zeigten die „schizophrenen“ Versuchspersonen häufiger sowohl hochgradig vorhersagbare als auch hochgradig nicht vorhersagbare Abfolgen von Entscheidungen. Im Durchschnitt jedoch waren die Wahl-Sequenzen der „Schizophrenen“ besser vorhersagbar als die der „Gesunden“. Die vorhergehende Reaktion sagte die nächste bei „Schizophrenen“ besser voraus als bei den Mitgliedern der Kontrollgruppe. Eine Wechselstrategie (recht – links bzw. links – rechts) wurde von den „Schizophrenen“ häufiger gezeigt als von den „Gesunden“.

Die Autoren schreiben:

Das Schizophrenie-Muster der Periodizität von fixen und zufälligen Wahlsequenzen kann am besten als Koexistenz von hoch vorhersagbaren und hoch nicht vorhersagbaren Sequenzen (Dysregulation) innerhalb des Reservoirs von Verhaltensmustern bei einem schizophrenen Patienten erfasst werden. Obwohl gesunde Personen ihre verschiedenen Strategien bei der Meisterung dieses Tests hauptsächlich aus den vorhergegangenen entwickeln (Übergänge), beharren schizophrene Patienten für lange Zeit auf Strategien, die sie gewählt haben, und wechseln dann abrupt von der alten zu einer neuen Strategie (Cattapan-Ludewig et al. 2008).“

Das „schizophrene“ Muster der Entscheidungen ist also durch die Koexistenz hochgradig vorhersagbarer und nicht vorhersagbarer Sequenzen gekennzeichnet. Verglichen mit den „gesunden“ Versuchspersonen, neigen die „Schizophrenen“ viel länger dazu, an den einmal gewählten Strategien festzuhalten und sie dann schlagartig zu verändern.

Es handelt sich hier allerdings nicht um eine randomisierte Studie, bei der die Teilnehmer zufällig aus der Grundgesamtheit ausgewählt wurden. Daher lässt sich der Verdacht nicht von der Hand weisen, dass sich die beiden Gruppen hinsichtlich eines nicht erfassten Merkmals unterschieden, das die gefundenen Unterschiede ursächlich hervorgebracht hat, ohne zum „Syndrom“ der „Schizophrenie“ zu gehören.

Der Versuchsplan dieses Experiments erlaubt auch keine Aussage darüber, ob die beschriebenen Besonderheiten (Dysregulationen) des Entscheidungsprozesses ursächlich auf Hirnstörungen oder andere pathologische Prozesse bzw. Strukturen zurückzuführen sind oder ob sie eine Anpassung der Hirnfunktionen oder der „Psyche“ an einen wie auch immer verursachten „schizophrenen“ Lebensstil darstellen.

Dass sie bereits in einer frühen Phase dieses Phänomens, also der so genannten Schizophrenie auftreten, bedeutet ja nicht, dass sie schon zuvor bestanden und in irgendeiner Weise zum Ursachenbündel der so genannten Schizophrenie zählen.

Es stellt sich natürlich die Frage, ob dieses Experiment, dessen Daten an einer verhältnismäßig kleinen Stichprobe gewonnen wurden, auch repliziert werden konnte. Dies scheint nicht der Fall zu sein.

Halten wir als erste Annäherung an ein Fazit zu diesem Beitrags fest: Vorausgesetzt wird, dass sich die Studie von Cattapan-Ludewig als tragfähig erweisen sollte. In diesem Fall wissen wir nur, dass sich einige Aspekte des Entscheidungsprozesses bei Menschen mit First-Episode-Schizophrenie bzw. schizophreniformer Störung von denen „normaler“ Menschen in einer bestimmten Form von Experimenten (die auf der „two-choice prediction task“ beruhen), statistisch signifikant unterscheiden.

Wir wissen nicht, welche Rolle diese Unterschiede im Rahmen des Phänomens der Schizophrenie spielen. Es könnte sich um medizinische Zeichen handeln, die zum Ursachenbündel dieser Störung gehören und einige oder gar alle Symptome dieser mutmaßlichen Erkrankung hervorbringen. Es könnte sich aber auch um Anpassungen des Gehirns bzw. der Psyche an einen schizophrenen Lebensstil handeln, der anderen Ursachen entspringt oder gar auf einer freien Entscheidung des Individuums beruht.

Die Autoren versuchen, ihre experimentellen Befunde in eine klinische Sprache zu übersetzen; sie schreiben:

Klinisch betrachtet, könnte man dieses Muster als repetitives Verhalten und repetitive Ideen und als Verringerung der Spannweite alternativer Strategien beschreiben.“

Es könnte durchaus sein, dass Menschen zu Beginn einer „Schizophrenie“ Experimenten der beschriebenen Art ein geringeres Interesse entgegenbringen als Beschäftigte einer Klinik oder Freiwillige, die auf einschlägige Anzeigen antworten. Dieses geringere Interesse könnte durchaus zur Erklärung repetitiven Verhaltens und einer verringerten Spannweite alternativer Strategien beitragen. Die „Schizophrenen“, so lautet diese Erklärung, nehmen die Sache nicht so furchtbar ernst, wohingegen sich die Mitglieder der Kontrollgruppe bemühen, sich durch ein besonders rational erscheinendes Entscheidungsverhalten von den Irren abzugrenzen (eventuell motiviert durch den Wunsch, die Erwartungen der Versuchsleitung zu erfüllen).

Es stellt sich also die Frage nach der externen Validität derartiger Studien. Inwiefern lassen sich so gewonnene Erkenntnisse zu Verhaltensmustern im Experiment auf das „reale Leben“ übertragen? Es mag sein, dass den „Schizophrenen“ andere Aufgaben stärker interessieren, mit der Folge, dass dort sein Verhalten variantenreicher und der Spielraum der von ihm genutzten alternativen Strategien größer ist.

Auf solche Gedanken wird man allerdings nicht kommen, wenn man sich von der Vorstellung leiten lässt, der „Schizophrene“ sei ein Kranker, dessen Verhalten im geschilderten Experiment Ausdruck einer (ererbten oder erworbenen) Hirnschädigung sei.

Angesichts des Versuchsplans und seiner methodischen Schwächen zwingen uns die Daten des vorliegenden Experiments jedenfalls nicht, die Hypothese zu verwerfen, das Verhalten der so genannten Schizophrenen beruhe im Allgemeinen auf denselben Entscheidungsstrategien wie das Verhalten der so genannten Gesunden bzw. Normalen.

Die Daten dieses Experiments sind durchaus mit der Hypothese verträglich, dass sich die Betroffenen zur Übernahme der Rolle des Schizophrenen entschieden hätten wie andere Menschen zur Übernahme der Rolle des Briefmarkensammlers oder Taubenzüchters. Die „Defekte“ des Entscheidungsprozesses im Experiment wären dann die Folge der vorhergehenden Entscheidung zur Rollenübernahme, so wie ja auch die Entscheidung zur Übernahme der Rolle des Briefmarkensammlers oder Taubenzüchters mit Anpassungen im kognitiven, affektiven und physiologischen Bereich einhergehen mag.

In seinem Buch „Choice Theory“ (Glasser 1999) bringt der amerikanische Psychiater William Glasser diesen Gedanken am Beispiel der „Depression“ in bemerkenswert einfachen Worten zum Ausdruck:

Als Todd sich entschied, deprimiert zu sein9 … wählte er ein totales Verhalten, für das sich zu deprimieren die normale Gefühlskomponente ist. Welche Gehirnchemie auch immer mit diesem Gefühl verbunden sein mag, sie ist ebenfalls normal. Die Gehirnchemie verursacht sein sich Deprimieren ebenso wenig wie Schwitzen das Laufen. Es ist die Entscheidung, sich zu deprimieren oder zu rennen, die beides verursacht…
Wenn die Neurophysiologen zeigen, dass sich die Gehirnaktivität einer sich deprimierenden Person von der einer glücklichen oder derselben Person, wenn sie glücklich ist, unterscheidet, dann sollten sie erwarten, was sie entdecken.
Doch in diesem Fall – man hat sich entschieden, sich zu deprimieren – ist nicht nur die Physiologie unterschiedlich, sondern auch das Denken, Handeln und die Gefühle sind unterschiedlich (Glasser 1999: Kindle Edition Pos. 1341).

Mit anderen Worten: Das obige Experiment beweist keineswegs, dass der gezeigte Entscheidungsprozess Ausdruck einer Gehirnerkrankung oder Folge von dysfunktionalen Lernprozessen ist; er könnte ebenso die Konsequenz der Entscheidung sein, sich, warum auch immer, schizophren zu verhalten. Die unausweichliche Folge einer Entscheidung zur Schizophrenie wären Veränderungen der Hirnprozesse, des Denkens, des Handelns und der Gefühle. Kein Wunder also, wenn die Konsequenzen einer solchen Entscheidung auch in Experimenten festgestellt werden können.

Die Autoren berufen sich darauf, dass sich ähnliche Ergebnisse in Studien einer Arbeitsgruppe um Martin P. Paulus gezeigt hätten, die allerdings keine First-Episode-Fälle, sondern längerfristig und medikamentös behandelte „schizophren Erkrankte“ untersuchten.

Bevor wir uns einer dieser Arbeiten zuwenden, möchte ich zunächst einen Blick auf einen Übersichtsartikel zum Stand der einschlägigen Forschung (Paulus 2005) werfen; in diesem trägt Paulus einen aufschlussreichen Gedanken vor:

… obwohl die traditionelle Entscheidungspsychologie versucht hat, generische10 Regeln und Gesetze der Entscheidungsfindung zu entdecken, gibt es ausgedehnte verhaltensmäßige Hinweise darauf, das Entscheidungsfindung hochgradig kontextabhängig ist, in dem Ausmaß, dass manche Forscher in Frage gestellt haben, ob es überhaupt so etwas gibt wie eine generische Entscheidungsfindungssituation.“

Wenden wir diesen Gedanken auf die Fragestellung des oben geschilderten Experiments an: Wenn Entscheidungen hochgradig vom Kontext und der Aufgabensituation abhängen, dann darf man wohl annehmen, dass ein Experiment der geschilderten Art für einen als „schizophren“ diagnostizierten Menschen in einem anderen Kontext steht und eine andere Aufgabensituation darstellt als für eine so genannte gesunde Versuchsperson. Und dann wären allein schon deswegen die referierten Ergebnisse nicht weiter erstaunlich.

Ein weiterer Gesichtspunkt gibt zu denken:

… negative Affekte … können die Suche nach Verhaltensalternativen einschränken (Paulus 2005).“

Rufen wir uns noch einmal die Aussage von Cattapan-Ludewig und Mitarbeitern ins Gedächtnis:

Klinisch betrachtet, könnte man dieses Muster als repetitives Verhalten und repetitive Ideen und als Verringerung der Spannweite alternativer Strategien beschreiben.“

Dieser tendenzielle Unterschied zwischen dem Verhalten der „kranken“ und der „gesunden“ Versuchspersonen, auf den diese Übersetzung ins Klinische anspielt, könnte durchaus auch durch negativere Affekte bei den „schizophrenen“ Versuchspersonen hervorgerufen worden sein. Unglücklicherweise wurde nicht versucht, die den Versuch begleitenden Affekte zu erfassen.

Es gibt jedoch gute Gründe anzunehmen, dass bei Menschen mit einer ersten Episode einer „schizophrenen Erkrankung“ eher negative Affekte dominieren als bei den Angestellten eines Krankenhauses oder Leuten, die sich freiwillig zur Versuchsteilnahme aufgrund von Zeitungsannoncen melden.

Und so wiederhole ich noch einmal mit Nachdruck: Selbst wenn sich das geschilderte Experiment hinsichtlich der beobachteten Reiz-Reaktions-Beziehungen als replizierbar erweisen, wenn es also aus behavioristischer Sicht wasserdicht sein sollte, so wären neben der von Cattapan-Ludewig und Mitarbeitern gegebenen Interpretation auch andere Erklärungen der Differenzen zwischen den Gruppen mit den Daten verträglich.

Nach einem kurzen Referat ähnlicher Forschungen gelangen Cattapan-Ludewig und Mitarbeiter zu folgendem Fazit:

Zusammengenommen unterstützen diese Befunde den Begriff, dass dysreguliertes Entscheidungsfindungsverhalten ein möglicher endophänotypischer11 Marker der Schizophrenie sein könnte.“

Die Vorstellung, dass Entscheidungsverhalten ein endophänotypischer Marker der „Schizophrenie“ sein könnte, muss beim Stand der Erkenntnis, um es vornehm auszudrücken, wohl als verfrüht betrachtet werden. Man könnte dieses Verhalten durchaus im Einklang mit den vorliegenden Daten als integralen Bestandteil eines selbst gewählten Lebensstils betrachten.

Man mag einwenden, dass niemand freiwillig so etwas Schreckliches wählen würde wie eine „Schizophrenie“. Dies klingt plausibel. Dennoch sollte man bedenken: Manch einer hat es in der Achterbahn schon mit der Angst zu tun bekommen und hätte dann lieber festen Grund unter den Füßen gehabt! Trotzdem war er selbst es, der die Karte kaufte und sich in den Wagen setzte.

Das Experiment von Martin P. Paulus

Martin P. Paulus und Mitarbeiter testeten 91 schizophrene Patienten mit der bereits beschriebenen „two-choice prediction task“ (Paulus 2001). Eine Kontrollgruppe mit „gesunden“ Versuchspersonen fehlte. Deswegen ist natürlich auch keine Aussage, die durch die Daten des Experiments gestützt wäre, darüber möglich, ob es sich bei den Ergebnissen um Besonderheiten „schizophrener“ Menschen oder aber um allgemein menschliche Merkmale handelt. 58 der 91 Versuchspersonen wiederholten 40 Tage später den Test, um die Stabilität der gemessenen Befunde zu überprüfen.

Die Autoren wollten zwei Hypothesen testen:

  1. Die Faktoren, die das Verhalten der Versuchspersonen charakterisieren, sind im Zeitverlauf stabil.
  2. Die Leistungen in den Tests können nicht mit soziodemographischen Daten oder klinischen „Symptomen“ vorhergesagt werden.

Die Versuchspersonen hatten eine Diagnose der Schizophrenie nach DSM-IV. Die Reliabilität und Validität dieses Instruments sind unzulänglich.12 Selbst wenn man also „psychische Krankheiten“ für existent hält, muss man damit rechnen, dass eine, mangels einschlägiger Validitätskoeffizienten, unkalkulierbare Zahl von Probanden falsch klassifiziert wurde. Schon allein deswegen verbietet es sich, die Ergebnisse dieses Experiments als eine Beschreibung des Entscheidungsverhaltens „schizophrener“ Menschen zu deuten.

Der Versuchsablauf wird wie folgt geschildert:

Jede Versuchsperson erhält die Versuchsanweisung auf dem Computer-Bildschirm. Es wird in der Mitte des Monitors kurz ein Haus mit einer Person auf der linken oder rechten Seite gezeigt. Der Versuchsperson wird mitgeteilt, dass ein Auto auf der linken oder rechten Seite erscheinen wird. Die Aufgabe der Versuchsperson besteht darin, dass sie vorhersagen soll, wo das Auto erscheinen wird. Der Versuchsperson wird gesagt, dass das Auto kurz (300 msec) erscheinen wird, nachdem sie ihre Reaktion13 gezeigt hat. Die Versuchsperson benutzt die linke oder die rechte Maustaste, um zu entscheiden, wo sie glaubt, dass das Auto auftauchen wird. Ein neuer Versuch beginnt unmittelbar nach der Präsentation des Autos. Der Versuchsperson wird keine Information über die Abfolge der Reizpräsentationen gegeben. Die „two-choice prediction task“ besteht aus 128 Versuchen; die Präsentation des Autos fußt auf der Reaktion der Versuchsperson. Das heißt, dass die Versuchsperson den Ort des Autos bei 64 Versuchen „richtig“ vorhersagt. Die Sequenz der „richtigen“ Vorhersagen ist zufällig. Die Basismaße bestehen aus den Reaktionen der Versuchsperson, der Präsentation des Autos, und der Latenz der Reaktion, d. h. der Zeit zwischen dem Beginn des Versuchs und dem Tastendruck.“

Es zeigte sich:

  1. Das Entscheidungsverhalten der Versuchspersonen tendierte zur Dysregulation (Wechsel zwischen hochgradig vorhersagbaren und hochgradig nicht vorhersagbaren Reaktions-Sequenzen). Sie neigten dazu, ihre Vorhersage beizubehalten, wenn die vorhergehende richtig und zu verändern, wenn die vorhergehende falsch war (win-stay, lose-shift). Sie tendierten ebenso dazu, die linke Taste zu bevorzugen und unabhängig vom vorhergehenden Ergebnis die Taste zu wechseln (Reaktionsbeharrlichkeit).
  2. Zwei der Maße (Dysregulation und win – stay, lose – shift) erweisen sich im zweiten Test als reliabel.
  3. Weder soziodemographische Variablen, noch Symptome waren in der Lage, das Verhalten im Test vorherzusagen.
  4. Auch die Medikamentation hatte keinen nachweisbaren Einfluss auf die Leistung bei der Aufgabenbewältigung. Dies bedeutet, dass die Patienten, die zur Zeit des Tests Neuroleptika erhielten, nicht schlechter abschnitten – aber auch nicht besser.

Der Grad der Dysregulation quantifiziert das Ausmaß des Umschaltens zwischen unterschiedlichen Strategien während des Experiments, der „win-stay/lose-shift“-Faktor beziffert das Ausmaß, indem die augenblickliche Wahl vom vorhergehenden Ergebnis abhängt und der Faktor der Reaktionsbeharrlichkeit misst das Ausmaß, in dem die Versuchspersonen ihre Entscheidungen repetitiv, ergebnisunabhängig gestalten.

Es handelt sich hier also Strategien, die unterschiedlichen Regeln unterliegen und die Versuchspersonen des Experiments neigten zur Nichtuniformität ihrer Reaktionsmuster im Zeitverlauf.

Die Autoren schreiben:

Eine unregelmäßige Spaltung dieser Prozesse mag zu einer zeitweiligen Verringerung des Strategiewechsels oder ergebnisabhängiger Reaktionsauswahl führen. Diese Spaltung kann in hochgradig vorhersagbaren Reaktionssequenzen resultieren. Kontrastierend dazu kann eine unregelmäßige Steigerung des Strategiewechsels oder der ergebnisabhängigen Reaktionswahl zu einer Steigerung hochgradig unvorhersagbarer Antwortsequenzen führen, aufgrund der Tatsache, dass die Präsentation des Autos zufällig ist. Deswegen kann ein gespaltener Wettbewerb zwischen diesen Regelwerken zu einer oszillierenden Dysregulation zwischen hochgradig vorhersagbaren und hochgradig unvorhersagbaren Unter-Sequenzen innerhalb eines Tests führen.

Die Autoren sehen in den Ergebnissen ihres Experiments eine weitere Bestätigung dafür, dass die temporale Architektur des Verhaltens von „Schizophrenen“ dysreguliert sei. Die Studie erlaube, neue Hypothesen zu den fundamentalen Hirnstörungen zu generieren, die der Schizophrenie zugrunde lägen.

Bei nüchterner Betrachtung dieses Experiments zeigt sich aus meiner Sicht aber Folgendes:

  1. Mangels Kontrollgruppe kann auf Basis der Ergebnisse des Experiments nicht gesagt werden, ob die gefundenen Merkmale der Entscheidungsprozesse bei den Versuchspersonen Besonderheiten einer Teilgruppe (hier der „Schizophrenen“), allgemeine Populationsmerkmale oder Besonderheiten einer zusammengewürfelten Gruppe von Personen mit ansonsten (also außer der Diagnose) unbekannten gemeinsamen Merkmalen sind.
  2. Selbst wenn die Merkmale Besonderheiten einer Teilgruppe wären, kann aufgrund der Daten des Experiments nicht gesagt werden, um welche Teilgruppe es sich handelt, da die Rekrutierung der Versuchspersonen auf Grundlage eines nicht reliablen und validen Verfahrens erfolgte.
  3. Selbst wenn die im Experiment identifizierten Merkmale des Entscheidungsprozesses Besonderheiten von Menschen mit „Schizophrenie“ sein sollten, könnte aufgrund der Ergebnisse des Experiments, seines Versuchsplans und seiner methodischen Schwächen, nicht entschieden werden, ob sie durch eine Störung von Gehirn- oder sonstigen pathologischen Prozessen verursacht wurden oder ob umgekehrt die Entscheidung, die Rolle des Schizophrenen zu spielen, die entsprechenden Merkmale des Verhaltens ebenso wie die damit verbundenen „dysfunktionalen“ Hirnprozesse kausal hervorgebracht hat.

Es ist bemerkenswert, dass die aktuellen „Symptome“ der so genannten Schizophrenie nicht in der Lage waren, die Leistung bei der Aufgabenbewältigung vorherzusagen.

Die Autoren schreiben hierzu:

… die temporale Architektur der Reaktionen ist beides: abnormal und sie scheint gleichermaßen ‚fundamental‘ zu sein, d. h. unabhängig von zustandsbezogenen Faktoren.“

Dies bedeutet im Umkehrschluss aber auch, dass die Symptome, also die zustandsbezogenen Faktoren, nicht durch die im Test ermittelten Dysfunktionen verursacht werden. Da stellt sich natürlich die Frage, in welcher Beziehung diese fundamentale Störung eigentlich zum „Krankheitsbild“ der „Schizophrenie“ stehen soll.

Die Merkmale, die zur Diagnose der Schizophrenie in der ICD und im DSM herangezogen werden, beziehen sich ja auf die so genannte Symptomatik; irgendwelche Hirnprozesse oder andere ursächliche körperliche Vorgänge sind schließlich unbekannt. Auf welcher Grundlage wird dann die Dysregulation des Verhaltens in Entscheidungssituationen mit dem so genannten Syndrom in Verbindung gebracht? Eine Korrelation zwischen den Merkmalen des Entscheidungsprozesses und den die „Krankheit“ definierenden Symptomen lässt sich ja nicht nachweisen.

Plausibilität

Man mag die These, dass die Schizophrenie eine Hirnstörung sei und dass diese Hirnstörung Dysregulationen der Entscheidung und des Verhaltens hervorbringt, für plausibel halten. Allein, Plausibilität ist allenfalls ein untergeordneter Maßstab wissenschaftlichen Denkens. Wenn Wissenschaftler nicht immer schon das, was als plausibel galt, in Zweifel gezogen hätten, dann gäbe es keinen wissenschaftlichen Fortschritt, dann glaubten wir noch immer, dass sich die Sonne um die Erde drehe.

Psychiatrische Studien setzen im Allgemeinen bereits voraus, was keineswegs bewiesen ist, dass es nämlich „psychische Krankheiten“ im medizinischen Sinn tatsächlich gibt. „Psychische Krankheiten“ sind Konstrukte, die nur dann den Anspruch der Wissenschaftlichkeit“ erheben können, wenn man sie nachweislich reliabel und valide messen kann. Dies ist aber zur Zeit nicht der Fall. Daher ist es schwierig, wenn nicht unmöglich, Studien wie die hier geschilderten sinnvoll zu interpretieren.

Diese Schwierigkeit würde im Übrigen auch nicht durch Studien überwunden, die auf neurophysiologische Korrelate der mutmaßlichen Besonderheiten des Entscheidungsprozesses bei den so genannten Schizophrenen hindeuten.

Teil 2

Abhängigkeitserkrankungen

Ein Gedankenexperiment

Paul ist Alkoholiker. Er behauptet, er habe schon oft versucht, mit dem Trinken aufzuhören, aber ein innerer Drang zwinge ihn dazu. Er könne der Flasche nicht widerstehen. Früher oder später gebe er auf, Widerstand zu leisten, wie unter Zwang, machtlos. Wir fragen ihn, wie lange er es ohne zu trinken aushalten könne. Höchstens ein paar Stunden, sagt er. Nicht länger? Allenfalls einen Tag, räumt er ein.

Wir schlagen ihm ein Experiment vor, und er lässt sich auf folgenden Handel ein. Ihm winken tausend Taler. Das ist eine gewaltige Summe für einen Mann wie Paul, und auch andere würden ihre Großmutter um diesen Preis verkaufen. Alles, was er zu tun hat, kann kurz und ohne Umschweife verständlich erklärt werden: Wir sperren ihn in ein Zimmer ein. Dieses Zimmer ist mit allem ausgerüstet, was er benötigt, um 24 Stunden lang ein angenehmes Leben zu führen. Auch eine Flasche mit Hochprozentigem befindet sich auf einem Regal an der Wand. Sonst gibt es keine alkoholischen Getränke im Raum. Wenn er sie nicht anrührt, wenn er seinem angeblich unbezwinglichen Drang zum Trinken widersteht, erhält er die tausend Taler.

Wie wird dieses Experiment ausgehen? Wie würde es ausgehen, wenn wir die Frist und die Belohnung verdoppeln und verdreifachen. Wie viele Leute von der Sorte Pauls würden als klägliche Alkoholiker scheitern oder ein Vermögen verdienen? Wenn der Alkoholismus tatsächlich auf einem inneren Prozess in der Psyche oder im Nervensystem des Betroffenen beruhen sollte, der sich der Kontrolle entzieht, so müsste das Ergebnis eigentlich klar sein. Kein Alkoholiker ginge als reicher Mann aus dem Experiment hervor.

Wir können das Experiment auch noch etwas kühner gestalten: Nehmen wir einmal an, Paul wirke ein Wunder und es gelänge ihm, trotz seines unwiderstehlichen Dranges zu trinken, das Experiment erfolgreich zu bestehen. Er erhält den Preis und wir bieten ihm eine Fortsetzung des Versuchs unter veränderten Bedingungen an. Er wird in Zukunft mit einen fixen Betrag monatlich versorgt, der ihm ein gutes, müheloses Auskommen sichert – allerdings nur für den Fall, dass er weiterhin abstinent lebt. Sollte er irgendwann einmal bei einer unangekündigten Kontrolle als rückfällig entlarvt werden oder diese verweigern, so erhielte er in Zukunft nicht nur keinen Groschen mehr von uns, sondern er müsste alle bisher erhaltenen Beträge auf Heller und Pfennig zurückzahlen.

Beim Reflektieren dieses Gedankenexperiments dürfte wohl die meisten Gedanken-Experimentatoren der Verdacht beschleichen, dass der so genannte Kontrollverlust eines Alkoholikers nicht mit einer starren Mechanik gleichgesetzt werden kann. Man kann sich vorstellen, dass Paul, vor die Entscheidung zwischen Reichtum und Saufen gestellt, mit sich ringt, und wie dieser innere Kampf ausgeht, steht keineswegs fest. Bekanntlich ist jeder käuflich, es kommt nur auf den Preis an.

Werfen wir zunächst einen Blick auf die empirische Literatur zu den Entscheidungsprozessen bei Süchtigen.

Die Studie von Bechara und Damásio

Anlass zu dieser Studie (Bechara & Damásio 2002) war die Beobachtung einer Übereinstimmung zwischen „Substanzabhängigen“14 und Hirngeschädigten:

Einige substanzabhängige Personen leiden unter einer Beeinträchtigung der Entscheidungsfindung, die jener ähnelt, die man bei neurologischen Patienten mit Läsionen des ventromedialen (VM) präfrontalen Kortexes sieht.“

Dieser Hirnbereich spielt nach gegenwärtigem Kenntnisstand eine Rolle bei der Verarbeitung von Risiko-Situationen, Bedrohungsreizen sowie allgemein bei der Hemmung emotionaler Regungen und bei der Entscheidungsfindung. Es wird zu klären sein, ob die genannte Ähnlichkeit der Beeinträchtigung eine zufällige ist oder auf einer gemeinsamen Ursache, hier also einer Störung im VM-Bereich beruht.

Um den Grundgedanken dieser Studie zu verstehen, ist eine Abschweifung erforderlich: Bechara ist Professor an der Dornsife-Universität im sonnigen Süden Kaliforniens. Zu seinen Kollegen in der psychologischen Abteilung dieser Universität zählen Hanna und António Damásio. Hanna ist die Frau von António. Von diesem stammt die Theorie der somatischen Marker. Diese Theorie besagt, dass alle Erfahrungen des Menschen in einem emotionalen Erfahrungsgedächtnis gespeichert werden. Das Erfahrungsgedächtnis äußert sich durch ein körperliches Signalsystem. Die Signale bezeichnet er als „somatische Marker“. Sie helfen dem Menschen bei der Entscheidungsfindung, indem sie ihn an bisher in vergleichbaren Situationen gesammelte Erfahrungen erinnern.

António Damásio schreibt:

Dem somatischen Marker steht mehr als eine Route zur Verfügung, um wirksam zu werden. Eine verläuft über das Bewusstsein, die andere an diesem vorbei. Egal, ob die Körperzustände real oder stellvertretend (‚als ob‘) sind, das entsprechende neurale Muster kann bewusst gemacht werden und stellt eine Empfindung dar. Doch obwohl an vielen wichtigen Entscheidungen Empfindungen beteiligt sind, kommen offenbar eine Vielzahl alltäglicher Entscheidungen ohne Empfindung aus. Daraus folgt nicht, dass die Bewertung, die normalerweise zu einem Körperzustand führt, nicht stattgefunden hätte oder dass der Körperzustand bzw. sein stellvertretendes Surrogat nicht hervorgerufen worden wäre oder dass der regulatorische dispositionelle Mechanismus, der dem Prozess zugrunde liegt, nicht aktiviert worden wäre. Es ist ganz einfach: Ein Körperzustand mit Signalfunktion oder sein Surrogat kann aktiviert, aber unter Umständen nicht in dem Mittelpunkt der Aufmerksamkeit gerückt werden. Ohne Aufmerksamkeit wird keiner von beiden ins Bewusstsein gelangen, obwohl jeder verdeckt – ohne willkürliche Kontrolle – auf die Mechanismen einwirken kann, die unser Appetenz- (Annäherungs-) oder Aversions- (Vermeidungs-) Verhalten der Welt gegenüber steuern. Nie wird unser Bewusstsein Kenntnis davon haben, dass der unterschwellige Mechanismus aktiviert worden ist. Ferner kann die Aktivierung von Neurotransmitter-Kernen, die ich als Teil der emotionalen Reaktionen beschrieben habe, verdeckt auf kognitive Prozesse einwirken und damit das Denken und Entscheiden beeinflussen (Damásio 1997).“

Die Studie von Bechara und Damásio ist ein Versuch, die Gültigkeit der Theorie der somatischen Marker hinsichtlich der Entscheidungsfindung bei Substanzabhängigen zu testen.

In dieser Studie überprüften wir die Hypothese, dass SDI15, die einen Entscheidungsfindungstest für sie unvorteilhaft bewältigen, ein Defizit bei den somatischen Signalen haben, die ihnen helfen, ihre Entscheidung in eine vorteilhafte Richtung zu lenken.“

Kurz: Unsere Erfahrungen sind mit einem Muster affektiver körperlicher Reaktionen (somatische Marker) verbunden, die im Gedächtnis gespeichert werden. Bei der Entscheidungsfindung äußert sich dieses Gedächtnis für somatische Marker bewusst oder unbewusst und warnt uns im günstigsten Fall vor falschen Entscheidungen. Bei den Substanzabhängigen ist diese „Signalisierung“ jedoch unzulänglich. Darum, so die Autoren, neigen sie womöglich, wie die genannten neurologischen Patienten, zu Entscheidungen, die zwar kurzfristig Vorteile bringen, langfristig aber mit gravierenden Nachteilen verbunden sein können.

Entsprechende Defizite können aber laut Bechara und Damásio auch mit einem dysfunktionalen Mandelkern16 verbunden sein. Daher wird mit entsprechenden Tests geprüft, ob eine derartige Störung bei den jeweiligen Versuchspersonen vorliegt.

Am Rande sei bemerkt, dass sich beim gegenwärtigen Stand der Forschung zur Entscheidungsfindung die relevanten Hirngebiete keineswegs auf die Alternative ventromedialer präfrontaler Kortex oder Mandelkern (Amygdala) einengen lassen. Der ventromediale präfrontale Kortex ist nicht nur mit dem Mandelkern, sondern auch mit dem Hippocampus, ja, mit beinahe jedem Bereich des Gehirns innigst verbunden und niemand, niemand weiß zur Zeit genau, wie all dies bei der Entscheidungsfindung wirklich zusammenhängt (Damásio & Anderson 2003).

Doch dies nur am Rande, fahren wir fort:

Deshalb testeten wir die Hypothese, dass Substanzabhängigkeit mit einer Fehlfunktion der VM-Kortizes assoziiert sein könnte und sagten voraus, dass SDI dasselbe Profil verhaltensmäßiger und physiologischer Beeinträchtigungen zeigen wie VM-Patienten.“

Schauen wir uns zunächst an, was genau eigentlich überprüft werden soll. Warum dies bei dieser Studie so wichtig ist, wird sich später zeigen. Die Prüfung besteht offenbar aus zwei Fragen: Ist die Substanzabhängigkeit mit einer Fehlfunktion der VM-Kortizes verbunden? Anders formuliert: Kann die Nullhypothese verworfen werden, dass die VM-Kortizes bei den Substanzabhängigen genauso funktionieren wie bei den Normalen?

Dies ist mit der Gefahr eines Fehlers erster Art verbunden? Ein Fehler 1. Art liegt vor, wenn die Nullhypothese zurückgewiesen wird, obwohl sie in Wirklichkeit wahr ist. Haben die Substanzabhängigen dasselbe physiologische und behaviorale Profil wie die VM-Patienten. Hier soll die Nullhypothese, dass beide Gruppen sich nicht unterscheiden, also beibehalten werden. In diesem Fall muss man mit einem Fehler zweiter Art rechnen. Man begeht einen Fehler 2. Art, wenn man die Nullhypothese beibehält, obwohl in Wirklichkeit die Alternativhypothese gilt. Dieser Fehler verweist aus methodischen Gründen auf vermintes Gelände.17

46 Substanzabhängige, 49 „Normale“ und 10 VM-Patienten wurden in die Untersuchung einbezogen. Die Kontrollgruppe wurde aus der „Normal Control Subject List of the University of Iowa’s Division of Behavioral Neurology and Cognitive Neuroscience“ ausgewählt. Die Mitglieder dieser Liste wurden durch Anzeigen in lokalen Medien rekrutiert.

Als weitere Auswahlkriterien werden genannt: Abwesenheit mentaler Retardation, Lernbehinderungen, Substanzmissbrauch, systemische Krankheiten mit möglichem Einfluss auf das zentrale Nervensystem. Die Einschätzung basierte auf klinischen Interviews, die vor der Aufnahme in die Kontrollgruppe mit den potenziellen Teilnehmern geführt wurden.

Alle „normalen“ Versuchspersonen wurden für die Teilnahme bezahlt. Die substanzabhängigen Versuchspersonen standen kurz vor dem Abschluss eines Rehabilitationsprogramms. Sie erhielten Geschenkgutscheine.

Die Selektionsbedingungen waren: Erfüllung der DSM-IV-Kriterien für Substanzabhängigkeit, Abwesenheit einer Psychose und kein Vorliegen von Kopfverletzungen oder einer Epilepsie.

Die Patienten mit VM-Läsionen wurden aus der „Patient Registry of the University of Iowa’s Division of Behavioral Neurology and Cognitive Neuroscience“ ausgewählt. Sie waren einer grundlegenden neuropsychologischen und neuroanatomischen Diagnostik unterzogen worden.

Sie wurden folgenden Kriterien entsprechend ausgewählt: Abwesenheit von mentaler Retardation, Lernbehinderungen, psychiatrischen Störungen, Substanzmissbrauch, Vorhandensein einer stabilen und chronischen Schädigung (mindestens drei Monate nach Beginn), mit beidseitiger Beteiligung der VM-Kortizes.

Es fehlt die Angabe, ob und wie sie für die Teilnahme bezahlt wurden.

Durch die beschriebene Art der Auswahl kann natürlich nicht ausgeschlossen werden, dass sich die Versuchspersonen u. U. nicht nur hinsichtlich der interessierenden Merkmale (Substanzabhängigkeit, VM-Läsionen, ausgewählte neurophysiologische und neuroanatomische Variablen), sondern auch systematisch hinsichtlich anderer, nicht erfasster Einflussgrößen unterschieden, die eventuell vorhandene experimentelle Effekte erklären könnten. Gleichermaßen könnten Gemeinsamkeiten zwischen einzelnen Gruppen auf nicht erfasste Merkmale (die nichts mit einer VM-Schädigung zu tun haben) zurückzuführen sein.

Es handelt sich hier also um ein Quasi-Experiment mit bedrohter interner Validität (Cook & Campbell 1979). Um diesen Gedanken verständlich zu machen, sei eine kleine Abschweifung erlaubt. Sie führt uns in ein Reich jenseits von Gut und Böse. Das ideale Experiment zum Test der genannten Hypothesen lässt sich wie folgt charakterisieren: Wir wählen zufällig 200 Personen aus der Bevölkerung aus. Jede Person sollte – theoretisch – die gleiche Chance haben, in die Stichprobe aufgenommen zu werden. Da die in der Hypothese spezifizierten Variablen Substanzabhängigkeit, VM-Läsionen und „Normalität“ sind, schließen wir zunächst jene potenziellen Probanden von der Teilnahme aus, die subtanzabhängig, VM-geschädigt oder sonstwie psychiatrisch diagnostiziert worden sind. Aus dem verbliebenen Rest (sofern dieser nicht zu klein, was aber unwahrscheinlich ist) werden, ebenfalls zufällig, 99 „normale“ Versuchspersonen selektiert. 33 dieser, wiederum zufällig ausgewählten, Versuchspersonen werden nunmehr nach einem vorgegebenen Procedere subtanzabhängig gemacht. Bei 33, erneut zufällig ausgewählten, Versuchspersonen wird nach einem vorgegebenen Procedere eine VM-Läsion erzeugt. Schließlich bleiben, indirekt ebenfalls zufällig ausgewählt, 33 nach wie vor „normale“ Versuchspersonen als Kontrollgruppe übrig. Mit diesen drei Gruppen führen wir unser Experiment durch.

Das Ziel dieser Randomisierung ist es natürlich, bekannte und vor allem unbekannte Störgrößen gleichmäßig auf die Versuchsbedingungen zu verteilen. Stellen wir uns vor, wir wollten einen mutmaßlichen Zusammenhang zwischen der Farbe und dem Gewicht von Murmeln in einer Urne mit 10.000 Murmeln anhand einer Stichprobe der Größe 100 testen.

Das Beste ist es doch sicherlich, die Murmeln der Stichprobe nach dem Zufallsprinzip aus der Urne zu ziehen. Die schlechteste Methode bestünde darin, die 100 Murmeln so auszuwählen bzw. zu sortieren, dass wir beispielsweise mehr überdurchschnittlich schwere blaue als rote Exemplare erhalten.

Wenn unsere Auswahl nicht nach dem Zufallsprinzip erfolgte, aber auch keiner bewussten Strategie der Sortierung unterlag, so wissen wir dennoch nicht, ob die Auswahl eher der besseren als der schlechteren Methode ähnelte oder umgekehrt. Dies wird immer der Fall sein, wenn wir, warum auch immer, nicht die freie Auswahl haben, sondern nehmen müssen, was wir kriegen können, wenn wir also den Selektionsprozess nicht oder nur begrenzt steuern können.

So mögen beispielsweise Versuchspersonen, die sich freiwillig, aufgrund von Anzeigen in lokalen Medien, zur Teilnahme melden, durch, für den Ausgang des Experiments entscheidende, Merkmale gekennzeichnet sein, die sie von den Mitgliedern der jeweiligen Population (Grundgesamtheit) systematisch unterscheiden.

Das ideale Experiment habe ich nicht beschrieben, um das vorliegende Quasi-Experiment ad absurdum zu führen, sondern um einen Orientierungspunkt zur Beurteilung seiner Ergebnisse zu setzen. Dass sich das skizzierte Ideal oft nicht realisieren lässt, kann natürlich nicht bestritten werden. Dass aber die Aussagekraft von Experimenten, die von diesem Ideal abweichen, beschränkt ist, dürfte ebenfalls einleuchten. Dies muss man bei der Interpretation berücksichtigen.

Zurück zum vorliegenden Experiment: Die Aufgabe wird wie folgt charakterisiert: Die Versuchspersonen haben vier Kartenstapel vor sich, nämlich A‘, B‘, C‘ und D‘. Bei zwei Stapeln (A‘ und B‘) ist die Wahl mit einem hohen Geldgewinn verbunden. Allerdings erfolgt zu unvorhersagbaren Zeitpunkten auch eine hohe Geldeinbuße, so dass auf lange Sicht die Wahl von Karten aus diesen Stapeln Nachteile bringt. Bei den beiden anderen Stapeln (C‘ und D‘) verhält es sich umgekehrt. Zwar ist der Geldgewinn kleiner, aber dafür sind auch die Strafen niedriger, so dass die Wahl von Karten aus diesen Stapeln Vorteile bringt.

Außerdem wurde die Diskrepanz zwischen Belohnungen und Bestrafungen im Verlauf des Versuchs immer ungünstiger für die Stapel A‘ und B‘. Bei C‘ und D‘ verhielt es sich wieder anders herum. Hier wurde das Verhältnis im Verlauf des Versuchs günstiger. Das Experiment wurde in 5 Blöcke mit 20 Wahlvorgängen (also 100 Wahlvorgänge insgesamt) unterteilt. Zudem wurde die elektrodermale Aktivität (veraltet: psycho-galvanische Hautreaktion) gemessen.18

Die Messungen erfolgten zu drei Zeitpunkten:

  • Bestrafung: Messung nach der Wahl einer Karte, bei sich unmittelbar an die Belohnung eine Bestrafung anschließt.
  • Antizipation: Messung vor der Wahl einer Karte aus irgendeinem Stapel, während der Zeit, in der die Versuchsperson darüber nachdenkt, welchen Stapel sie wählen soll.
  • Konditionierung mit einem lauten Geräusch: Für eine Teilmenge aus den Gruppen der Substanzabhängigen und der Normalen wurde die elektrodermale Aktivität infolge eines lauten Geräusches gemessen.

Die Auswertung zeigte, dass sich die normalen Versuchspersonen häufiger für die vorteilhaften Stapel entschieden als die substanzabhängigen Probanden, die jedoch besser abschnitten als die hirngeschädigten Patienten. Die normalen Versuchspersonen wählten im Verlauf des Versuchs zunehmend die „guten“ Stapel. In Gegensatz dazu entscheiden sich die VM-Patienten von Block zu Block zunehmend für die „schlechten“ Stapel. Die Entscheidungen der Substanzabhängigen waren im Vergleich zu den Normalen suboptimal, ließen aber keinen eindeutigen Trend zum Besseren oder Schlechteren erkennen.

Die Unterschiede erwiesen sich als statistisch signifikant. Die substanzabhängigen Versuchspersonen generierten eine schwächer ausgeprägte antizipatorische elektrodermale Aktivität als die normalen Probanden, aber eine stärkere als die VM-Patienten. Dies stimmt gut mit den Ergebnissen auf der verhaltensmäßigen Ebene überein. Auch diese Trends konnten weitgehend statistisch abgesichert werden.

Natürlich bedeuten solche statistischen Trends nicht, dass alle Versuchspersonen der einen Gruppe besser bzw. schlechter abschneiden als die Mitglieder der anderen Gruppen. In einem weiteren Untersuchungsschritt unterteilten die Autoren die normalen und die substanzabhängigen Versuchspersonen hinsichtlich ihres Abschneidens bei der Aufgabe in Beeinträchtigte und Nicht-Beeinträchtigte.

Beeinträchtigt“ bedeutet, dass die Tendenz zur Auswahl der Karten bei diesen Versuchspersonen eher dem Verhalten der VM-Patienten ähnelte. In diesem Sinne waren 67 Prozent der Substanzabhängigen und 37 Prozent der Normalen „beeinträchtigt“.

Das auffälligste Ergebnis: Bei den Nicht-Beeinträchtigten gab es hinsichtlich der antizipatorischen elektrodermalen Aktivität keinen Unterschied zu den Kontroll- oder den substanzabhängigen Versuchspersonen, und zwar weder bei den „schlechten“, noch den „guten Stapeln“. Bei den Beeinträchtigten war die antizipatorische elektrodermale Aktivität ausgeprägter als bei den VM-Patienten, sowohl im Falle der „guten“ wie der „schlechten“ Stapel.

Zusammengefasst ergibt die Studie folgendes Bild:

  • Eine Teilgruppe der Substanzabhängigen war nicht von den Mitgliedern der normalen Kontrollgruppe hinsichtlich der verwendeten verhaltensmäßigen und psychophysiologischen Maße zu unterscheiden.
  • Eine andere Teilgruppe der Substanzabhängigen zeigte eine beeinträchtigte Leistung und eine beeinträchtigte elektrodermale Aktivität. Sogar normale Versuchspersonen, die sich hinsichtlich ihrer Leistung als beeinträchtigt erwiesen, prägten eine antizipatorische elektrodermale Aktivität aus.
  • Die antizipatorische elektrodermale Aktivität der beeinträchtigten Substanzabhängigen ähnelte derjenigen der VM-Patienten. Diese beeinträchtigte Subgruppe der Substanzabhängigen erwarb eine elektrodermale Reaktion gegenüber Bestrafung und einen konditionierte elektrodermale Aktivität gegenüber aversivem Lärm.19

Kommen wir zu den Schlussfolgerungen:

Die Resultate, die wir zumindest von einer Untergruppe der SDI erhalten haben, stimmen besser mit VM-Fehlfunktion überein, und unterstützen so unsere primäre Hypothese, dass Drogenabhängigkeit mit einer Fehlfunktion der VM-Kortizes verbunden sein könnte.“

Das ist allerdings nicht wahr. Erinnern wir uns daran, wie die ursprüngliche Hypothese lautete:

Deshalb testeten wir die Hypothese, dass Substanzabhängigkeit mit einer Fehlfunktion der VM-Kortizes assoziiert sein könnte und sagten voraus, dass SDI dasselbe Profil verhaltensmäßiger und physiologischer Beeinträchtigungen zeigen wie VM-Patienten.“

Weder die zu testende Hypothese, noch die zu überprüfende Vorhersage waren auf eine Teilgruppe der Substanzabhängigen eingeschränkt. Daher wird die „primary hypothesis“ durch die Daten eben nicht bestätigt, sondern widerlegt. Denn es heißt gleich zu Beginn der Diskussion:

Eine Untergruppe der SDI war von normalen Kontrollpersonen hinsichtlich der verhaltensmäßigen und neurophysiologischen Maße der Entscheidungsfindung nicht zu unterscheiden.“

Die Botschaft ist eindeutig: die Hypothese ist falsch. Denn eine Teilgruppe der Drogenabhängigen ist zweifellos, bezogen auf die erhobenen Daten, von einer normalen Vergleichsgruppe ohne VM-Läsionen nicht zu unterscheiden. Die Alternativhypothese, dass sich Substanzabhängige von normalen Versuchspersonen hinsichtlich der relevanten Parameter unterscheiden, kann also für diesen Personenkreis nicht verworfen werden. Die globale Hypothese, dass Substanzabhängigkeit grundsätzlich mit Fehlfunktionen der VM-Kortices verbunden sein könnte, ist demgemäß zurückzuweisen.

Nun gibt es aber auch noch eine andere Teilgruppe, die im Experiment ähnlich schlecht abschneidet wie die VM-Patienten und auch hinsichtlich anderer der gemessenen Variablen vergleichbar mit diesen hirnorganisch beeinträchtigten Versuchspersonen reagiert.

Die Autoren besitzen sogar die Kühnheit, dies mit statistischen Verfahren „abzusichern“. Doch so geht das nicht. Die Gültigkeit der Inferenzstatistik ist an Voraussetzungen gebunden, an ein mathematisches und erkenntnistheoretisches Modell. Dieses Modell beinhaltet u. a. folgenden Grundsatz: Man stellt eine Forschungshypothese auf, beispielsweise: Merkmal x ist bei Gruppe A stärker ausgeprägt als bei Gruppe B. Dann wandelt man diese Forschungshypothese in eine statistische Nullhypothese um: Merkmal x ist in der Gruppe A gleich stark ausgeprägt wie in der Gruppe B. Diese Nullhypothese versucht man zu widerlegen. Gelingt dies, so hat die Forschungshypothese einen Falsifikationsversuch überstanden und das Vertrauen auf sie steigt.

Vorab legt man ein Signifikanzniveau fest. Dies besagt, welche Irrtumswahrscheinlichkeit man beim Verwerfen der Nullhypothese in Kauf nehmen will. Dies will gut überlegt sein, denn hinterher darf an es nicht mehr ändern, weil sonst das gesamte Prozedere nicht sinnvoll interpretiert werden kann. Der gesamte mathematische Apparat der Inferenzstatistik ist nämlich darauf abgestimmt, dass man weder die Hypothese, noch das Signifikanzniveau verändert, nachdem man die Daten zur Prüfung der Hypothese erhalten hat.

Wer dies nicht glauben will, möge sich Folgendes vorstellen: Wir führen ein Experiment ohne irgendeine vorherige Hypothese durch, messen aber eine größere Zahl von Parametern und finden ein paar mehr oder weniger ausgeprägte Unterschiede zwischen zwei Gruppen. Dann erfinden wir Hypothesen, die zu den gefundenen Unterschieden zwischen diesen Gruppen passen, und wählen die Irrtumswahrscheinlichkeiten so, dass „statistisch signifikante“ Ergebnisse dabei herauskommen.

Dass es sich dabei um einen Taschenspielertrick handelt, dürfte sogar statistisch und forschungslogisch nicht besonders versierten Menschen auffallen.

Ein Beispiel: Wir vergleichen fünfzig „Taubenzüchter“ und fünfzig „Briefmarkensammler“ miteinander. Wir messen ihre Intelligenz, Introversion / Extraversion, ihr Einkommen, verheiratet / nicht verheiratet, Land / Stadt, Vorliebe für / Abneigung gegen Eiscreme. Der einzig nennenswerte Unterschied findet sich bei „verheiratet / nicht verheiratet“. Bei allen anderen Maßen ist die Verteilung zwischen den Gruppen in etwa gleich. Nunmehr behaupten wir, wir hätten die Hypothese überprüfen wollen, dass Verheiratete eher dazu tendieren, Briefmarkensammler zu werden, wohingegen Unverheiratete sich tendenziell der Taubenzucht zuwenden. Die Irrtumswahrscheinlichkeit wählen wir so, dass der gefundene Unterschied sich als signifikant erweist.

Ein weiteres Beispiel: Wir führen ein Training durch, dass die Fähigkeit, eine Fünf zu würfeln, steigern soll. Diese Hypothese hängen wir aber nicht an die große Glocke. Wir vergleichen die Trainierten mit einer untrainierten Kontrollgruppe. Die Hypothese lautet: Mit einer Irrtumswahrscheinlichkeit von einem Prozent werden die Trainierten häufiger eine Fünf würfeln als die Untrainierten. Die Auswertung des Experiments ergibt aber keinen signifikanten Unterschied bei der Fünf. So ein Pech aber auch. Macht nichts, schließlich zeigte sich eine signifikante Abweichung bei der Zwei, allerdings nur auf dem 5-Prozent-Niveau. (Die Wahrscheinlichkeitstheorie lehrt, dass scheinbare Signifikanzen unvermeidlich sind, aber wer wird denn da so kleinlich sein?)

Also ändern wir flugs unsere Hypothese: Mit einer Irrtumswahrscheinlichkeit von 5 Prozent werden die Trainierten häufiger eine Zwei würfeln als die Nicht-Trainierten. Entsprechend modifizieren wir die Beschreibung des Trainings und seines Zieles, so dass es zur modifizierten Hypothese passt.

Den Autoren des beschriebenen Experimenten soll Derartiges natürlich nicht unterstellt werden. Doch der Verdacht einer Anpassung der Hypothesen an die Daten liegt nahe und lässt sich auch nach mehrmaliger, gründlicher Lektüre des Forschungsberichts nicht so ohne Weiteres entkräften. Nehmen wir einmal an, ein gewähltes Kriterium zur Unterteilung der Versuchspersonen in Beeinträchtigte und Nicht-Beeinträchtigte hätte nicht das gewünschte Ergebnis gebracht. Wäre da nicht die Versuchung groß gewesen, ein anderes Kriterium zu wählen, und dann noch eins und noch eins, bis schlussendlich herauskommt, was herauskommen soll?

Die Autoren wissen natürlich, die Wahl ihres Kriteriums theoretisch gut zu begründen – aber für die Wahl anderer Kriterien hätte sich vermutlich eine ebenso gute Begründung finden lassen.

Und nun noch ein Wort zur zu den konstatierten Ähnlichkeiten zwischen den Gruppen. Solche zu behaupten bedeutet, die Nullhypothese zu akzeptieren (kein Unterschied) und dies ist natürlich mit dem Fehler zweiter Art verbunden. Über dessen Wahrscheinlichkeit verlieren die Verfasser allerdings kein Wort.

Es stellt sich natürlich die Frage, ob sich die VM-Dysfunktion im Verlauf der Substanzabhängigkeit einstellt oder schon zuvor bestand und als ein Bestandteil des Ursachenbündels der Substanzabhängigkeit gelten darf.

Die Autoren räumen ein, dass diese Frage durch ihr Experiment, angesichts der Beschränkungen seines Versuchsplans, nicht entschieden werden kann. Sie glauben allerdings, dass die Dysfunktion allein zwar die Substanzabhängigkeit nicht erklären, bei manchen Individuum jedoch eine Tendenz zur Entscheidung für, kurzfristig betrachtet, positive Verhaltensalternativen unter Inkaufnahme langfristig verheerender Folgen hervorrufen könne. Dafür sprächen die Befunde genetischer Studien und klinische Erfahrungen.

Sie geben allerdings zu bedenken, dass Substanzabhängigkeit bei anderen Individuen, auch ohne VM-Dysfunktionen, durch „fehlerhafte“ (“faulty“) Lernprozesse bedingt sein könnte. Bei den Substanzabhängigen, deren Konsum auf fehlerhaftem Lernen beruhe, sei ein Verlernen dieses Verhaltens möglich, wohingegen die Substanzabhängigen mit VM-Dysfunktion nicht in der Lage seien, aus negativen Erfahrungen die richtigen Schlüsse zu ziehen.

Solange man die VM-Dysfunktion bei Substanzabhängigen allerdings nicht mit objektiven Verfahren feststellen kann, handelt es sich hier um eine selbstimmunisierende Erklärungsstrategie: Wer seine Sucht überwindet, hatte eben keine VM-Dysregulation und wem das nicht gelingt, der hat sie.

Anstelle des Begriffs „VM-Dysregulation“ könnte man auch „schwerstabhängig“ oder eine vergleichbare Leerformel einsetzen.

Das menschliche Gehirn ist ein komplexes System und ein und dasselbe Reaktionsmuster in einem Test kann auf vielfältige Weise zustande gekommen sein. Man kann den Prozess in der Blackbox nicht aus dem Input und Output erschließen. Daher kann man aus mehr oder weniger übereinstimmenden Mustern bei zwei oder mehreren Teilgruppen eines Experiments auch nicht ableiten, dass für diese Übereinstimmungen dieselben Mechanismen verantwortlich seien. Dies wird von den Autoren in der Diskussion ihrer Befunde auch eingeräumt, allerdings nur am Rande.

Abschließend bringen die Verfasser noch einmal die Theorie der „somatischen Marker“ ins Spiel. Es gibt grundsätzlich zwei Möglichkeiten:

  1. Das verantwortliche System im Gehirn ist bei der Verarbeitung von Gedanken an eine mögliche Bestrafung hypoaktiv. Dann sind die entsprechenden negativen somatischen Zustände schwach.
  2. Das verantwortliche System im Gehirn ist bei der Verarbeitung von Gedanken an mögliche Belohnungen hyperaktiv. Dann sind die entsprechenden positiven somatischen Zustände stark.

Die Autoren schreiben:

In jedem Fall ist das Endresultat eine Verschiebung der Wahl des Verhaltens in Richtung des unmittelbaren Ergebnisses, dies bedeutet eine Suche nach der unmittelbaren Belohnung und eine Ignoranz gegenüber der verzögerten Bestrafung.“

In der eigenen Untersuchung habe man Hinweise für ein hypo-funktionierendes „VM cortex-insular/SII, SI cortex system“ bei einigen Substanzabhängigen gefunden, und zwar in Bezug auf Bestrafung. Andere Untersuchungen hätten aber auch Anzeichen für ein hyper-funktionierendes „VM cortex-insular/SII, SI cortex system“ bei einigen Drogenabhängigen entdeckt, und zwar in Bezug auf Belohnungen.

Beide Linien von Hinweisen unterstützen ein gemeinsames Verhaltensergebnis, dass mit einer Steigerung des Wertes einer unmittelbaren Belohnung durch Drogen und mit einer Senkung des Werts zukünftiger Bestrafung verbunden ist.“

Das ist wohl wahr: Beide „Linien der Evidenz (lines of evidence)“ stehen nicht in Widerspruch zur Alltagserfahrung vieler Generationen auf diesem Planeten, dass manche Menschen, darunter auch Substanzabhängige, langfristige Nachteile zugunsten kurzfristiger Vorteile billigend in Kauf nehmen.

Für Aussagen obiger Art hat sich in der kritischen Literatur inzwischen der Ausdruck „Neuro-Redundanz“ eingebürgert. Immerhin legt diese triviale, populäre (und deswegen vermutlich halbwahre) Einsicht zur „Geisteshaltung“ vieler Substanzabhängiger die Schlussfolgerung nahe, dass die Testaufgabe extern valide sei, also dass sie tatsächlich das Verhalten und die Entscheidungen von Substanzabhängigen im „realen Leben“ widerspiegele.

Ob dies wirklich der Fall ist, ob die Entscheidungen bei Substanzabhängigen realiter grundsätzlich diesem Muster unterliegen – kurzfristige Vorteile auf Kosten langfristiger Nachteile – bleibt allerdings eine offene Frage.

Im Test zeigen sich ja die Nachteile der Wahl von Stapeln mit hohen Gewinnen, aber auch hohen Einbußen ziemlich schnell, wohingegen dies beim Drogenkonsum in der Regel nicht der Fall ist. Es kann Jahre dauern, bis die desaströsen Konsequenzen des Alkohols, des Heroins, des Kokains sichtbar werden (sofern sie sich überhaupt einstellen) und bis dahin ist u. U. High Life angesagt.

Mit anderen Worten: Was den Rauschmittelkonsum betrifft, so herrschen im beschriebenen Test und im realen Leben völlig unterschiedliche Bedingungen. Es ist auch keineswegs der Fall, dass die nachteiligen Folgen im realen Leben, so wie im Test, zwangsläufig eintreten. Wie wir im Verlauf dieses Texts noch erfahren werden, gelingt es einer großen Zahl von Substanzabhängigen, rechtzeitig „die Kurve zu kratzen“ und sich zur Abstinenz oder zum kontrollierten Konsum durchzuringen.

Außerdem haben manche Substanzabhängige auch keinen oder kaum Einfluss auf ihr Geschick, sondern werden von äußeren Umständen beherrscht, so dass sich für sie eine Strategie, die langfristige Konsequenzen des eigenen Verhaltens beachtet, kaum oder gar nicht lohnt. Auch dazu später mehr.

Die Studie von Bechara, Dolan und Hindes

Diese Studie (Bechara et al. 2002) ist die Fortsetzung der zuvor beschriebenen Untersuchung. Wieder wurde die bereits skizzierte „Gambling Task“ eingesetzt, allerdings in einer modifizierten Variante. Die Versuchspersonen waren dieselben wie im ursprünglichen Experiment.20

Die Frage lautete: Ist die Entscheidungsfindung bei Drogenabhängigen als Ausdruck einer Kurzsichtigkeit für die Zukunft oder als „Hypersensitivität“ (gesteigerte Anfälligkeit) für Belohnungen zu verstehen?

Die Variation der Aufgabe bestand darin, dass die „guten“ Stapel hohe unmittelbare Bestrafung, dafür aber eine höhere verzögerte Belohnung erbrachten. Die „schlechten“ Stapel waren mit niedriger unmittelbarer Bestrafung, dafür aber auch mit geringerer verzögerter Belohnung verbunden.

Gegenüber dem Vorgänger-Experiment wurde also die Reihenfolge von Belohnungen und Bestrafungen umgekehrt. Wie im ersten Experiment wurde das Verhältnis von Belohnung und Bestrafung im Zeitverlauf günstiger bei den „guten“ Stapeln und ungünstiger bei den „schlechten“. Die Messung der elektrodermalen Aktivität erfolgte nach dem Erhalt von Belohnungen und während der Zeit, in der sie überlegten, welchen Stapel sie wählen sollten.

Die Autoren sagten folgende Ergebnisse des Experiments voraus:

Hypersensitivität für Belohnungen bei Substanzabhängigen würde mit einem Profil der verhaltensmäßigen und elektrodermalen Messungen übereinstimmen, das Beeinträchtigung in der ursprünglichen „Gambling Task“ und keine Beeinträchtigung in der variierten „Gambling Task“ einschließt, verbunden mit abnorm hoher elektrodermaler Aktivität bei Belohnungen wie auch mit antizipatorischer elektrodermaler Aktivität, wenn ein hoher Gewinn erwartet wird.
Die Begründung für die normale Leistung der Substanzabhängigen in der variierten „Gambling Task“ fußt auf der Beobachtung, dass „normale“ Kontroll-Personen anfänglich zögern, die „guten“ Stapel zu wählen, …, und zwar wegen der höheren Kosten, die mit diesen Stapeln verbunden sind, bevor man eine Belohnung erhält.
Hypersensitivität für Belohnungen, insbesondere wenn sie mit Hyposensivitivität für Bestrafungen verbunden ist, hilft, diese Zögerlichkeit zu überwinden, fördert die Wahl des „guten“ Stapels und führt zu einer früheren Begegnung mit einer höheren Belohnung und daher zu einer weiteren Verstärkung der Wahl dieses Stapels.
Auf der anderen Seite wäre die mangelnde Sensititvität gegenüber der, positiven oder negativen, Zukunft mit einem Profil verhaltensmäßiger und elektrodermaler Maße konsistent, das Beeinträchtigung in der ursprünglichen wie auch in der variierten „Gambling Task“ einschließt, verbunden mit einer normalen elektrodermalen Aktivität nach Belohnungen, aber auch mit einer defekten antizipatorischen elektrodermalen Aktivität.
Mit anderen Worten: Insensitivität für die Zukunft wäre mit einem Muster von Ergebnissen konsistent, das den VM-Patienten ähnelt.“

Basierend auf den Ergebnissen des ersten Experiments, wurden alle Versuchspersonen nach dem dort spezifizierten Kriterium in die Gruppen der Beeinträchtigten bzw. der Nicht-Beeinträchtigten eingeteilt. Dies ist ein methodischer Fortschritt gegenüber dem ersten Experiment, weil eine nachträgliche Veränderung von Gruppeneinteilungen nach dem Erhalt der Daten die Anwendung von Signifikanztests letztlich als wenig sinnvoll erscheinen lässt.

Hat man nämlich erst einmal die Daten, so kann man, wenn man sich ums Methodische nicht schert, die Gruppeneinteilung so lange verändern, bis man ein Ergebnis erhält, das „signifikant“ zu werden verspricht. Der Signifikanztest ist aber dazu da zu prüfen, wie sich die Daten mit der Hypothese vertragen oder nicht; wenn die Hypothese nach Erhalt der Daten so verändert wird, dass sie angesichts der Daten im besten Licht erscheint, dann stellt man die Logik des Signifikanztests auf den Kopf.

Wenn wir mit einem Experiment eine Hypothese prüfen wollen, dann muss logischerweise die Hypothese feststehen, bevor die Daten erhoben werden. Führt das Experiment zu neuen Hypothesen, dann müssen diese in einem weiteren Experiment geprüft werden; es ist keineswegs zulässig, diese dann an demselben Datensatz zu überprüfen.

Und nun zu den wichtigsten Ergebnissen: Die Untergruppe der Substanzabhängigen, die nach dem ersten Experiment als „impaired“ (beeinträchtigt) eingestuft wurden, konnten in zwei Leistungsgruppen eingeteilt werden:

  1. Eine Unter-Untergruppe (36 Prozent) erbrachte schwache Leistungen in der variierten Aufgabe und zeigte ähnliche verhaltensmäßige und behaviorale Beeinträchtigungen wie VM-Patienten.
  2. Die andere Unter-Untergruppe (64 Prozent) bewältigte die variierte Aufgabe normal, doch zeigte sie ausgeprägte elektrodermale Aktivität nach Belohnung und in Antizipation von Ergebnissen, die große Belohnungen hervorbrachten.

Dementsprechend ließen sich die Substanzabhängigen insgesamt in drei Gruppen einteilen:

  1. Eine Gruppe, die sich hinsichtlich keiner der Messungen als beeinträchtigt erwiesen hat und daher den „normalen“ Versuchspersonen gleicht;
  2. eine weitere Gruppe, die den VM-Patienten ähnelt und gegenüber der Zukunft, ob positiv oder negativ, insensitiv ist;
  3. eine dritte Gruppe schließlich, die gegenüber Belohnungen hypersensitiv ist, so dass die Gegenwart oder die Erwartung von Belohnungen ihr Verhalten dominiert.

Die Autoren versuchen, ihre Befunde im Licht neurophysiologischer Studien im Allgemeinen und der Theorie somatischer Marker im Besonderen zu interpretieren. Der daran Interessierte mag die Studie im Original lesen.

Leider steckt die empirische neurowissenschaftliche Literatur voller Widersprüche; selten wird versucht, Studien zu replizieren, noch seltener gelingt dies; im Allgemeinen stehen Ergebnisse, die einander teilweise bestätigen, teilweise und mitunter auch fundamental widersprechen, unverbunden nebeneinander (Uttal 2011, Satel & Lilienfeld 2013).

In diesem reichen Angebot wird vermutlich jeder fündig, ganz gleich, was er experimentell herausgefunden hat; es werden sich immer Studien finden, die mit den eigenen Resultaten übereinzustimmen scheinen. Die sich in den letzten Jahren explosionsartig vergrößernde Zahl von neurowissenschaftlichen Studien gestattet es selbst den Fleißigsten nicht mehr, hier den Überblick zu behalten. Entsprechend schwer ist die Würdigung solcher Arbeiten, bei denen sich die Autoren zum Beleg ihrer Thesen nicht nur mit den eigenen experimentellen Daten begnügen können, sondern auf eine Fülle anderer Studien zurückgreifen müssen.

Und so sind Untersuchungen zu begrüßen, die Zusammenhänge über Reize und Reaktionen prognostizieren und sich der Spekulation über die Inhalte der Blackbox dazwischen enthalten. Wenn sich diese Prognosen in mehreren Experimenten bestätigen, dann darf man sich berechtigt fühlen, den Ergebnissen zu vertrauen. Solche Experimente sind überschaubar und ihre Auswertung ist nachvollziehbar, weil die Hypothesen in einer stringenten Beziehung zu den Beobachtungen im Experiment stehen.

Demgegenüber präsentieren Bechara und Mitarbeiter eine Flut von Signifikanztests, ohne zu bedenken, dass selbst dann, wenn sämtliche Beziehungen zwischen den einbezogenen Variablen rein zufällig wären, der eine oder andere Zusammenhang oder Unterschied schon allein aus wahrscheinlichkeitstheoretischen Gründen signifikant sein müsste – auch wenn nichts anderes dahintersteckt als heiße Luft.

Überdies beziehen sich ihre Hypothesen auf Konstrukte, die gar nicht direkt beobachtet werden, nämlich auf Dysregulationen von neuronalen Schaltkreisen in diversen Hirnregionen. Die Beziehung zwischen diesen Schaltkreisen und dem beobachtbaren Verhalten in den Experimenten ist hypothetisch; sie ergibt sich nicht zwingend aus dem Versuchsplan und den Untersuchungsmethoden; die Daten wären auch mit anderen als den von den Autoren vorgeschlagenen Erklärungen verträglich.

Substanzabhängigkeit – eine Krankheit? Oder eine Entscheidung?

Bechara und Mitarbeiter unterstellen, dass Substanzabhängigkeit zumindest bei einer Teilgruppe der Betroffenen eine Krankheit sei, die ursächlich auf einer Normabweichung von Hirnfunktionen oder -strukturen beruhe. Dies ist keine Außenseitermeinung, sondern heute leider die vorherrschende Ansicht des Psycho-Mainstreams.

Die Psychiaterin Sally Satel und der Psychologe Scott O. Lilienfeld betrachten diesen Trend jedoch mit großer Sorge (Satel & Lilienfeld 2013). Die Auffassung, dass Abhängigkeit eine Hirnerkrankung sei, könne vielleicht als gute Public Relations bezeichnet werden, sei aber schlechte Erziehung und schlechte Wissenschaft.

Die Brüche in den neuronalen Mechanismen, die mit der Abhängigkeit assoziiert sind, beschränken die Fähigkeit eines Individuums zu wählen, aber sie zerstören sie nicht (Satel & Lilienfeld 2013:51).“

Man dürfe aus der Tatsache, dass Abhängigkeit mit Veränderungen im Gehirn einhergehe, nicht schließen, dass es sich dabei um eine Hirnerkrankung handele. Denn jede Erfahrung verändere das Gehirn, ganz gleich, ob es sich dabei darum handele, eine neue Sprache zu lernen oder sich in einer neuen Stadt zurecht zu finden. Zwar erzeuge der fortgesetzte Substanzkonsum mit der Zeit ein starkes Verlangen, das sich naturgemäß auch in Hirnprozessen widerspiegele, aber dieses Verlangen habe den Betroffenen nicht vollständig im Griff.

Dies zeige sich sogar bei Heroinabhängigen. Diese seien nur während eines kleinen Teils ihres Tages „high“ und meistens damit beschäftigt, Geld für Drogen oder diese selbst zu beschaffen.21 Dies sei ein Leben voller Stress, das mitunter aber von Phasen relativer Ruhe unterbrochen sei, in denen viele Substanzabhängige darüber nachdächten, mit oder ohne fremde Hilfe abstinent zu werden, und vielen gelänge dies auch. Sehr vielen sogar. Die Überwindung der Substanzabhängigkeit sei nicht die Ausnahme, sondern die Regel.

Die Autoren zitieren beispielsweise die „Epidemiologic Catchment Area Study“, die 19.000 Personen einbezog. Unter denen, die im Alter von 24 Jahren substanzabhängig wurden, waren 75 Prozent im Alter von 37 Jahren „clean“. Zu ähnlichen und noch höheren Zahlen kamen weitere Studien mit erheblich größeren Stichproben.

Man dürfe nicht von einer kleinen Zahl schwerstgestörter Süchtiger, die es nicht schafften, sich von den Drogen zu befreien, auf die große Mehrheit der Betroffenen schließen. Das Modell der Abhängigkeit als einer Gehirnkrankheit beraube den Betroffenen seiner Verantwortung für sich selbst und lasse ihn auf eine medizinische bzw. chemische Kur hoffen, die es aber nicht geben könne. Vielmehr komme es auf die Entscheidung des Einzelnen an, fortan den entsprechenden Verlockungen zu widerstehen – und das Durchhalten einer solchen Entscheidung würde am besten durch eine Verpflichtung gefördert, deren Einhaltung von signifikanten Anderen kontrolliert werden könne.

Man müsse erkennen, dass Rauschmittel immer einen Zweck erfüllten, nämlich den, Probleme und eigene Schwächen zu verdrängen. Das Gehirnmodell der Abhängigkeit sei hier keine Hilfe, weil es der emotionalen Logik nicht gerecht werde, die Abhängigkeit auslöst und aufrecht erhält.

Die Autoren berichten von folgendem Fall, der in lustiger Form die Legende vom unwiderstehlichen Zwang zum Rauschgiftkonsum demontiert (Satel & Lilienfeld 2013:60 f.):

Im Dezember 1966 wurde Leroy Powell in Austin, Texas, von einem städtischen Gericht zu einer Strafe von $ 20 verurteilt, weil er sich öffentlich in betrunkenem Zustand gezeigt hatte. Powell focht dieses Urteil vor dem Bezirksgericht an; sein Anwalt erklärte, sein Mandant leide an der Krankheit des chronischen Alkoholismus‘. Powells öffentlicher Rauschzustand sei deswegen nicht sein eigener Wille gewesen und die Strafe stelle eine grausame und unübliche Form der Bestrafung dar. Ein Psychiater erschien und gutachtete, dass Powell gegenüber der Versuchung zu trinken machtlos war.
Powell trat vor die Schranken des Gerichts. Am Morgen seiner Verhandlung hatte er einen Drink um 8 Uhr, den ihm sein Anwalt gab, vermutlich um das morgendliche Zittern abzustellen.
Es folgt nun ein Exzerpt aus dem Kreuzverhör:
Frage: Sie haben einen Drink um 8 Uhr genommen, weil sie trinken wollten.
Antwort: Ja.
F.: Und Sie wussten, dass, wenn sie ihn trinken, dass sie dann weitertrinken und betrunken werden?
A.: Nun, da ich hier in der Verhandlung zu erscheinen hatte, habe ich nur den einen Drink genommen.
F.: Sie wussten, dass Sie hier heute Nachmittag erscheinen mussten, aber an diesem Morgen haben Sie einen Drink genommen und Sie wussten, dass Sie sich es sich nicht leisten konnten, weiterzutrinken und zum Gericht kommen mussten; stimmt das?
A.: Ja, das stimmt.
F.: Weil Sie wussten, was sie tun würden, wenn sie weitertrinken würden, dass sie dann umkippen oder aufgegriffen werden würden.
A.: Ja.
F.: Und sie wollten nicht, dass Ihnen das heute passiert?
A.: Nein.
F.: Nicht heute?
A.: Nein.
F.: Deswegen hatten Sie nur einen Drink.
A.: Ja.“

Dies klingt wie unfreiwilliges Kabarett. Es zeigt aber einen Widerspruch im Verhalten von vielen Abhängigen: Sie behaupten steif und fest, nur einem unwiderstehlichen Zwang nachzugeben, obwohl sie durch ihr tagtägliches Verhalten beweisen, dass sie diesem Zwang gar nicht unterliegen.

Das Vorhandensein der Fähigkeit, den Konsum in Abhängigkeit von befürchteten Konsequenzen einzuschränken, wurde, so schreiben die Autoren, im Übrigen auch durch empirische Studien nachgewiesen.

Der britische Psychiater Anthony Daniels arbeitete langjährig in Gefängnissen mit Drogenabhängigen. Später gab er diesen Beruf auf und wurde ein erfolgreicher Journalist und Schriftsteller. Er schreibt unter dem Autorennamen Theodore Dalrymple.

Es sei, so sagt er in seinem Buch „Spoilt Rotten“ (Dalrymple 2010), die schiere Sentimentalität, Drogenabhängige als Opfer einer Krankheit zu betrachten. Die meisten Heroinabhängigen konsumierten diese Substanz zunächst nur gelegentlich, bevor sie die Droge regelmäßig nähmen und physiologisch abhängig würden. Es sei nicht wahr, dass sie vom Heroin schlagartig süchtig würden, wie viele von ihnen zur Entschuldigung ihres Verhaltens behaupteten.

Im Gegenteil: Sie würden mit derselben Entschiedenheit abhängig vom Heroin, mit der andere Weinliebhaber oder Briefmarkensammler würden. Das Heroin triebe sie auch nicht in die Kriminalität. Vielmehr sei die Abhängigkeit durchaus mit normaler Arbeit verträglich, außerdem wüssten die später Betroffenen lange zuvor, welches Leben sie als Heroinabhängige erwarte. Außerdem sei die Beschaffungskriminalität mit einem Ausmaß an Aktivität verbunden, das sehr wohl in legale Kanäle geleitet werden könnte. Und schlussendlich seien die meisten kriminellen Heroinabhängigen bereits vor Entwicklung ihrer Sucht mit dem Gesetz in Konflikt geraten. Überdies sei auch der Entzug nicht so schrecklich, dass man ihn nicht durchstehen könne, wenn man denn wolle.

Jeffrey A. Schaler (2010) bestreitet die Theorie, dass Abhängigkeit eine Krankheit sei, mit den folgenden Argumenten:

  • Abhängigkeit ist intendiertes Verhalten; der Süchtige beabsichtigt, sein Suchtmittel zu konsumieren.
  • Der Abhängige ist in der Lage, seinen Konsum zu moderieren.

Beide Punkte würden durch eine große Zahl von Studien empirisch erhärtet.

Dies bedeutet, dass die Abhängigkeit von Substanzen keineswegs ein Automatismus sein kann, der auf einer Dysfunktion des Gehirns beruht und der notwendig (unabhängig von Lebensumständen) zum Suchtverhalten und zu seinen Konsequenzen führt.

Abhängigkeit, so Schaler, ist keine Krankheit, sondern eine Wahl, eine Entscheidung.

In seinem Buch über die Abhängigkeit als Wahl (Heyman 2009) bestätigt Gene Heyman diese Sichtweise. Das Problem der Rauschmittel sei, dass sie den Wert aller Verhaltensalternativen neutralisieren. Sex, gutes Essen, Freunde, was auch immer, im Zweifelsfall gewinnt die Droge.

Dies sei unausweichlich, solange wir nur die lokale Perspektive, die Sichtweise des Augenblicks einnehmen. Aus globaler Perspektive betrachtet, sei das Rauschmittel zweifellos nicht die beste aller Alternativen. Je weniger Drogen wir nähmen, desto stärker könne die Freude werden, die wir bei anderen Aktivitäten empfinden.

Statistiken, so Heyman, beweisen nun eindeutig, dass eine große Zahl von Abhängigen im Lauf der Zeit in der Lage sei, die globale Perspektive einzunehmen und sich für einen kontrollierten Konsum oder auch für die Abstinenz zu entscheiden. Es seien häufig veränderte Lebensumstände (zum Beispiel eine Eheschließung), die diesen Wandel bewirkten.

Die unter den Vertretern des Krankheitsmodells vorherrschende Position besagt: Beim Abhängigen ist das Dopamin-System verändert, so dass im Lauf der Zeit nur noch die Droge der Wahl die Ausschüttung von Dopamin in den Nucleus accumbens (NAC) auszulösen vermag. Andere potenzielle Belohnungen können dies, mit fortschreitender Suchtentwicklung, entsprechend immer weniger. Der NAC ist zuständig für zielgerichtetes Verhalten und für die Motivation, Ziele zu verfolgen.

Dumm nur, dass der NAC in alle Aktivitäten involviert ist, die Freude bereiten. Ganz gleich, ob wir ein Pop-Konzert besuchen, uns zum ersten Mal allein mit unserer neuen Flamme treffen, mit dem Flieger im Urlaubsparadies landen oder Heroin konsumieren (Lewis 2012).

Dies ist der Grund, warum Leute wie Bechara nach spezifischen Defekten in Entscheidungsprozessen suchen, die Substanzabhängige von anderen Leuten unterscheiden. Solche Spezifika wird es vermutlich geben, keine Frage.

Solange Menschen von einer bestimmten Droge abhängig sind, bleibt es nicht aus, dass bestimmte Prozesse in ihrem Hirn auf diese Droge zugeschnitten sind und ihr Verhalten bestimmen. Vergleichbares wird bei Paul geschehen, sobald er sich in Paula verliebt hat. Keine Frage.

Doch um von einer Krankheit sprechen zu können, müsste ein Automatismus ablaufen, der sich weitgehend der Kontrolle durch den Betroffenen entzieht und in allen sozialen Kontexten abläuft, sobald nur der entsprechende, eine Belohnung versprechende Reiz prinzipiell verfügbar ist. Wenn wir von Franks Sinatras bemerkenswerter Gestaltung der Entzugsszene im Film „Der Mann mit dem goldenen Arm“ einmal absehen, beobachten wir derartige Automatismen sogar in den krassesten Fällen und extremsten Situationen bei Substanzabhängigen nicht. Auch Leute, die man nicht einsperrt oder gar ans Bett fesselt, können einen Substanzentzug durchstehen, obwohl an der nächsten Straßenecke die Droge ihrer Wahl auf sie wartet. Und Paul ist in der Lage, eine vierzehntägige, unaufschiebbare Dienstreise ohne Paula zu ertragen, wenngleich ungern.

In Becharas Experimenten zeigte im Übrigen auch eine Teilgruppe der angeblich Normalen ein Muster, das an Substanzabhängige oder gar an VM-Patienten gemahnte. Bechara und Mitarbeiter kommentieren dies mit dem Verdacht, dass die Angehörigen dieser Teilgruppe womöglich Gefahr liefen, selbst substanzabhängig zu werden. Mag sein, oder auch nicht. Es kann genauso gut sein, dass es sich bei den Unterschieden zwischen Drogenabhängigen, Normalen und VM-Patienten um ein experimentelles Artefakt handelt, dass in keiner stringent nachvollziehbaren Beziehung zur Entscheidungsfindung im realen Leben steht.

Fazit: Es gibt einige, eher schlecht als recht bestätigte Theorien zu Hirnprozessen bei Substanzabhängigen, die aber das Krankheitsmodell nicht bestätigen können, weil sie einerseits keine klare Abgrenzung zwischen Süchtigen und Nicht-Süchtigen ermöglichen und weil andererseits (auf Grundlage der entsprechenden Experimente) nicht entschieden werden kann, ob es sich bei diesen Hirnprozessen um reversible Anpassungen an das süchtige Verhalten handelt oder um dauerhafte Störungen, die ohne ärztliche Behandlung (oder sogar trotz dieser) in aller Regel bestehen bleiben.

Demgegenüber steht, abgeleitet aus alltäglicher Erfahrung, ein Bild des Süchtigen, der sich selbst konditioniert, und zwar mit Substanzen, die in der jeweiligen Situation alles in den Schatten stellen, was sich dem Abhängigen sonst noch bietet. Er entscheidet sich für diese begrenzte, lokale Sichtweise, und im Rahmen dieser Sichtweise handelt er durchaus rational. Er maximiert den Belohnungswert seines Handelns.

Dass er dabei unter Umständen in Experimenten zur Entscheidungsfindung Menschen mit nachgewiesenen neurologischen Störungen ähnelt, bedeutet nicht, dass eine neurologische Störung für sein Verhalten verantwortlich ist. Wenn zwei Menschen Fieber haben, heißt dies ja auch nicht, dass dem Fieber bei diesen beiden Menschen derselbe organische Prozess ursächlich zugrunde liegen muss.

Somatische Marker

Wenden wir uns noch einmal der Theorie der somatischen Marker zu, die den Arbeiten von Bechara und Mitarbeitern zugrunde liegt. Könnte es nicht sein, dass eine Störung der Signalfunktion körperlicher emotionaler Zustände für die suboptimale Entscheidungsfindung bei Süchtigen, insbesondere für ihre Neigung zur bedenkenlosen Bevorzugung unmittelbarer Belohnungen unter Missachtung der langfristigen Folgen, verantwortlich ist?

António Verdejo-García und Antoine Bechara haben in einem Übersichtsartikel (Verdejo-García & Bechara 2009) die empirischen Befunde zusammengetragen, die aus ihrer Sicht für diese Hypothese sprechen. Sie schließen aus der von ihnen gesichteten Literatur, dass es wenigstens

zwei zugrunde liegende Typen von Dysfunktionen gibt, bei denen emotionale Signale (somatische Marker)22 die unmittelbaren Handlungsergebnisse bei Abhängigkeiten begünstigen: (Bechara & Damasio 2001) eine Hyperaktivität im Mandelkern oder dem impulsiven System, die den belohnenden Einfluss verfügbarer Anreize übertreibt, und eine Hypoaktivität im präfrontalen Kortex oder dem reflektierenden System (Damasio 1997), das die langfristigen Konsequenzen einer gegebenen Handlung vorhersagt.“

Rufen wir uns zunächst noch einmal die Theorie der somatischen Marker ins Gedächtnis:

Wenn ein negativer somatischer Marker neben ein besonderes zukünftiges Ergebnis gestellt wird, wirkt die Kombination wie eine Alarmglocke. Wenn ein positiver somatischer Marker stattdessen daneben gestellt wird, wird er zu einem Blinklicht des Anreizes. Dies ist die Essenz der Hypothese der somatischen Marker.“

Die Autoren meinen, dass Defekte in den neuronalen Netzwerken, die für die somatischen Marker verantwortlich zeichnen, die Schwierigkeiten hervorrufen, die Substanzabhängige dabei haben, vorteilhafte (advantageous) Entscheidungen zu fällen.

Wir wollen uns hier nicht mit den Details der Untersuchungen auseinandersetzen, die nach Bekunden der Autoren diese Meinung stützen, sondern nur einige grundsätzliche Aspekte dieses Ansatzes beleuchten.

Unter „vorteilhaft“ verstehen die Autoren solche Entscheidungen, die langfristig das Verhältnis von Kosten und Nutzen optimieren. Dies setzt u. a. voraus, dass eine langfristige Handlungsplanung möglich ist.

Für einen Substanzabhängigen in einer prekären Lebenssituation, für den „die Zukunft in den Sternen“ steht, der also gar keine Chance sieht, durch gegenwärtiges Handeln seine zukünftige Lage entscheidend zu beeinflussen, mag eine ausschließliche Orientierung an der unmittelbaren Belohnung durchaus rational sein.

Diese Überlegungen werfen Fragen zur Validität der geschilderten Experimente von Bechara und Mitarbeitern auf. Hier war die Beziehung zwischen den Handlungen und ihren Ergebnissen ja fix: Es gab „gute“ und „schlechte“ Stapel, derart, dass die „guten“ langfristig mehr Erfolg brachten als die „schlechten“.

Was aber, wenn es solche Stapel im Leben einer bestimmten Sorte von Substanzabhängigen gar nicht gibt? Wenn es für sie tatsächlich klüger ist zu nehmen, was man kriegen kann, ohne sich über die ohnehin unbeeinflussbaren Folgen Gedanken zu machen? Könnte es sein, dass bei der Denkweise von Bechara und ähnlich gestrickten Menschen die Lebenswelt der gehobenen Mittelklasse Pate stand?

Wenn also bestimmte Substanzabhängige sich so entscheiden, als ob Dysfunktionen von neuronalen Netzwerken diese Entscheidungen hervorriefen, so kann die wahre Erklärung dafür eine andere, eine kontextbezogen andere sein: Es ist durchaus denkbar, dass diese Substanzabhängigen nie gelernt haben, eine globale Perspektive einzunehmen. Sie haben dies nicht gelernt, weil ihnen eine solche Sichtweise in dem Lebensumfeld, das sie kennen gelernt haben, keinen Vorteil gebracht hätte.

In einem solchen Lebensumfeld hängen die Geschicke von Menschen in überwältigendem Ausmaß von Umwelteinflüssen ab, die sich beim besten Willen der Kontrolle durch das Individuum entziehen. Es ist daher gar nicht möglich, Entscheidungen am Ziel der langfristigen Optimierung von Kosten und Nutzen zu orientieren. Es kommt darauf an, sofort zuzugreifen und zu konsumieren, wenn sich eine entsprechende Gelegenheit bietet.

Wer an ein solches Muster des Entscheidens und Verhaltens gewöhnt ist, der mag es schwer haben, sich in einem Experiment erfolgreich zu verhalten, in dem der Erfolg von Kriterien abhängt, die man gar nicht verinnerlicht hat. Um dies zu erklären, muss man keine dysfunktionalen neuronalen Netzwerke voraussetzen, sondern nur solche Netzwerke, die so funktionieren, wie es im jeweiligen realen Umfeld des Versuchsteilnehmers sinnvoll ist.

Falls man hier also von einem Defekt sprechen will, dann sollte man ihn in der Umwelt suchen – und nicht im Gehirn. Die Lebenssituation vieler Substanzabhängiger mag auch erklären, warum sie bei der Beschaffungs-Kriminalität und -Prostitution erhebliche Risiken eingehen und die langfristigen Folgen zu ignorieren scheinen. Wer die Hoffnung auf eine Karriere in der bürgerlichen Welt nie gehabt oder längst aufgegeben und sich mit der Perspektive eines Lebens zwischen Drogenszene, Knast und Therapie bereits abgefunden hat, dem sind die langfristigen Folgen seines Handelns vermutlich eher gleichgültig.

Wohl aber kann er auf die unmittelbare Bedürfnisbefriedigung mittels Drogen durchaus verzichten, wenn es darum geht, durch diverse legale und illegale Aktivitäten Geld für die laufenden Kosten zu beschaffen, die mit einem Leben als Substanzabhängiger alltäglich verbunden sind. In diesem Falle kann er nicht zwischen „guten“ und „schlechten“ Stapeln wählen, sondern er hat keine andere Wahl als die, sich der Geldbeschaffung für Drogen zu widmen und entsprechend vorübergehend auf unmittelbare Bedürfnisbefriedigung zu verzichten.

Er könnte sich dieser Zwickmühle nur durch die Entscheidung für eine globale Perspektive entziehen, doch zu dieser wird er durch seine Lebensumstände nicht gerade ermutigt.

Kurz: Es ist denkbar, dass diese „Gambling Task“ besser mit der Lebenssituation von „Normalen“ übereinstimmt als mit der Lage von Substanzabhängigen und dass deswegen die Normalen bei dieser Aufgabe besser abschneiden, weil sie in stärkerem Maße ihren alltäglichen Entscheidungssituationen entspricht.

Holzschnittartig formuliert: Während es sich im Leben des „Normalen“ durchaus auszahlt, zugunsten langfristiger Ziele kurzfristig auf Bedürfnisbefriedigung zu verzichten bzw. eine Einschränkung in Kauf zu nehmen, darf sich der „Drogenabhängige“ derartige Perspektiven nicht ausrechnen. Er verhält sich aber wie ein „Normaler“, wenn er durch die augenblickliche Situation dazu gezwungen wird.

Aus unterschiedlichen Lebenslagen ergeben sich unterschiedliche Lebensstile und damit auch unterschiedliche Formen der Entscheidungsfindung. Der Normale ist geübter, sich im Sinne des Experiments vorteilhaft zu verhalten, als der Substanzabhängige. Immerhin versäumen die Autoren in der abschließenden Diskussion ihres Beitrags folgenden Hinweis nicht:

Weitere Forschungen sind notwendig, um sich der Frage zu widmen, wie vorbestehende genetische Faktoren und / oder Einflüsse aus der Umwelt zu den neuronalen funktionellen Abnormitäten führen, die die Entwicklung dieser verschiedenen Störungen erklären könnten.“

Zu den weiteren Störungen, denen die von ihnen beschriebenen Dysfunktionen mutmaßlich zugrunde liegen, zählen die Verfasser die Spielsucht, die Zwangsstörung und die antisoziale Persönlichkeitsstörung.

Selbst wenn die genannten Schaltkreise tatsächlich an diesen Störungen beteiligt sein sollten, ist immer noch nicht die Frage beantwortet, ob es sich dabei nicht um nachvollziehbare, naheliegende und sinnvolle Anpassungen an Umwelten handeln könnte, in denen Menschen im Schnitt besser zurechtkommen, wenn sie ein stärkeres Gewicht auf unmittelbare Belohnungen legen und dabei die möglichen langfristigen Strafen ignorieren.

Um ein krasses Beispiel zu nennen: Während einer Hungersnot werden Menschen eventuell verschimmelte Lebensmittel essen, auch wenn sie wissen, dass dies erhebliche langfristige gesundheitliche Gefahren birgt. Sie machen dennoch satt. Ihnen deswegen neuronale funktionelle Abnormitäten zu unterstellen, wäre reichlich zynisch.

Es stellt sich grundsätzlich die Frage, ob Experimente wie die beschriebenen die Lebenslage aller Versuchsteilnehmer gleich gut widerspiegeln. Es geht ja schließlich nicht darum, nur – Kunst für die Kunst – das Verhalten in der experimentellen Situation zu erklären, sondern man möchte vom Verhalten im Experiment auf das Verhalten im realen Leben schließen.

Was in der einen Lebenslage als dysfunktional erscheint, mag in einer anderen eventuell sogar alternativlos sein. Es mag unvernünftig sein, für die Freuden täglichen, massiven Alkoholkonsums seine Ehe, seinen Arbeitsplatz, sein Wohlleben aufs Spiel zu setzen. Doch was ist mit Leuten, die keine Ehepartner haben, keinen Arbeitsplatz und deren Aussichten auf ein Wohlleben irgendeiner Art insgesamt überaus schlecht sind?

Solche Überlegungen gelten im Übrigen auch für Menschen, die Ehepartner, Arbeitsplatz, Yacht und Haus besitzen, all dies aber aus welchen Gründen auch immer nicht genießen können und keine Hoffnung haben, dass sich dies irgendwann einmal ändern wird.

Wäre es dann nicht im Grunde vernünftig, dem einzigen, was Spaß macht, dem Rauschmittel zuzusprechen, koste es, was es wolle? Anhedonie wird bekanntlich sehr häufig bei Abhängigen beobachtet (Stavros Hatzigiakoumis 2011).

Teil 3

Die Entscheidung zur Depression

Die Studie von Wang et al.

Das Spiel ging wie folgt: Die Versuchsperson saß vor einem Computer-Bildschirm. Ihr wurde ein Vorschlag zur Aufteilung eines Geldbetrages zwischen dem Vorschlagenden und der Versuchsperson präsentiert. Es gab zwei Möglichkeiten: Entweder die Versuchsperson nahm den Vorschlag an, dann teilten sich der Vorschlagende und die Versuchsperson den Betrag entsprechend dem vorgeschlagenen Verhältnis. Oder sie lehnte ihn ab. Dann gingen beide leer aus.

Die Hälfte der Vorschläge, so wurde der Versuchsperson gesagt, stamme von einem menschlichen Interaktionspartner, die andere von einem Computer-Programm. In Wirklichkeit entsprachen natürlich alle Angebote dem Versuchsplan und sie variierten hinsichtlich des Gesamtbetrages und der Fairness (d. h. des prozentualen Anteils, den der „Anbieter“ für sich reklamierte).

Ein Teil der Versuchspersonen war depressiv, der andere gehörte zu den so genannten „normalen“ bzw. „gesunden“ Menschen (in diesem Fall waren die „Normalen“ respektive die „Gesunden“ Chinesen).

Mit den gravierenden methodischen Schwächen der Studie von Wang et al. (Wang et al. 2014) müssen wir uns im vorliegenden Zusammenhang nicht auseinandersetzen. Dankenswerterweise diskutieren die Autoren die „limitations“ ihrer Untersuchung ausführlich. Dazu zählen die sehr kleine Stichprobe, die nicht gegebene Zufallsauswahl sowie die fehlende Kontrolle wichtiger Variablen (Einkommensunterschiede, Einfluss von Antidepressiva auf des Verhalten der „kranken“ Versuchspersonen etc.).

Es zeigte sich, dass die Depressiven eher geneigt waren, sehr unfaire Angebote abzulehnen als die „Gesunden“, so dass sie schlussendlich weniger Geld einnahmen als die nicht „Depressiven“. Außerdem machten sie keinen Unterschied zwischen den Angeboten der angeblich realen Menschen und des Computerprogramms. Dadurch unterschieden sie sich ebenfalls von den „Gesunden“. Letztere waren weniger bereit, extrem unfaire Angebote von Menschen als vom Computerprogramm zu akzeptieren.

Zur Erklärung ihrer Befunde warten die Autoren u. a. mit neurophysiologischen Spekulationen auf, die uns hier nicht interessieren müssen, denn was in den Gehirnen der Versuchsteilnehmer geschah, wurde in diesem Experiment schlicht und ergreifend nicht gemessen. Der Versuch war deswegen auch nicht dazu geeignet, neurophysiologische Hypothesen zu testen.

Selbst wenn wir also voraussetzen, dass der beobachtete Zusammenhang zwischen Input und Output die Verhältnisse in der Grundgesamtheit widerspiegelt, also auf einen realen Unterschied bei Entscheidungsprozessen von „Depressiven“ und „Gesunden“ verweist, so sagt uns das Experiment dennoch nicht, wie dieser Unterschied zu erklären ist.

Die Befunde sind vollständig mit der These vereinbar, dass es sich bei der so genannten Depression um ein Rollenspiel handelt; diese These habe ich in meinem Buch „Ärztliche Holzwege“23 auf folgende knappe Formel gebracht:

Psychische Krankheit“ ist gewohnheitsmäßiges Rollenspiel im Zustand der Dauerhypnose, im Sinne eines Als-ob-Handelns und zum Zwecke des Self-handicappings. Nach subjektiver Einschätzung des Betroffenen ist die „psychische Krankheit“ unter den jeweils gegebenen Bedingungen jene Alternative des Verhaltens und Erlebens, die mit dem geringsten Gesichtsverlust verbunden ist. Die „psychische Krankheit“ ist das Resultat vieler kleiner Entscheidungen, die darauf hinauslaufen, einen Gesichtsverlust in Kauf zu nehmen, um einen noch größeren Gesichtsverlust zu vermeiden.

Wer sich, zumeist infolge vieler kleiner Entscheidungen, dazu durchgerungen hat, die Rolle des Depressiven zur Gewohnheit auszuprägen, der muss sich natürlich auch rollenkonform verhalten. Zu den Merkmalen dieser Rolle gehören eine übersteigerte Sensibilität gegenüber unfairer Behandlung und ausgeprägtes Misstrauen. Den Versuchspersonen wurde mitgeteilt, dass die Vorschläge der „realen Versuchspersonen“ von früheren Versuchsteilnehmern stammten und die restlichen Vorschläge computer-generiert seien. Es ist denkbar und würde zudem auch den Merkmalen der Depressiven-Rolle entsprechen, dass die so genannten Depressiven weniger geneigt waren, den Versuchsleitern diese Lüge auch abzukaufen. Mit anderen Worten: Sie machten geringere Unterschiede zwischen „menschlichen“ und „computer-generierten“ Vorschlägen, weil sie eher dazu tendierten, beide Arten von Vorschlägen menschlichen Urhebern zuzuschreiben, als die so genannten gesunden Versuchspersonen.

Die „psychisch Gesunden“ spielen ja ebenso eine Rolle wie die „psychisch Kranken“. Zur Rolle des „psychisch Gesunden“ zählt das „Grundvertrauen“ in die Aufrichtigkeit des Gegenübers.

Die Autoren verweisen auf eine Studie, die zeigte, dass Menschen mit einer Schädigung des ventromedialen präfrontalen Kortexes ebenfalls dazu neigen, keinen Unterschied zwischen unfairen Angeboten von „Computern“ und „Menschen“ zu machen. Diese Hirnstruktur kennen wir ja bereits aus dem zweiten Teil dieser Abhandlung, wo sie für die Tendenz Substanzabhängiger verantwortlich gemacht wurde, sich für unmittelbare Belohnungen zu Lasten langfristiger Bestrafungen zu entscheiden.

Was dort gesagt wurde, gilt auch hier: Wenn zwei Menschen Fieber haben, bedeutet dies keineswegs, dass diese Störung auf derselben Ursache beruht.

Wir müssen bei diesem Experiment (wie bei jedem anderen auch) unterscheiden: zwischen dem, was sich direkt beobachten lässt und den Erklärungen für das Beobachtete. Erklärungen sind umso besser, je eindeutiger die Beziehung ist, in der sie zu den Daten stehen, die im Experiment erhoben wurden.

Im vorliegenden Experiment wurden „Gesunde“ mit „Depressiven“ verglichen. Die Depression wurde mit dem DSM-IV festgestellt. Wir wissen jedoch, dass dieses diagnostische Verfahren weder reliabel, noch valide ist. Dementsprechend stehen die Daten in einer weitgehend ungeklärten Beziehung zu dem, was mit dem Konstrukt der Depression „gemeint“ ist. Verglichen wurden de facto also nicht „Gesunde“ und „Depressive“, sondern Leute mit der DSM-Diagnose „Depression“ und solche ohne diese.

Versuche, Unterschiede zwischen diesen Gruppen ursächlich auf Grundlage von abweichenden Prozessen im Gehirn zu erklären, setzen voraus, was noch zu beweisen wäre, dass nämlich die „Depression“ tatsächlich eine Hirnerkrankung und nicht etwa die Reaktion eines Menschen mit einem intakten Gehirn auf besondere äußere Umstände ist.

Wenn sich Autoren, deren Studie massive methodische Schwächen hat, auf die Befunde anderer Autoren berufen, deren Studien ebensolche methodischen Schwächen aufweisen, so wird die Sache dadurch nicht besser, im Gegenteil: So werden falsche Gewissheiten erzeugt.

Die Übersichtsarbeit von Hindmarch et al.

In einer neueren Übersichtsarbeit beschäftigen sich Hindmarch und Mitarbeiter mit der Entscheidungsfindungskapazität von Depressiven (Hindmarch et al. 2013).

Das Konstrukt der Entscheidungsfindungskapazität setzt sich aus folgenden Komponenten zusammen: Verständnis, Einschätzung der Bedeutung von Informationen für die eigene Situation, folgerichtiges Denken und Fähigkeit, eine Wahl auszudrücken.

In die Analyse wurden englischsprachige Artikel einbezogen, die sich entweder empirisch oder aus ethischer Perspektive mit diesem Thema auseinandersetzen. Die Suche erfolgte nach Schlüsselwörtern in den einschlägigen Datenbanken; auf weitere Studien wurden die Autoren durch Kollegen aufmerksam gemacht.

Schlussendlich konnten Hindmarch und Mitarbeiter 17 Studien identifizieren, die den zuvor spezifizierten Kriterien genügten, und zwar 7 ethische und 10 empirische Studien.

In der ethischen Literatur geht es im Kern darum, ob ein Depressiver auch gegen seinen Willen, im mutmaßlich eigenen, wohlverstandenen Interesse, behandelt werden sollte, ob also seine Entscheidungsfindungskapazität krankheitsbedingt beeinträchtigt sei oder nicht.

Hier prallen demgemäß Meinungen aufeinander, die der „philosophierenden“ Mediziner auf der einen und die der Betroffenen auf der anderen Seite. Diesen Punkt überspringe ich in meiner Zusammenfassung des Übersichtsartikels von Hindmarch und seinen Mitarbeitern. Wer an derartigen Meinungen interessiert ist, mag die Originalarbeiten konsultieren.

In der empirischen Literatur werden vor allem Defizite bei der Informationseinschätzung, aber zudem auch noch weitere Mängel beim Verständnis und beim logischen Denken, berichtet. Die Zahl der empirischen Studien ist klein und in allen Untersuchungen wurde die Entscheidungsfindungskapazität von Psychiatern, meist mit Hilfe semi-strukturierter Instrumente, z. B. dem MacCAT, „gemessen“ (Grisso et al. 1997).

Die Autoren schlussfolgern:

Diese Übersichtsarbeit beleuchtet eine überraschend spärliche Literatur über Themen mit bedenkenswerter ethischer, klinischer und politischer Bedeutung. Sie zeigt jedoch, dass ein Anfang gemacht wurde zu erforschen, wie die Entscheidungsfindungskapazität bei Depressionen verstanden, gemessen und unterstützt werden kann. Strengere klinisch ethische Studien, die darauf zielen, Situationseinschätzung und vergleichbare Fähigkeiten bei der Depression zu interpretieren und zu modellieren, sind notwendig, weil die meisten Untersuchungen bisher auf klinischer Erfahrung (und dabei das Recycling von klinischer Meinung anstatt der Erzeugung neuen Wissens riskierend) oder auf Fallstudien (und dabei unangemessene Daten riskierend) fußten.“

Kurz: Eine Übersicht zum Stand der empirischen Forschung zur Entscheidungsfindungskapazität bei Depressiven ergibt ein Bild kompletter Unzulänglichkeit. Es fehlen vor allem experimentelle Studien, die einen Vergleich der Entscheidungsfindungskapazität bei „Depressiven“ und bei „Normalen“ unabhängig vom „klinischen Urteil“ von Psychiatern gestatten.

Psychiater unterstellen üblicherweise, dass der „depressive“ Patient krank sei und unter einer Hirnstörung leide. Diese (im Übrigen) unbewiesene These wird selbstverständlich auch ihr Urteil darüber prägen, ob Patienten ihre Situation „richtig“ verstehen, ob sie die Notwendigkeit einer Behandlung „korrekt“ einschätzen, ob sie dabei den Regeln des logischen Denkens folgen und ob sie ihre Entscheidungen angemessen ausdrücken können.

Selbst wenn die Übereinstimmung zwischen Psychiatern hoch sein sollte, ist damit noch keineswegs erwiesen, dass sie deswegen zu einem objektiven Urteil gelangen.

Beim MacCAT beispielsweise analysieren die Kliniker während eines 20-minütigen Gesprächs die Fähigkeit des Patienten, die zur „Krankheit“ und zur „Behandlung“ gegebenen Informationen zu verstehen, den Bezug dieser Informationen zur eigenen Situation herzustellen und dabei zu angemessenen Schlussfolgerungen zu gelangen. Sie schätzen diese Fähigkeiten dann mithilfe von Punktwerten ein: „2“ = angemessen, „1“ = teilweise und „0“ = unangemessen.

Aus meiner Sicht ist die Aussagekraft eines solchen Vorgehens mit „0“ zu beziffern. Es ist aus diesen Daten nämlich nicht abzuleiten, in welchem Maße sie den mentalen Zustand des „Patienten“, des „Klinikers“ bzw. des psychiatrischen Systems insgesamt widerspiegeln.

Während Psychiater die angeblichen Defizite der Entscheidungsfindung als Ausdruck einer Hirnstörung deuten, ist dies im Licht der empirischen Forschung allerdings zu bezweifeln, denn bisher konnte ein Hirnprozess, der für derlei Defizite verantwortlich zeichnet, noch nicht identifiziert werden.

Eine Studie kommt beispielsweise zu einem Resultat, das angesichts der These von den Hirnstörungen eigentlich verblüffen müsste:

Dank minimaler Intervention verschlechterte sich die Qualität der Entscheidungen nicht mehr als eine Funktion der Schwere der Symptome. Vielmehr waren nur wenige Assoziationen zwischen depressiver Symptomschwere und entscheidungsbezogenen Zielen und Prioritäten evident, was darauf hindeutet, dass die24 Schwierigkeiten depressiver Menschen mit der Entscheidungsfindung weitgehend das Resultat ihres Versagens sind, effektive Entscheidungstechniken anzuwenden (Leykin et al. 2011).“

Diese Studie harrt meines Wissens noch der Replikation25 und ist daher mit Vorsicht zu genießen; aber unter diesem Vorbehalt ist es sicher gestattet hinzuzufügen, dass der Verzicht auf angemessene Entscheidungstechniken zur „depressiven Rolle“ gehört. Wird der „Patient“ aber gezwungen, sich effektiver zu entscheiden, dann verschwindet die angebliche Hirnstörung wieder im Reich der Mythen.

Die Autoren des soeben zitierten Artikels schreiben:

… Schlüsselaspekte des Entscheidungsfindungsprozesses wurden durch Instruktionen kontrolliert, die sie26 durch die Schritte des Entscheidens geleiteten, um auf diese Weise sicherzustellen, dass alle Teilnehmer dieselben Werkzeuge zur Entscheidungsfindung einsetzten.“

Kurz: Optimale Entscheidungen bei Depressiven könnten vielleicht gar keine Frage des Vermögens, sondern des Wollens sein.

Es wäre interessant, experimentell zu untersuchen, ob sich die Qualität der Entscheidungsfindung bei Depressiven (auch auf schwierigen Gebieten wie beispielsweise der Behandlung oder gar der Gesundung) durch systematische Anreize verbessern lässt.

Wenn die These zutrifft, dass die Übernahme der „depressiven Rolle“ durch den „Erkrankten“ durch Anreize begünstigt wurde, dann sollte es eigentlich möglich sein, ihn durch entsprechend mächtigere Verstärkungen dazu zu motivieren, aus der freiwillig übernommenen Rolle zu fallen.

Die Studie von Huys et al.

In der Studie von Huys und Mitarbeitern (Huys et al. 2012) geht es nicht um spezifische Merkmale der Entscheidungsfindung bei Depressiven, sondern um einen Aspekt der Entscheidungsfindung bei allen Menschen, eine „Pawlowsche Strategie“, die aber, so mutmaßen die Autoren, mit milder Depression zusammenhängt und daher einen Ansatzpunkt für die Untersuchung von Entscheidungsfindung bei Depressiven bieten könnte.

Der Grundgedanke dieses Experiments lässt sich wie folgt skizzieren: Selbst einfache Probleme, denen der Mensch im Alltag begegnet, können auf unterschiedlichen Wegen gelöst werden. Jeder dieser Wege ist mit einer Sequenz von Entscheidungen verbunden. Aufgrund der Komplexität dieser Sequenzen und der mit ihnen verbundenen jeweiligen Konsequenzen ist es unmöglich, den jeweiligen Entscheidungsbaum nach der Brute-Force-Methode vollständig zu berechnen. Menschen sind daher gezwungen, den Entscheidungsbaum zu beschneiden (Pruning the decision tree). Es gibt Algorithmen, um Äste des Entscheidungsbaumes aus der Betrachtung auszuschließen, wenn sie garantiert weniger gut sind als bereits durchdachte; allerdings ist auch diese systematische Vorgehensweise sehr aufwändig und kommt daher für die meisten alltäglichen Situationen nicht in Frage.

Die Autoren schreiben:

Alltägliche Probleme, wie die Navigation oder das Kochen, mögen aus diesem Grunde dazu zwingen, Präzision gegen Geschwindigkeit zu tauschen und die algorithmischen Garantien durch mächtige – doch näherungsweise und möglicherweise suboptimale – Heuristiken zu ersetzen.“

Die „Pawlowsche Strategie“ besteht darin, den entsprechenden Teil eines Entscheidungsbaumes abzuspalten, sobald sich der Entscheider mit einem möglichen großen Verlust konfrontiert sieht. Diese Abspaltung erfolgt reflexhaft, unabhängig davon, ob bei den weiteren Entscheidungen, die sich an den ursprünglichen starken Verlust anschließen, wieder Gewinne herausspringen könnten, die den Verlust zumindest ausgleichen.

Der Vorteil dieser Reaktion besteht also darin, „Rechenzeit“ einzusparen, der Nachteil ist darin zu sehen, dass ein u. U. gleichwertiger oder lohnenderer Entscheidungsweg nicht mehr berücksichtigt wird. Ein weiteres Charakteristikum dieses Reflexes zeigt sich darin, dass er u. U. beibehalten wird, auch wenn er sich eindeutig als suboptimal herausgestellt hat.

Das Experiment bestand aus einer Entscheidungsaufgabe, die unter drei verschiedenen Bedingungen bewältigt werden musste. Unter der ersten Bedingungen war das „Pruning“ des Entscheidungsbaums nicht mit Kosten verbunden, d. h., wenn die Versuchspersonen den Ast des Entscheidungsbaums, der unterhalb hoher Kosten lag, nicht mehr beachteten, durften sie dennoch mit einem gleich guten Ergebnis rechnen, als ob sie sämtliche Entscheidungsmöglichkeiten gedanklich voll ausgeschöpft hätten.

Unter den beiden restlichen Versuchsbedingungen war das Beschneiden jedoch mit steigenden Kosten verbunden. Die Versuchspersonen tendierten unter der ersten Versuchsbedingung zu extensivem Pruning und sie behielten diese Tendenz auch unter den folgenden Bedingungen trotz der steigenden Kosten bei.

Die Autoren schreiben:

Diese Resultate legen nahe, dass Beschneiden (pruning) eine Pawlowsche Reaktion ist, in dem Sinne, dass sie nicht zielgerichtet ist und sich nicht an die Anforderungen der Aufgabe anpasst, sondern das es sich hier eher um eine unflexible Strategie handelt, die reflexhaft bei Begegnung mit Bestrafungen angewendet wird.“

Die Ausprägung der Neigung, die Lösungssuche nach starker Bestrafung einzuschränken (pruning of the decision tree), korrelierte mit den Werten in Becks Depressions-Inventar. Je stärker die Neigung zum Pruning, desto höher die Depressionswerte.

Bei den Versuchspersonen handelte es sich allerdings nicht um ausgeprägt „Depressive“; es ergab sich demgemäß eine positive Korrelation zwischen dem Beschneiden des Entscheidungsbaums und „subklinischen“ Merkmalen einer „Depression“.

Hier wird jedoch ein kleines Problem mit der psychiatrischen Theorie, dass Serotonin-Mangel für Depressionen verantwortlich sei, offenbar. Serotonin fördert nämlich Prozesse der Hemmung und damit auch die „Pawlowsche Reaktion“. Ein Serotonin-Mangel müsste dementsprechend die Neigung zum Pruning abschwächen.

Dieser Widerspruch wird von den Autoren jedoch elegant hinwegerklärt:

… diese Theorie sagt exzessives Pruning bei Menschen mit einem Risiko für Depressionen und reduziertes Pruning während einer depressiven Episode voraus.“

Die Theorie müsse aber noch in weiteren Studien empirisch erhärtet werden. Nebenbei sei bemerkt, dass die Serotonin-Hypothese inzwischen im Licht der empirischen Forschung als gescheitert betrachtet werden muss (Gøtzsche 2013).

Doch viele Psychiater bemühen sich redlich, die Serotonin-Hypothese zu retten, indem sie durch viele Zusatzannahmen die zahllosen widersprüchlichen Ergebnisse zum Thema „Serotonin und Depression“ unter einen Hut zu bringen trachten.

Dass der Pawlowsche Reflex zum rigiden Beschneiden von Entscheidungsbäumen in komplexeren Entscheidungssituationen angesichts massiver Bestrafung tatsächlich existiert, will mir plausibel erscheinen – und dass diese Tendenz bei dem einen stärker ausgeprägt sein mag als bei dem anderen, ebenfalls.

Ob es allerdings sinnvoll ist, diesen Effekt vermittels neuropsychologischer Spekulationen mit der „Depression“ bzw. einem „Depressions-Risiko“ in Verbindung zu bringen, ist doch recht fraglich.

Verwunderlich ist auch, am Rande bemerkt, die Behauptung der Autoren, dass sich „Medikamente“, die den Serotoninspiegel beeinflussen, als hilfreich zur Behandlung und Verbeugung der „Depression“ erwiesen hätten. Dass Antidepressiva mehr schaden als nutzen, dürfe inzwischen feststehen (Gresch 2014a).

Kognitivismus

Nach vorherrschender kognitivistischer Lehre sind Depressive massive Pessimisten, die dazu neigen, negative Lebensereignisse intern, global und stabil zu interpretieren. Motto: Es war meine Schuld, es ist typisch für mein Leben im Allgemeinen und daran wird sich auch in Zukunft nichts ändern (Abramson et al 1978). Menschen, die in Berufen arbeiten, an die eine solche Einstellung angepasst ist (beispielsweise, laut Seligman, Anwälte in den Vereinigten Staaten), sind nach dieser Theorie besonders gefährdet, depressiv zu werden (Seligman 2002: 175 f.).

Man kann diese Haltung (intern, global und stabil) allerdings auch im Sinne der Stoa derart reformulieren, dass sie nicht zwangsläufig zu Gemütsverstimmungen führen muss:

Nichts ist an sich schrecklich. Wenn mir etwas als schrecklich erscheint, dann nur, weil ich selbst es so interpretiert habe. Nichts kann uns im Leben vor Widrigkeiten und Zufällen schützen. Und daran wird sich auch in Zukunft nichts ändern.

Ein Stoiker wird diese existenzielle Bedingung des Menschseins, einschließlich der eigenen Schwächen, in stoischer Haltung hinnehmen und nicht depressiv werden. Interne, globale und stabile Kausalattributionen machen demgemäß aus meiner Sicht nicht grundsätzlich depressiv.

Die kognitivistischen Theorien der Depression kranken an dem Mangel, dass sie erst gar nicht die Frage stellen, welchen Nutzen ein Depressiver aus der Tatsache zieht, dass er die Rolle des Depressiven spielt. Dass damit ein Nutzen verbunden sein kann, ist ja eigentlich offensichtlich. Wenn beispielsweise ein Mensch, der an seiner Arbeitsstelle schikaniert wird, sich vom Arzt als „depressiv“ krankschreiben lässt, dann ist damit natürlich eine Entlastung verbunden.

Der übliche Einwand gegen die Theorie des Rollenspiels lautet, dass die Depressiven ja fürchterlich litten und es keinen Grund gäbe, ihnen zu unterstellen, sie simulierten das Leiden nur. Hier liegt aber eine Verwechslung vor. Rollenspiel ist nicht stets Simulation. Man kann auch von einer Rolle so sehr absorbiert sein, dass man sie für den Ausdruck der eigenen Identität hält, selbst wenn man sich dazu entschieden hat, sie zu spielen und sich prinzipiell auch dazu entscheiden könnte, sie aufzugeben.

Manche sind beispielsweise von der Idee, psychisch krank zu sein, so tief durchdrungen, dass sie gar keinen Gedanken daran verschwenden können, sie selbst seien es, die sich aktiv bemühen, der Rolle des „psychisch Kranken“ in allen Facetten und Nuancen gerecht zu werden.

Hier stellt sich dann allerdings der Anschlussfrage, wie diese Absorption verstärkt wird. Es mag für viele sehr schwierig sein, dauerhaft einen Zustand vorzutäuschen, in dem man sich wissentlich nicht wirklich befindet. Es fällt leichter, die Rolle des „psychisch Kranken“ zu spielen, wenn man glaubt, es tatsächlich zu sein.

Man entscheidet sich meist nicht schlagartig dazu, die Rolle des „psychisch Kranken“ zu übernehmen, vielmehr tastet man sich an diese Rolle heran. Das Individuum lernt, meist unbewusst, dass es dieser Rolle nur dann gewachsen ist, wenn es sich von dieser absorbieren lässt. Die Reaktionen der Mitwelt bahnen den Weg dorthin.

Aber der Depressive leidet doch! So lautet der Standard-Einwand gegen diesen Schlenker. Wenn er sich mit der Rolle des Depressiven identifiziert, bleibt ihm schließlich ja auch nichts anderes übrig als zu leiden. Sicher, er leidet. Er nimmt dieses Leiden in Kauf, weil er damit noch größerem Leiden zu entkommen hofft.

Ein Hund, der auf der einen Seite des Käfigs einen starken Stromstoß erhält, lernt, über eine Barriere auf die andere Seite der Box zu springen, sofern er dort nur einen schwächeren Schlag erhält. Diese Prozesse müssen nicht bewusst sein. Sonst handelte es sich bei der Depression ja auch um eine Simulation. Und das ist sie vermutlich zumeist nicht.

Diese „Theorie“ der „Depression“ ist z. Z. noch nicht bewiesen. Sie stellt vielmehr eine Mutmaßung dar, für die keinen wissenschaftlichen Anspruch für sich reklamieren kann. Sie beruht auf Plausibilität. Einerseits gibt es keinerlei Hinweise auf gestörte Hirnprozesse, die der Depression ursächlich zugrunde liegen könnten; die Serotonin-These ist grandios gescheitert, Neues ist bisher noch nicht nachgewachsen. Andererseits sind die Vorteile, die sich infolge einer „depressiven Erkrankung“ einstellen können, unübersehbar; der „Krankheitsgewinn“ liegt auf der Hand.

Und der Suizid? Muss angesichts solcher ultimativen „Lösungen“ nicht jede Mutmaßung verstummen? Fakt ist: Glücklicherweise scheitern die allermeisten Selbstmordversuche.27 Liegt es da nicht nahe zu erwägen, dass viele dieser Suizidversuche – bewusst oder unbewusst – gar nicht in der Absicht unternommen werden zu sterben? Gehört der Selbstmordversuch vielleicht zum „depressiven“ Rollenspiel; wird er eventuell sogar verstärkt? Ist mancher gelungene Suizid womöglich sogar ein misslungenes Rollenspiel, das entgegen der eigentlichen – bewussten oder unbewussten – Absicht, tödlich endete?

What is it like to be a bat? In seinem berühmten Aufsatz (Nagel 1974) mit diesem Titel zeigt der amerikanische Philosoph Thomas Nagel, dass es für uns unmöglich ist zu wissen, wie sich eine Fledermaus fühlt. Wir können den subjektiven Standpunkt der Fledermaus nicht einnehmen und daher niemals erfahren, was es ist, eine Fledermaus zu sein.

Können wir wissen, was es ist, ein „Depressiver“ zu sein? Natürlich, lautet die spontane Antwort, denn zumindest Anflüge einer „depressiven Verstimmung“ sind niemandem fremd; den Rest erledigt die Fantasie und das Einfühlungsvermögen.

Nun ja, das mag sein. Wenn wir aber darüber nachdenken, was es ist, ein „Depressiver“ zu sein, dann machen wir uns selbst, im Falle eigener „Depressionen“, zum Objekt der Reflexion. Nach Daniel Kahneman müssen wir aber zwischen einem erlebenden und einem reflektierenden Selbst unterscheiden. Diese „Selbste“ sind nicht identisch. Das reflektierende Selbst schöpft aus der Erinnerung an das erlebende Selbst und solche Erinnerungen können verfälscht sein, ja, sie sind es nachweislich sehr oft sogar (Kahneman 2011).

Daraus folgt, dass wir nicht wissen können, was es ist, ein „Depressiver“ zu sein, selbst wenn wir uns schon als „depressiv“ erlebt haben.

Laut einer bedenkenswerten und experimentell erhärteten Theorie von Daryl Bem (1967) erschließen wir unsere Einstellungen aus dem Verhalten, das wir an uns beobachten, da wir in aller Regel keine anderen eindeutig interpretierbaren Informationen zu unseren Einstellungen besitzen.

Dies dürfte nicht nur für Einstellungen, sondern auch für psychiatrische Diagnosen wie die der „Depression“ gelten. Man beobachtet das für „Depressive“ angeblich charakteristische Verhalten an sich (die Medien werden nicht müde, uns die „Symptome“ vor Augen zu führen) und schließt daraus, dass man „depressiv“ sei.

Niemand weiß, was es ist, ein „Depressiver“ zu sein, wohl aber wissen wir, welche beobachtbaren Verhaltensweisen angeblich darauf hinweisen.

Und so haben wir auch zumindest eine Ahnung davon, mit welchen Konsequenzen (Lohn und Strafe) „depressives“ Verhalten verbunden ist. Dass menschliche Entscheidungen von solchen Ahnungen beeinflusst werden, steht außer Frage.

Fazit

Das Augenmerk der psychiatrischen Wissenschaft konzentriert sich in erster Linie auf mutmaßliche „Defekte“ der Entscheidungsfindung bei den so genannten psychisch Kranken. Weniger Beachtung (wenn überhaupt) findet der Gedanke, dass die Entscheidungsfindungsprozesse bei „psychisch Kranken“ völlig normal sein und auf intakten Hirnprozessen beruhen könnten, und dass sie womöglich nur zu anderen als „normalen“ Entscheidungen gelangen, weil ihre Lebensumstände nicht normal sind.

Auch wenn es dafür keine schlüssigen Beweise gibt, ist es natürlich denkbar, dass die Wahrscheinlichkeit, die Rolle des „psychisch Kranken“ zu übernehmen, teilweise von den Erbanlagen abhängt. Selbstredend sind auch die Umweltfaktoren nicht zu leugnen, die Menschen geneigt stimmen, sie vielleicht sogar nötigen, sich diese Rolle anzuverwandeln.

Dennoch spricht wenig dafür, dass Erbanlagen und Umweltfaktoren allein zu erklären vermögen, warum ein Mensch in eine solche Rolle schlüpft.

Letztlich fehlt das I-Tüpfelchen, das den Ausschlag gibt. Es mag sein, dass es sich dabei um den freien Willen handelt. Wer dem Menschen einen solchen nicht zugestehen will, kann stattdessen auch von „Zufall“ sprechen. Es läuft letztlich auf dasselbe hinaus, von außen betrachtet. Und von innen? Dies möge und muss der Leser selbst entscheiden!

Literatur

Abramson, L. Y. et al. (1978). Learned helplessness in humans: Critique and reformulation. Journal of Abnormal Psychology, 87, 49-74

Bechara, A. & Damásio, H. (2002). Decision-making and addiction (part I): impaired activation of somatic states in substance dependent individuals when pondering decisions with negative future consequences. Neuropsychologia 40, 1675–1689

Bechara, A., Dolan, S. & Hindes, A. (2002). Decision-making and addiction (part II): myopia for the future or hypersensitivity to reward? Neuropsychologia 40, 1690–1705

Bem, D. J. (1967). Self-Perception: An Alternative Interpretation of Cognitive Dissonance Phenomena. Psychological Review, 74, 183-200

Cattapan-Ludewig, K. et al. (2008). Decision-Making Dysregulation in First-Episode Schizophrenia. J Nerv Ment Dis;196: 157–160

Cook, T. D. & Campbell, D. T. (1979). Quasi-Experimentation. Design & Analysis Issues for Field Settings. Boston: Houghton Mifflin Company

Dalrymple, T. (2010). Spoilt Rotten. The Toxic Cult of Sentimentality. London: Gibson Square Books

Damásio, A. R. (1997). Descartes‘ Irrtum. Fühlen, Denken und das menschliche Gehirn. München: Deutscher Taschenbuch Verlag

Damasio, A. R. (2001). Descartes‘ Irrtum. Fühlen, Denken und das menschliche Gehirn. München: Deutscher Taschenbuch Verlag

Damásio, A. R. & Anderson, S. W. (2003). The frontal lobes. In: Heilman, K. et al. Clinical Neuropsychology. Oxford: Oxford University Press, Seiten 404 – 446

Freud, S. (1904). Die Psychopathologie des Alltagslebens. Berlin: Verlag von S. Karger

Gilovich, T., Vallone, R. & Tversky, A. (1985). The hot hand in basketball: On the misperception of random sequences. Cognitive Psychology, 17, 295-314

Glasser, W. (1999). Choice Theory. New York: Harper Perennial

Gøtzsche, P. C. (2013). Deadly Medicines and Organised Crime: How Big Pharma has Corrupted Healthcare. Radcliffe

Greenberg, G. (2013). The Book of Woe. The DSM and the Unmaking of Psychiatry. New York: Penguin Books, Seite 336

Grisso, T. et al. (1997). The MacCAT-T: A Clinical Tool to Assess Patients’ Capacities to Make Treatment Decisions. Psychiatric Services, 48 (11), 1415-1419

Heyman, G. M. (2009). Addiction: A Disorder of Choice. Harvard: Harvard University Press

Hindmarch, T. et al. (2013). Depression and decision-making capacity for treatment or research: a systematic review. BMC Medical Ethics 2013, 14:54

Huys Q. J. M. et al. (2012) Bonsai Trees in Your Head: How the Pavlovian System Sculpts Goal-Directed Choices by Pruning Decision Trees. PLoS Comput Biol 8(3): e1002410

Kahneman, D. (2011). Thinking – Fast and Slow. London: Macmillan

Kirk, S. A. et al. (2013). Mad Science: Psychiatric Coercion, Diagnosis, and Drugs. Piscataway, N. J.: Transaction

Lewis, M. (2012). Why Addiction is NOT a Brain Disease. PLOS Blogs, Nov 12

Leykin, Y. et al. (2011). Decision-Making and Depressive Symptomatology. Cogn Ther Res (2011) 35:333–341

Moonesinghe R, Khoury MJ, Janssens ACJW (2007) Most Published Research Findings Are False—But a Little Replication Goes a Long Way. PLoS Med 4(2): e28. doi:10.1371/journal.pmed.0040028

Mortimer, A. M. (2007). Symptom rating scales and outcome in schizophrenia. The British Journal of Psychiatry, 191: s7-s14

Nagel, T. (1974). What is it like to be a bat? The Philosophical Review LXXXIII, 4 (October 1974): 435-50

Paulus, M. P. et al. (2001). Trait Contributions of Complex Dysregulated Behavioral Organization in Schizophrenic Patients. Biol. Psychiatry 49:71–77

Paulus, M. P. (2005). Neurobiology of decision-making: Quo vadis? Cognitive Brain Research 23, 2 – 10

Satel, S. & Lilienfeld, S. O. (2013). Brainwashed. The Seductive Appeal of Mindless Neuroscience. New York, N. Y.: Basic Books

Schaler, J. A. (2002). Addiction is a Choice. Psychiatric Times, Oct 1

Seligman, M. (2002). Authentic Happiness: Using the New Positive Psychology to Realize Your Potential for Lasting Fulfillment. New York: Free Press

Staddon, J. (2014). The New Behaviorism. New York, N. Y.: Psychology Press

Stanovich, Keith E. (2009). What Intelligence Tests Miss: The Psychology of Rational Thought (1 ed.). Yale University Press

Stavros Hatzigiakoumis, D. et al. (2011). Anhedonia and Substance Dependence: Clinical Elaborates and Treatment Options. Front Psychiatry. 2011; 2: 10

Uttal, W. R. (2011). Mind and Brain. A Critical Appraisal of Cognitive Neuroscience. Cambridge: MIT Press

Verdejo-García, A. & Bechara, A. (2009). A somatic-marker theory of addiction. Neuropharmacology, 56(Suppl 1): 48–62

Wang, Y. et al. (2014) Impaired social decision making in patients with major depressive disorder. BMC Psychiatry 2014, 14:18

Ein Beispiel ist die „Primäre Hypersomnie“ (F51.1), denn hinsichtlich der Frage, ob man schläfrig sei, kann man sich recht eigentlich nicht irren.

Randnotiz: Dies darf aus gutem Grund bezweifelt werden.

Dies bezieht sich auf Gesichtspunkte, die er zuvor bei einer Analyse der Irrtümer herausarbeitete, die ihm bei seinem Buch „Die Traumdeutung“ unterlaufen sind.

Wer sich mit der Bayes-Statistik auskennt, wird hier vielleicht widersprechen. Es sei eingeräumt, dass die Sherlock-Holmes-Methode unter Umständen auch jenseits von Romanen brauchbare Resultate liefert, wenn die Bedingungen überschaubar, relativ konstant sind und wenn ein solides Vorwissen existiert.

Die Unterschiede der Forschungsmethoden können knapp auf folgende Formel gebracht werden: Freud erklärt menschliches Verhalten durch unbewusste Prozesse. Diese können nicht direkt beobachtet, sie müssen erschlossen werden: aus Fehlleistungen, Witzen, Träumen, „Symptomen“ psychischer Störungen. Die moderne Psychiatrie erklärt menschliches Verhalten durch Hirnprozesse. Diese können (zumindest zur Zeit) nicht direkt beobachtet, sie müssen aus makroskopischen Signalen abgeleitet werden (z. B. EEG, fMRI). Einzig die behavioristische Psychologie stützt sich bei ihren Verhaltenserklärungen auf direkt beobachtbare Fakten, nämlich das Verhalten.

Stellen wir uns beispielsweise vor, Paul entstamme einer Kultur, in der es als unschicklich gilt, immer der Beste sein oder den größtmöglichen Gewinn herausholen zu wollen.

Noch nicht einmal eine hohe Intelligenz schützt vor Irrtümern, da Rationalität und Intelligenz nur schwach miteinander korrelieren, wie Stanovich (2009) in seinem Buch über die Mängel von Intelligenztests belegt.

Die Ergebnisse der bisherigen Forschung zur PANSS rechtfertigen bisher noch keine Empfehlung für den klinischen Einsatz dieses Instruments; beispielsweise konnten die kognitiven Items dieses Instruments 66 Prozent der Varianz des globalen kognitiven Funktionsniveaus nicht erklären, siehe: Mortimer 2007.

„chose to depress“

10 „Generisch“ bedeutet, dass sich etwas auf eine Klasse verwandter Fälle anwenden lässt.

11 Mit diesem Begriff bezeichnet die genetische Psychiatrie Symptome mit einem mutmaßlich engen Zusammenhang mit den Erbanlagen.

12Siehe z. B.: Kirk et al. (2013).

13 Vorhersage

14 Unter Substanzabhängigen werden im Folgenden alle Abhängigen von Stoffen verstanden, also von legalen und illegalen Drogen – im Unterschied zu den nicht an Stoffe gebundenen Süchtigen, wie zum Beispiel den Spiel-, Kauf- oder Sex-Süchtigen.

15 SDI = substanzabhängige Individuen

16 Der Mandelkern (Amygdala) ist im Besonderen bei der Entstehung von Angst und ganz allgemein an der Regulation emotionaler Reaktionen beteiligt.

17 Im Gegensatz zum Fehler erster Art lässt sich der Fehler zweiter Art nicht berechnen. Wird also die Nullhypothese beibehalten, so ist dies stets mit einer Irrtumswahrscheinlichkeit verbunden, deren Größe sich nicht exakt bestimmen lässt. Der Fehler zweiter Art hängt mit der Trennschärfe des Tests zusammen. Die Trennschärfe (Power) eines statistischen Tests ist die Wahrscheinlichkeit, dass er die Nullhypothese korrekt verwirft, wenn sie falsch ist. Die Power hängt u. a. von der für den Fehler erster Art gewählten Irrtumswahrscheinlichkeit, von der Stichprobengröße und von der Größe des „wahren“ Effekts in der jeweiligen Population ab. Dieser „wahre“ Effekt ist aber unbekannt und kann daher nur geschätzt werden. Man kann die Effektgröße auf Basis bisheriger Studien zu dem in Rede stehenden Phänomen bestimmen. Doch das ist schieres Glatteis. Einer der Gründe dafür wird „Publication Bias“ genannt. Forscher neigen dazu, nur signifikante Befunde zu veröffentlichen und die Studien mit nicht-signifikanten Ergebnissen in der Schublade verschwinden zu lassen. Das Ergebnis ist eine Überschätzung des wahren Effekts. Je kleiner der wahre Effekt, desto größer ist der die Wahrscheinlichkeit eines Fehlers zweiter Art.

18 Diese ist ein Maß für Stress und emotionale Erregung.

  • 19 Der Unterschied zwischen VM-Patienten und Menschen mit Amygdala-Läsionen besteht darin, dass VM-Patienten eine bestrafungsbezogene elektrodermale Aktivität ausprägen, wohingegen dies bei Amygdala-Patienten nicht der Fall ist. Darüber hinaus prägen VM-Patienten eine konditionierte elektrodermale Aktivität aus, Amygdala-Patienten aber nicht.

20 Hier stellt sich allerdings die Frage, ob es nicht sinnvoller gewesen wäre, zunächst zu versuchen, das ursprüngliche Experiment zu replizieren, zumal dies ohnehin, aufgrund einer Modifikation der Hypothese im Verlauf der Studie und anderer methodischer Mängel, allenfalls als explorativ bzw. „heuristisch“ verstanden werden kann. Aber selbst wenn ein Experiment, das inferenzstatistisch ausgewertet wird, einwandfrei ist, muss es, aus wahrscheinlichkeitstheoretischen Gründen, erst mehrfach, von unabhängigen Forschern und in unterschiedlichen Institutionen, repliziert worden sein, bevor die Resultate ernst genommen werden können. Siehe: Moonesinghe et al. 2007.

21 Bechara und Mitarbeiter haben wegen dieser Tatsache ein Paradox zu erklären: Wenn einige Substanzabhängige sich tatsächlich wie bestimmte Hirngeschädigte verhalten und nicht willens oder in der Lage sind, die langfristigen Konsequenzen ihres Konsums zu bedenken, wie kann es ihnen dann gelingen, das Geld für Drogen und diese selbst durch legale oder illegale Tätigkeit zu beschaffen? Stellen wir uns einmal vor, ein Heroinsüchtiger habe noch ein Tütchen Stoff, müsse aber, um die Versorgung auf Dauer aufrecht zu erhalten, auf Diebestour gehen oder sich prostituieren. Hätten Bechara und Mitarbeiter recht mit ihrer These, so wäre doch ein Teil der Drogenabhängigen mit diesem Sachstand heillos überfordert. Diese Drogenabhängigen mit „Dysregulation“ würden schließlich, aufgrund ihrer Unfähigkeit, eine dauerhafte Versorgung aufrecht zu erhalten, früher oder später von selbst geheilt, mangels Stoff. Um eine derartige Sucht zu finanzieren, muss man nämlich ständig aktiv sein und nicht nur dann, wenn einen die Entzugserscheinungen plagen – wobei es zusätzlich zu bedenken gilt, dass man während eines Abstinenzsyndroms kein besonders guter Autodieb, Dealer und auch kein guter Verkäufer des eigenen Körpers ist.

22 in der Entscheidungsfindung

23 Fußnote entfernt

24 in einem vorhergehenden Experiment gezeigten

25 Der Grund für das Scheitern der meisten Replikationsversuche dürfte vor allem darin bestehen, dass es sich bei vielen der angeblich signifikanten Ergebnisse statistischer Tests um Scheinsignifikanzen handelt, dass also die reale Irrtumswahrscheinlichkeit die nominelle (meist 5 Prozent) bei weitem überschreitet. Siehe: Staddon 2014.

26 die Depressiven

27 National Center for Injury Prevention and Control: Suicide

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.