Quantcast
Channel: Lexikon der Psychiatriekritik »» Hans Ulrich Gresch
Viewing all articles
Browse latest Browse all 323

Psychiatrie, Diagnostik, Fehlerquellen

$
0
0

Die psychiatrischen “Krankheitsbilder” beruhen nicht auf empirischer Forschung, sondern auf der Mehrheitsmeinung in Psychiatergremien. Weder das amerikanische DSM, noch der psychiatrischer Teil der ICD (WHO) wurden jemals validiert. Die diagnostischen Kategorien kamen teilweise unter haarsträubenden Bedingungen zustande, wobei beispielsweise mitunter der Lautstärkste darüber entschied, ob eine “Krankheit” in das diagnostische Handbuch aufgenommen wurde oder nicht. Dies wird in den Bücher von Davies (19) und Greenberg (20) sorgfältig dokumentiert. Da es also keine objektiven Verfahren gibt, die eine psychiatrische Diagnose stützen könnten, ist der Arzt vor allem auf die folgenden drei Informationsquellen angewiesen:

  1. Beobachtung de Verhaltensweisen des Patienten im Arztzimmer oder in der Klinik
  2. Auskünfte des Patienten über sich selbst und seine Weltsicht
  3. Informationen aus dritter Hand (Angehörige, Vorbehandler, Polizei etc.)

Es dürfte sich also von selbst verstehen, dass eine psychiatrische Diagnose unter diesen Bedingungen nur subjektiv sein kann. Es mag zwar auch objektive Daten geben, wie beispielsweise rechtskräftige Verurteilungen oder Erkrankungen; aber dabei handelt es sich keinesfalls um Biomarker einer „psychischen Störung“. Dies bedeutet zwangsläufig, dass psychiatrische Diagnosen denselben potenziellen Verzerrungen unterliegen wie die Wahrnehmung und Beurteilung von Personen im Allgemeinen. Die folgende Exkursion ist nur ein Streifzug durch die wundersame Welt der kognitiven und affektiven Verzerrungen, die ein Psychiaterhirn, wie jedes andere auch, beeinträchtigen können.

  • Bestätigungsfehler (1). Hierunter verstehen wir die Tendenz, nur noch nach Informationen zu suchen, die eine einmal gefasste Meinung bestätigen. Entsprechend werden Informationen, die diese widerlegen, ignoriert oder entwertet und schnell wieder vergessen. Die Bedeutung dieses Fehlers in diagnostischen Prozessen wurde eindrucksvoll durch das Rosenhan-Experiment belegt. Hier wurden, um den Wert psychiatrischer Diagnostik zu testen, “normale” Menschen, ohne Wissen der behandelnden Ärzte, als Pseudo-Patienten in psychiatrische Kliniken geschickt. Um aufgenommen zu werden, täuschten die Patienten einmalig auditive Halluzinationen vor. Die meisten Psychiater hielten hartnäckig an ihrer Ursprungsdiagnose fest, obwohl sich die „Patienten“ nach ihrer Aufnahme im Hospital völlig normal verhielten, was auch von einigen “echten” Mitpatienten bemerkt wurde, nicht aber von den Experten. Die Pseudo-Patienten protokollierten beispielsweise ihre Beobachtungen zunächst heimlich und dann, weil dies vom Personal nicht beachtet wurde, öffentlich. In den Protokollen der Anstalten wurde dies dann üblicherweise als „pathologisches Schreibverhalten“ gedeutet (2).
  • Ambiguitätseffekt (3). Menschen neigen bei Entscheidungen unter Unsicherheit dazu, Optionen zu wählen, die mit ihnen bekannten Wahrscheinlichkeiten verbunden sind. Wenn wir also beispielsweise die Wahl zwischen drei Restaurants (A, B, C) haben und wissen, dass in Restaurant A 70 % der Gäste zufrieden waren, wohingegen wir von den anderen nichts über die Zufriedenheit der Gäste wissen, so tendieren wir dazu, uns für A zu entscheiden. Dies ist natürlich irrational, denn selbst bei A wissen wir ja nicht, ob wir nicht zu den 30 % gehören werden, denen es nicht geschmeckt hat. Aber der Mensch schätzt offenbar irrationale Entscheidungen; deswegen sind ja auch Hotel- oder Ärztebewertungen im Internet so beliebt. Da Psychiater bekanntlich auch nur Menschen sind, unterliegen sie in der diagnostischen Entscheidungssituation ebenfalls dem Ambiguitätseffekt. Nehmen wir an, ein Psychiater wähne, sich mit den Wahrscheinlichkeiten rund um die Diagnose A gut auszukennen, wohingegen ihm die Wahrscheinlichkeiten rund um die Alternativdiagnosen B und C nicht so besonders gut vertraut sind – was glauben Sie wohl, lieber Leser, wenn Sie da der Patient wären, welche Diagnose würden Sie vermutlich mit der größten Wahrscheinlichkeit erhalten?
  • Anker-Effekt (4). Menschen tendieren dazu, sich bei Entscheidungen zu stark auf einen einzelnen Gesichtspunkt, ein einzelnes Merkmal aus einem komplexen Gefüge, leiten zu lassen. Dieser Anker überstrahlt dann alle anderen, möglicherweise viel gewichtigeren Aspekte der Angelegenheit. Darum ist es beispielsweise nicht ratsam, einem Psychiater zu erzählen, man höre Stimmen, die sonst niemand hört, es sei denn, man wolle als „schizophren“ diagnostiziert werden. „Multiple Persönlichkeiten“ beispielsweise hören viel häufiger Stimmen als „Schizophrene“, aber das wissen die meisten Psychiater nicht. Möchte man also gern als „multiple Persönlichkeit“ diagnostiziert werden, sollte man lieber von Flashbacks sprechen, von plötzlichen, quälenden Erinnerungen an Gewalt und Missbrauch in der Kindheit. Dann klappt’s auch mit der Diagnose. Doch Scherz beiseite: Der Anker-Effekt spielt allein schon wegen des Zeitdrucks, unter dem heute viele Ärzte arbeiten müssen, vermutlich eine in vielen Fällen ausschlaggebende Rolle.
  • Aufmerksamkeitsverzerrung (5). Es gibt ja immer verschiedene Möglichkeiten, beispielsweise beim Suizid:

    A: Menschen kündigen einen Selbstmord an und bringen sich um.
    B. Menschen kündigen einen Selbstmord an und bringen sich nicht um.
    C. Menschen kündigen keinen Selbstmord an, töten sich aber selbst.
    D. Menschen kündigen keinen Selbstmord an und bringen sich auch nicht um.

    Viele neigen dazu, sich in solchen Situationen auf die emotional bedeutsamen Alternativen zu konzentrieren und die anderen zu vernachlässigen, selbst wenn sie eine höhere Wahrscheinlichkeit haben. Sagen Sie, lieber Leser, also niemals auch nur im Scherz: „Wenn der jetzt das Tor jetzt nicht reinmacht, dann nehm’ ich mir ‘nen Strick.“ Der Mann im Stadion neben Ihnen – ja, ich meine den mit dem biederen Hut und dem gepflegten Vollbart – genau der könnte ein Psychiater sein, also Vorsicht! Dasselbe gilt auch für die Drohung mit Gewaltanwendung; die Möglichkeit, dass man diese nicht unbedingt für bare Münze nehmen muss, könnte der Aufmerksamkeit des Psychiaters gerade entzogen sein.

  • Verfügbarkeits-Heuristik (6). Menschen bevorzugen bei Entscheidungen Informationen, nach denen sie nicht lange im Gedächtnis kramen müssen, sondern die ihnen unmittelbar in den Sinn kommen. Aus diesem Grunde halten die meisten Zeitgenossen die so genannten psychisch Kranken auch für gefährlicher, als sie tatsächlich sind. Schließlich sind die Zeitungen voll mit Berichten über „psychisch kranke“ Gewalttäter, die in die Psychiatrie gebracht wurden. In einer Studie zeigte sich beispielsweise, dass 46 Prozent der Berichte in der britischen Presse über “psychisch Kranke” das Thema „Gewalt“ betrafen (7). Über friedfertige „psychisch Kranke“ wird viel seltener berichtet, wenn überhaupt. Man muss nur das Stichwort „Psychiatrie“ in „Google News“ eingeben, um sich davon zu überzeugen, dass dies in Deutschland auch nicht anders ist. Da Psychiater bekanntlich auch nur Menschen sind, unterliegen sie ebenfalls dieser Verzerrung, selbst wenn sie die einschlägigen Statistiken kennen sollten. Dies dürfte eine zumindest teilweise Erklärung für die bereits erwähnte Überschätzung der Gefährlichkeit von Probanden durch psychiatrische Prognostiker sein.
  • Verfügbarkeits-Kaskade (8). Eine Behauptung wird umso glaubwürdiger, je häufiger sie im öffentlichen Diskurs als zutreffend behauptet wird. Dies ist die Geschäftsgrundlage der Psychiatrie. Weil immer und immer wieder Abweichungen von sozialer Norm als „psychisch krank“ bezeichnet werden, wird dieses Deutungsmuster schließlich zur unumstößlichen Wahrheit. Psychiater glauben umso lieber daran, als dieser Glaube ihnen ja ein schönes Leben in Saus und Braus ermöglicht. Dies gilt im Übrigen nicht nur für den Begriff der „psychischen Krankheit“, sondern auch für die entsprechenden Erklärungsmodelle. Dank eines beträchtlichen Marketingaufwandes wurden die Dopamin-Hypothese der Schizophrenie und die Serotonin-Hypothese der Depression durch eine Verfügbarkeits-Kaskade zum Allgemeingut und gelten auch heute noch als gesichertes Wissen, obwohl sie längst unumstößlich widerlegt wurden (21).
  • Gegenschlag-Effekt (9). Menschen neigen dazu, angesichts von Informationen, die gegen die eigene Überzeugung sprechen, umso inbrünstiger daran zu glauben. Dies zeigt sich gerade auch in der Psychiatrie, die im Augenblick als Wissenschaft bekanntlich vor einem Scherbenhaufen steht. Wer nun aber wähnt, dass man in diesen Kreisen angesichts des Unbestreitbaren in sich ginge, hat sich gewaltig in den Finger geschnitten. Im Gegenteil: Man trumpft auf wie nie zuvor. Ein besonders dramatisches Beispiel ist das „klinische Urteil“ des erfahrenen Experten. Obwohl seit mehr als fünfzig Jahren ein empirischer Beleg nach dem anderen dafür angehäuft wird, dass dieses „klinische Urteil“ nicht valide ist, weigern sich viele Experten nach wie vor, die erwiesenermaßen haushoch überlegenen statistischen Modelle (Regressionsgleichungen) auch nur in Erwägung zu ziehen (10).
  • Gruppendenken (11). Man glaubt, was viele glauben, weil es viele glauben. Die Geschichte der Psychiatrie ist eine Geschichte der Moden. Viele Jahre glaubten alle an Jean-Martin Charcot, den „Napoleon der Neurosen“. Dann glaubten alle an Sigmund Freud, den „Entdecker des Unbewussten“. Dann glaubten viele lieber an Burrhus Frederic Skinner, den Herrn der Ratten. Heute glauben alle an Brain Scans, die wie Rorschach-Tintenkleckse gedeutet werden. Man nennt dies auch den Bandwagon-Effekt. Der “Bandwagon” ist der Wagen in einer Parade, auf dem die Kapelle sitzt und dem deswegen die größte Aufmerksamkeit zuteil wird. Und wenn dort Sigmund Freud die Musik macht, dann ist man halt Psychoanalytiker. Heute ist man Neuropsychiater oder Neuropsychologe.
  • Barnum-Effekt (12). Menschen neigen dazu, Beschreibungen ihrer Person zu glauben, die angeblich auf sie zugeschnitten sind, obwohl sie gleichermaßen auf viele andere Personen zutreffen. Wenn also ein Diagnostiker dem Diagnostizierten eine Lehrbuchdiagnose stellt und der Diagnostizierte dem Barnum-Effekt unterliegt, dann wird der Diagnostiker die Zustimmung des Diagnostizierten u. U. fälschlicherweise als Bestätigung seiner Diagnose auffassen.
  • Basis-Raten-Fehlschluss (13). Nehmen wir einmal an, in einem Staat lebten eine Million Menschen. Davon seien hundert potenzielle „psychisch kranke“ Massenmörder. Es wird nun ein Testverfahren entwickelt, um diese potenziellen Massenmörder zu identifizieren und sie rechtzeitig einzusperren. Jeder Test hat natürlich eine Fehlerquote. Er kann potenzielle Massenmörder nicht entdecken und er kann harmlose Bürger fälschlich als potenzielle Massenmörder identifizieren. Unterstellen wir, die Fehlerquote sei in beiden Fällen 1 Prozent. Dies bedeutet: Wenn potentielle Massenmörder den Test machen, wird er in 99 Prozent der Fälle dies auch erkennen, in einem Prozent der Fälle nicht. Wenn normale Bürger den Test machen, wird er in 99 Prozent der Fälle keinen Befund ergeben und sie in einem Prozent der Fälle fälschlicherweise als potenzielle Massenmörder einstufen. Dieser Test wird nun bei Fritz M. angewendet und das Ergebnis lautet: potenzieller Massenmörder. Wie groß ist die Wahrscheinlichkeit, dass es sich dabei tatsächlich um einen solchen handelt? Wer mit der Bayes-Statistik nicht vertraut ist, wird vermutlich eine falsche Antwort geben. Die richtige lautet: Die Wahrscheinlichkeit liegt bei ungefähr 1 Prozent.
    99 der „psychisch kranken“ Massenmörder haben ein positives Testergebnis, aber auch 9999 der 999900, die keine psychisch kranken Massenmörder sind. Deshalb haben insgesamt 10098 ein positives Testergebnis, unter denen sich 99 tatsächliche „psychisch kranke“ Massenmörder befinden. Und so ist die Wahrscheinlichkeit, dass eine positiv getestete Person tatsächlich ein „psychisch kranker“ Massenmörder ist, gleich 99 geteilt durch 10098, und das ist weniger als 1 Prozent.
    Nach jedem Massenmord, der von den Massenmedien ausgeschlachtet wird, melden sich Psychiater zu Wort, die Massenuntersuchungen fordern, um „psychisch kranke Gewalttäter“ vor ihren Taten auszusondern und zu behandeln. Dass diese Psychiater gut beraten wären, einen Volkshochschulkurs zu den Grundlagen der Statistik und Wahrscheinlichkeitslehre zu belegen, liegt auf der Hand, dass diesem Rat nur wenige folgen werden, erklärt sich durch die anderen der hier aufgeführten und weiteren Verzerrungen ihrer Urteilskraft.
  • Blinde-Fleck-Verzerrung (14). Menschen neigen dazu, sich selbst als weniger anfällig für Denkfehler zu halten als andere Menschen. Psychiater werden behaupten, dass ihnen aufgrund ihrer Ausbildung und ihrer Erfahrung weniger Fehlurteile über Menschen unterlaufen als dem Rest der Bevölkerung. Diese Auffassung hat der empirischen Überprüfung zwar nicht standgehalten, wird aber dennoch von Psychiatern und anderen Experten hartnäckig vertreten (15).
  • Entscheidungslegitimierende Verzerrung (16). Darunter verstehen wir die Tendenz, die Konsequenzen einer eigenen Entscheidung positiver zu bewerten, als sie es bei objektiver Betrachtung tatsächlich sind. Aus diesem Grund ist es angezeigt, Berichte zu Therapieerfolgen, bei denen die Einschätzung von den Therapeuten selbst stammten, mit allergrößter Skepsis zu betrachten. Ein drastisches Beispiel ist die Lobotomie. Sie wurde von den Operateuren überwiegend als hilfreich eingeschätzt, wohingegen die Ergebnisse – da ist sie sogar die „Fachwelt“ heute einig – weitgehend verheerend waren. Vielfach diagnostizierten sie die von ihnen massakrierten Patienten als „gebessert“, obwohl sie in einem kläglichen Zustand dahinvegetierten (17).

Die Liste der potenziellen emotional-kognitiven Verzerrungen unserer Wahrnehmung, unseres Denkens und Urteilens will schier kein Ende nehmen. Man könnte ein eigenes Buch mit ihnen füllen und hätte dennoch nicht das Gefühl, dieses Thema erschöpfend behandelt zu haben. Daher ist es auch nicht mein Anliegen, dem Leser hier einen vollständigen Überblick über alle relevanten Faktoren zu geben, die das subjektive Urteil eines Psychiaters von den objektiven Gegebenheiten abweichen lassen. Vielmehr geht es mir darum zu zeigen, dass subjektive Urteile einer Vielzahl verzerrender Einflüsse unterliegen, gegen die sich kein Mensch wappnen kann, auch ein Psychiater nicht, niemand.

Bei der Durchsicht meiner Liste fällt mir allerdings auf, dass ich noch einen sehr entscheidenden Trugschluss vergessen habe, nämlich den Trugschluss des eingebildeten Konsensus (18). Viele Psychiater argumentieren, vor allem wenn sie ihre Diagnosen und Behandlungsvorschläge verteidigen, ziemlich vehement so, als seien sie das Sprachrohr einer einheitlichen Lehrmeinung. Beliebte Formulierungen, die diesem Trugschluss Ausdruck verleihen, beginnen mit „Wir Psychiater sprechen von…“ oder „Wir Psychiater bezeichnen dies als…“ Dies ist allerdings eine Neigung, der viele Menschen unterliegen. Sie glauben, dass ihre Meinungen von der Mehrheit oder doch zumindest von einer großen Zahl von Gleichgesinnten mitgetragen würden. Nur zu oft ist das ein Irrtum. Auch Psychiater streiten sich mitunter wie die Kesselflicker über Theorien und Therapien und werden sich oft auch hinsichtlich ein und desselben Patienten nicht einig.

Anmerkungen

(1) Plous, S. (1993). The Psychology of Judgment and Decision Making. New York: McGraw-Hill

(2) Rosenhan, D. (1973): On Being Sane in Insane Places. In: Science, 179, 250-8 

(3) Frisch, D., & Baron, J. (1988). Ambiguity and rationality. Journal of Behavioral Decision Making, 1, 149-157

(4) Tversky, A. & Kahneman, D. (1974). “Judgment under uncertainty: Heuristics and biases”. Science, 185, 1124–1130

(5) Nisbett, R.E., & Ross, L. (1980). Human inference: Strategies and shortcomings of social judgment. Englewood Cliffs, N.J.: Prentice-Hall

(6) Tversky, A; Kahneman. D. (1973). “Availability: A heuristic for judging frequency and probability”. Cognitive Psychology 5 (1): 207–233

(7) Ward, G. (1997). Making Headlines: Mental Health and the National Press. London: Health Education Authority

(8) Kuran, T. & Sunstein, C. (1999). Availability Cascades and Risk Regulation, Stanford Law Review, Vol. 51, No. 4, http://papers.ssrn.com/sol3/papers.cfm?abstract_id=138144

(9) Nyhan, B & Reifler, J. (2010). When Corrections Fail: The Persistence of Political Misperceptions. Political Behavior 32 (2): 303–330

(10) Dawes, R. M. (1989). Experience and validity of clinical judgment: The illusory correlation. Behavioral Sciences & the Law, Volume 7, Issue 4, pages 457–467, Autumn (Fall)

(11) Asch, S.E. (1951). Effects of group pressure on the modification and distortion of judgments. In H. Guetzkow (Ed.), Groups, leadership and men (pp. 177–190). Pittsburgh, PA: Carnegie Press

(12) Forer, B.R. (1949). The fallacy of personal validation: A classroom demonstration of gullibility. Journal of Abnormal and Social Psychology (American Psychological Association) 44 (1): 118–123

(13) Bar-Hillel, M. (1980). The Base Rate Fallacy in Probability Judgments, Acta Psychologica 44, pp. 211-233

(14) Pronin, E. & Kugler, M. B. (July 2007). Valuing thoughts, ignoring behavior: The introspection illusion as a source of the bias blind spot. Journal of Experimental Social Psychology (Elsevier) 43 (4): 565–578

(15) Dawes, R. M. (1996). House of Cards: Psychology and Psychotherapy Built on Myth. New York: Free Press

(16) Mather, M., Shafir, E., & Johnson, M. K. (2000). Misrememberance of options past: Source monitoring and choice. Psychological Science, 11, 132-138

(17) Hill, J. (1992). Der frontale Griff an das Gehirn und die Entwicklung der Psychochirurgie. Hamburg: Lit

(18) Ross, L. & Greene, D. (1977) The “false consensus effect”: An egocentric bias in social perception and attribution processes. Journal of Experimental Social Psychology, Volume 13, Issue 3, May 1977, Pages 279–301

(19) Davies, J. (2013). Cracked. Why Psychiatry Is Doing More Harm Than Good. London: Icon Books

(20) Greenberg, G. (2013). The Book of Woe. The DSM and the Unmaking of Psychiatry. New York: Penguin Books

(21) Gøtzsche, P. (2013). Deadly Medicines and Organised Crime: How Big Pharma has Corrupted Healthcare. Radcliffe, Kapitel: “The chemical imbalance hoax”

The post Psychiatrie, Diagnostik, Fehlerquellen appeared first on Pflasterritzenflora.


Viewing all articles
Browse latest Browse all 323