Denkfallen und Paradoxa (original) (raw)
Buch zum Thema: ��
�bersicht Zu meiner Sammlung der Probleme, Denkfallen und Paradoxa geh�ren die statistischen Paradoxa von Simpson und Benford. Verwandt mit ersterem ist mein Xenophobie-Beispiel. Unsere F�higkeit zur Aufdeckung von Gesetzm��igkeiten (Induktion) verleitet uns zu unerlaubten Umkehrschl�ssen. Dieses �Scheitern am Modus Tollens� wird in Wasons Auswahlaufgabe deutlich. Eine statistische Variante der unerlaubten Umkehrschl�sse� kommt in der Harvard-Medical-School-Studie zum Tragen. Auch Unterrichtsmaterialien sind vor solchen Denkfallen nicht sicher, wie die Abschnitte Software-Verifikation und -Test sowie Bayes-Sch�tzung zeigen. Das Umtauschparadoxon (Briefumschlag-Paradoxon) ist ein Beispiel f�r falsche Annahmen �ber Wahrscheinlichkeiten. Und das Halbkreis-Experiment� zeigt, wie schwer wir uns mit der Korrektur von Anfangssch�tzungen tun. Eher der Spieltheorie zuzuordnen ist das Paradoxon von Braess. Es l�sst sich, wie viele weitere Ph�nomene, auch in die Kategorie Je schlechter, desto besser einsortieren. �hnlich paradox ist es, dass Expertentum nicht notwendigerweise mit besonderen F�higkeiten zur Probleml�sung einhergeht. Oft gilt sogar: Expertenwissen erschwert das Probleml�sen. Unsere Schwierigkeiten im Umgang mit dynamischen Systemen werden im (von mir so bezeichneten) Egoismus-Paradoxon deutlich. Auch bew�hrte Faustregeln sind zuweilen verkehrt am Platze, wie das Paradoxon der Restlebensdauer verdeutlicht. Weitere Denkfallen offenbaren sich in einer Programmierstudie sowie im Fall der Rutschenden Leiter und dem Drei-T�ren-Problem. Eine der rutschenden Leiter verwandte Denkfalle zeigt sich in meinem Berlin-London-Beispiel f�r Mentale Landkarten. In der Parallelogramm-Aufgabe geht es um Denkblockaden und deren �berwindung. Im Unterschied zu Denkfallen im engeren Sinn wird hier nicht der falsche Gedanke provoziert, sondern gar keiner. Eine reiche Fundgrube f�r Denkfallen sind alle Arten von Gottesbeweisen, beispielsweise Pascals Wette auf die Existenz Gottes. Das L�gnerparadoxon und das Paradoxon der unerwarteten Hinrichtung (Henkerparadoxon) erweisen sich bei richtiger Anwendung der Logik als gar nicht so paradox. Mancher Philosoph nutzt jede Gelegenheit, sich zu verheddern; selbst der Spruch Keine Regel ohne Ausnahme dient ihm als Stolperstein. Wissenschaft und Aberglaube haben gemeinsame Wurzeln, n�mlich die Suche nach Mustern und nach Sinn. Das geht dann bis zur Mustererkennung ohne Muster. Kausalit�tsfallen ergeben sich aus unserer festen �berzeugung, dass es f�r alles eine Ursache geben muss. Daran schlie�en die mit Glaubensfragen verbundenen Denkfallen an. Den Schluss meiner Liste von Denkfallen bildet eine Reihe von T�uschw�rtern. | Was ist eine Denkfalle und was l�sst sich dagegen tun? Eine Denkfalle tut sich auf, wenn eine Problemsituation einen bew�hrten Denkmechanismus in Gang setzt, und wenn dieser Denkmechanismus mit der Situation nicht zurechtkommt und zu Irrt�mern f�hrt. Denkfallen bewirken kognitive T�uschungen. Sie sind die Quellen von riskanten Man�vern, Fehldiagnosen, Design-, Programmier- und Bedienfehlern. Denkfallen geben sich im Allgemeinen nicht zu erkennen, und man f�llt fast zwangsl�ufig auf sie herein. Aber ist der Argwohn erst einmal geweckt, l�sst sich der Reinfall vermeiden. So wie man den optischen T�uschungen beispielsweise durch Anlegen eines Lineals entgehen kann, so lassen sichDenkfallen mittels Logik, Mathematik und Kreativit�tstechniken umgehen. Wer sich wappnen will, muss Warnzeichen erkennen und richtig deuten lernen. Deshalb lohnt sich das Studium von Denkfallen. Klassiker Was f�r den einen logisch widersinnig, also paradox ist, das ist f�r einen anderen eine einfache Denk�bung oder gar eine Trivialit�t. Es kommt immer auf die logischen� und mathematischen Fertigkeiten an und darauf, wie weit man in der Kunst der Modellbildung schon vorangeschritten ist. Heute wundern wir uns, dass die Menschen bei Zenons Paradoxien � beispielsweise dem Pfeilparadoxon oder dem Paradoxon von Achilles und der Schildkr�te � ins Gr�beln kommen konnten. Auch_Kants Antinomien_ und Hegels Einlassungen dazu erscheinen uns im Lichte der modernen Naturwissenschaft und Mathematik nur als Konsequenzen ungeeigneter Modellbildung und verquerer Logik. �Dies� Logik zu nennen, kommt mir vor, wie wenn jemand, um eine Bergtour zu machen, ein so langes und faltenreiches Gewand anz�ge, dass sich darin seine F��e fortw�hrend verwickelten und er schon bei den ersten Schritten in der Ebene hinfiele� meint Ludwig Boltzmann dazu (auf einem Kongress in St. Louis 1904). Aber h�ten wir uns vor Selbstgef�lligkeit: �Es ist allerdings nichts Ungew�hnliches, dass Leute eine Paradoxie als trivial ansehen, sobald sie glauben, eine eindeutige L�sung gefunden zu haben. Die Heilung von dieser Reaktion besteht in dem Versuch, jemand anderen von der eigenen �L�sung� zu �berzeugen� (Sainsbury, 1993). Hintergr�nde Mit dem Vortrag �Denkfallen � Klug irren will gelernt sein� f�hre ich in die �Philosophie� dieser Seite ein. Das System der Denkfallen zeigt, welche Mechanismen hinter den Denkfallen stecken. Verwandt mit den Denkfallen und den kognitiven T�uschungen sind die optischen T�uschungen. Die Verf�hrungskraft der Bilder ist Gegenstand der unsortierten Gedanken �ber die Macht der Bilder. Welche Rolle die Denkfallen beim Zustandekommen von Programmier- und Bedienfehlern spielen, habe ich in einigen Ver�ffentlichungen beschrieben. Seit M�rz 2011 erfasse ich im Weblogbuch Hoppla! sonderbare Nachrichten und allt�glichen Statistikplunder. Timm Grams |
---|
Simpsons Paradoxon (Simpson�s Paradox)
In der Tabelle der Sterblichkeit aufgrund von Tuberkulose in New York und Richmond aus dem Jahre 1910 begegnet uns das SimpsonscheParadoxon (Sz�kely, 1990, S. 63, 75 u. 133):
| | Bev�lkerung | Todesf�lle | Sterberate | | | | | | -------------------- | ---------------- | ---------------- | -------------- | -------------- | -------------- | ------- | | | New York | Richmond | New York | Richmond | New York | Richmond | | | Wei� | 4 675 174 | 80 895 | 8 365 | 131 | 0,00179 | 0,00162 | | Farbig | 91 709 | 46 733 | 513 | 155 | 0,00560 | 0,00332 | | Gesamt | 4 766 883 | 127 628 | 8 878 | 286 | 0,00186 | 0,00224 |
Widerspruch. Bist du wei�, gehe nach Richmond. Bist du farbig, gehe ebenfalls nach Richmond. Bist du wei� oder farbig, dann bleibe in New York.
Analyse. Statistiken muss man nicht f�lschen, wenn man damit irref�hren will. Es reicht manchmal schon das Aggregieren von Z�hldaten, so wie hier. Etwas durchsichtiger wird der Mechanismus dieser Aggregierungsfalle im Xenophobie-Beispiel. Die Studie Simpson.pdf zeigt, wie man dem Paradoxon nicht nur mit formalen, sondern auch mit grafischen Mitteln beikommen kann.
(1998, 12.07.2010)
Benford's Law
Der Mathematiker Mark Nigrini hat ein Programm geschrieben, mit dessen Hilfe gef�lschte Steuererkl�rungen ausfindig zu machen sind. Es nutzt die Tatsache aus, dass in nat�rlich vorkommenden Zahlen die Anfangsziffern eine bestimmte markante Verteilung haben. Gef�lschte Zahlen weichen davon normalerweise deutlich ab.
T�glich treffen wir auf Zahlen: Zahlen, die auf der ersten Seite einer Tageszeitung stehen, Zahlen �ber die Gr��e der Binnengew�sser Deutschlands, die Einwohnerzahlen der St�dte oder die Familieneinkommen, die Guthaben auf den Konten einer Bank und die Zahlen in einer Steuererkl�rung. Fragt man nach der Wahrscheinlichkeit, mit der eine beliebig herausgegriffene Zahl mit einer 1 beginnt, werden die meisten Leute antworten: �Die Wahrscheinlichkeit betr�gt 1/9.� Sie gehen davon aus, dass alle Ziffern von 1 bis 9 gleich wahrscheinlich sind (vorausgesetzt, sie haben daran gedacht, dass Nullen praktisch nie am Anfang von Zahlen stehen).
_Widerspruch._Schaut man sich die Verteilung der f�hrenden Ziffern bei den Fl�chen der L�nder dieser Erde einmal an, ergibt sich ein anderes Bild: In etwa 30% der F�lle f�ngt die Zahl mit einer Eins an. Ein �hnliches Bild ergibt sich bei den Einwohnerzahlen und beim Bruttosozialprodukt pro Kopf. Dahinter steckt eine Gesetzm��igkeit: In einem verbl�ffend weiten Bereich gilt das Benfordsche Gesetz(Sz�kely, 1990, S. 189).
In der folgenden Grafik ist die Verteilung der f�hrenden Ziffern gem�� diesem Gesetz eingetragen und im Vergleich dazu die sich nach dem Jahrbuch Aktuell 2000 ergebenden Verteilungen der f�hrenden Ziffern statistischer Kennzahlen der 192 selbst�ndigen L�nder der Erde.
Das BenfordscheGesetz. Die Wahrscheinlichkeit p(d) daf�r, dass eine Zahl mit der Ziffer d beginnt, ist gegeben durch p(d) = ln(1+1/d)/ln(b). Hierin ist b die Basis des Stellenwertsystems f�r die Zahlendarstellung. Im Dezimalsystems ist b = 10 und das BenfordscheGesetz vereinfacht sich zu p(d)=log(1+1/d). Darin bezeichnet log den dekadischen Logarithmus.
Analyse. Das Benfordsche Gesetz beschreibt einen empirischen Sachverhalt. In der Literatur findet man aber auch Begr�ndungen. Diese gehen von bestimmten Annahmen �ber die Statistiken aus und leiten davon das Gesetz ab. Ich mache mir das Gesetz folgenderma�en klar: Viele zahlenm��ig erfassbare Ph�nomene werden zumindest zeitweise durch exponentielles Wachstum (oder exponentielle Schrumpfung) regiert. Ein Beispiel ist das Wachstum von Guthaben auf einem Bankkonto (Zinseszinsrechnung). Die zu messende Zahl x w�chst also exponentiell mit der Zeit t. Das hei�t: In gleichen Zeitabschnitten wird immer derselbe prozentuale Zuwachs erzielt. Bis eine f�hrende 1 von der 2 abgel�st wird, muss sich der Wert _x_verdoppeln. Bis die 2 von der 3 abgel�st wird, muss die Zahl nur noch 50% zulegen. Dementsprechend verringert sich der daf�r n�tige Zeitraum. Allgemein gilt: Die Zahlen mit einer bestimmten Stellenzahl, die mit der Ziffer d beginnen, beschreiben einen Wertezuwachs um den Bruchteil 1/d. Eine einfache Rechnung zeigt, dass die _x_-Werte mit der Ziffer d an erster Stelle auf der Zeitachse einen Anteil von ln(1+1/d)/ln(b) ausmachen. Wenn man zu einem Zufallszeitpunkt auf den Prozess trifft, wird demnach die Wahrscheinlichkeitsverteilung f�r die erste Ziffer dem Benfordschen Gesetz gen�gen.
Wer weitere Erkl�rungen sucht, kann beispielsweise bei Kevin Brown und Eric Weisstein nachsehen.
(16. April 1999, 25. April 2000)
Xenophobie
Im St�dtchen Falldala mit 20 000 Einwohnern betr�gt der Ausl�nderanteil 30 %. Die folgende Tabelle gibt die Kriminalit�tsstatistik wieder. Daraus l�sst sich folgern: Ausl�nder neigen st�rker zur Kriminalit�t als Inl�nder.
Kriminalit�tsstatistik von Falldala | |||
---|---|---|---|
Einwohner | Straftaten je Jahr | bezogen auf je 1000 Einwohner | |
Ausl�nder | 6000 | 51 | 8.5 |
Inl�nder | 14000 | 59 | 4.2 |
Widerspruch. Bei eingehender Betrachtung der Kriminalit�tsstatistik erweist sich, dass in einem Stadtteil - nennen wir ihn Aschental - die Kriminalit�t besonders hoch ist. Nun sind, aufgrund der f�r Inl�nder unattraktiven Bebauung aus den 50-er Jahren, vorwiegend Ausl�nder im Aschental angesiedelt. 5 000 der insgesamt 10 000 Bewohner sind Ausl�nder. Die �brigen leben in der Innenstadt. Die aufgeschl�sselte Statistik sieht folgenderma�en aus:
Kriminalit�tsstatistik von Aschental | |||
---|---|---|---|
Einwohner | Straftaten je Jahr | bezogen auf je 1000 Einwohner | |
Ausl�nder | 5000 | 50 | 10 |
Inl�nder | 5000 | 50 | 10 |
Kriminalit�tsstatistik der Innenstadt von Falldala | |||
Einwohner | Straftaten je Jahr | bezogen auf je 1000 Einwohner | |
Ausl�nder | 1000 | 1 | 1 |
Inl�nder | 9000 | 9 | 1 |
Es erweist sich, dass die Ausl�nder nicht h�ufiger oder weniger h�ufig zu Straftaten neigen als Inl�nder. Die anf�ngliche Vermutung zur Ausl�nderkriminalit�t entpuppt sich als zu oberfl�chlich. Die genauere Betrachtung legt ganz andere Deutungen nahe: Vielleicht liegt es an der Umwelt, an der Armut, am Milieu des Stadtteils. Jedenfalls sind tiefer liegende Analysen erforderlich.
_Analyse.:_Es handelt sich um eine Aggregierungsfalle wie bei Simpsons Paradoxon. Durch Aggregierung von Z�hldaten kommt es zur Blickverengung � die Grundgesamtheit ger�t aus dem Blickfeld (Scheinwerferprinzip). Das unspezifische Aggregieren von Z�hldaten erzeugt Zusammenh�nge, die in der aufgeschl�sselten Statistik nicht existieren. Hier ist es ein Zusammenhang zwischen den Attributen �Ausl�nder� und �Neigung zur Kriminalit�t�.
Dar�ber hinaus wird der statistische Zusammenhang unzul�ssigerweiseim Sinne eines Kausalzusammenhangs interpretiert: Wer Ausl�nder ist, neigt st�rker zu kriminellen Handlungen als ein Inl�nder. Das ist eine Denkfalle, die auf die_Kausalit�tserwartung_ - einen angeborenen Lehrmeister (Konrad Lorenz) also - zur�ckgeht. Dass viele Menschen an Astrologie glauben, k�nnte an demselben Denkmuster liegen, wie mehreren Beitr�gen im Spektrum der Wissenschaft zu entnehmen ist (Michael Springer, 4/1999, S. 106; Gunter Sachs, 7/1999, S. 9; Herbert Basler, 8/1999, S. 94 ff.).
(6.9.1999)
WasonsAuswahlaufgabe (Wason�s SelectionTask)
Die abgebildeten vier Karten ent�hal�ten jeweils auf einer Seite einen Buchstaben und auf der anderen eine Zahl.
Welche Karten muss man notwendigerweise umdrehen, wenn man feststellen will, ob folgende Aussage gilt: "Wenn auf einer Seite der Karte ein Vokal abgebildet ist, dann steht auf der anderen Seite eine gerade Zahl"?
Widerspruch. In einem psychologischen Experiment w�hlten die meisten Versuchspersonen die Karten mit dem E und die mit der 4. Dabei bringt es gar nichts, die Karte mit der 4 umzu�drehen! Welcher Buchstabe auch immer auf der R�ckseite steht: er passt zur zu pr�fenden Aussage. Nur durch Umdrehen der Karten mit dem E und der 7 haben wir eine Chance, die Aussage zu widerlegen. Diese M�glichkeit w�hlte nur eine Minderheit von 4 % der Befragten.
Analyse. Unsere Anlage zur Induktion, also die F�higkeit, Erweiterungsschl�sse zu ziehen und Theorien zu bilden, arbeitet nach folgendem Argumentationsmuster: Wenn sich aus der Theorie (Hypothese) H ein Ereignis E vorhersagen l�sst, und wenn gleich�zei�tig das Ereignis E aufgrund des bisherigen Wissens recht un�wahr�schein�lich ist, dann wird die Theorie H aufgrund einer Beobachtung des Ereignisses E glaub�w�r�diger. Kurz: Aus �H_impliziert E_� und �_E ist wahr� folgt �_H wird glaub�w�r�di�ger�. Wir tendieren dazu, diese plausible Schlussfolgerung (Induktionsschluss) mit gr��erer Bestimmtheit anzureichern: Aus �H impliziert E_� und �_E ist wahr� meinen wir auf �_H_ist wahr� schlie�en zu k�nnen; aber das ist ein unerlaubter Umkehrschluss. Diese Denkfalle wird auch als _Schei�tern am Modus Tollens_bezeichnet (Anderson, 1988, S. 248). Die Induktions-Denkfalle schl�gt� in WasonsAuswahlaufgabe sogar zweimal zu:
Da die Theorie H durch ein korrekt vorhergesagtes Ereignis _E_glaubw�rdiger wird, su�chen wir nach genau solchen Ereignissen. Diese Best�tigungssucht ist ein unvermeidlicher Begleiter unserer Anlage zur Induktion. Sie verleitet uns dazu, die Karte mit der 4 umzudrehen. Gerade der Wissenschaftler l�uft Gefahr, der Best�tigungssucht zu erliegen: Die von ihm aufgestellte und geliebte Theorie soll sich ja bew�hren und nicht etwa als unn�tz oder falsch herausstellen.
Die Theorie H ist selbst als Implikation formuliert: Aus �Auf der Karte steht ein Vokal� folgt �Auf der Karte steht eine gerade Zahl�. Der gern gezogene aber unerlaubte Umkehrschluss sieht so aus: Aus �Auf der Karte steht eine gerade Zahl� folgt �Auf der Karte steht ein Vokal�. In diesem Licht ist dann auch die Auswahl der Karte mit der 4 vern�nftig. Durch den unerlaubten Umkehrschluss erscheint die Theorie als strenger als sie ist. In dieser strengeren Fassung k�nnte sie sogar durch die Karte mit dem K widerlegt werden, beispielsweise dann, wenn auf der R�ckseite eine 2 st�nde.
Wollte man eine Theorie auf dem Weg der Best�tigung beweisen, m�sste man alle ihre Vorhersagen �berpr�fen � nicht nur einige der richtigen. Bei wissenschaftlichen Theorien mit ihren weit reichenden Aussagen ist das ein aussichtloses Unterfangen. Dagegen lassen sich Theorien durch Aufzeigen eines einzigen Gegenbeispiels widerlegen (falsifizieren). Diese Chance bieten in unserem Fall nur die Karte mit dem E und die mit der 7. Auch wenn wir nicht nach Widerlegungen suchen: Wir sehen sie schnell ein. Wir verhalten uns wie �pas�sive Pop�peria�ner�, sagt Evans (1989).
(05.11.05)
Die Harvard-Medical-School-Studie
Wir betrachten einen Test f�r eine Krankheit, die die Basisrate 1/1000 besitzt - also: Einer unter eintausend Menschen ist krank. Der Test liefert mit der Wahrscheinlichkeit von 5% ein falsches Ergebnis. Insbesondere hat er eine Falsch-positiv-Rate von 5%. Wie hoch ist die Wahrscheinlichkeit, dass eine Person mit einem positiven Testergebnis tats�chlich die Krankheit hat?
Widerspruch. Das h�ufigste Urteil von Professoren, �rzten und Studenten ist �95%�. Die Analyse zeigt aber, dass die Wahrscheinlichkeit tats�chlich unter 2% liegt. Der folgende Balken m�ge eintausend Personen repr�sentieren. Von den tausend Personen ist (im Durchschnitt) eine wirklich krank. Sie wird durch das dunkle Feld ganz links repr�sentiert. Bei etwa 50 Personen ist der Test falsch-positiv. Von den 51 Personen mit positivem Test ist also nur eine wirklich krank, was einem Anteil von weniger als 2% entspricht (Hell/Fiedler/Gigerenzer, 1993).
Analyse: Der hier beobachtete Fehlschluss ist eine stochastische Variante von logischen Fehlschl�ssen der folgenden Art: Aus den S�tzen �Wenn es regnet wird die Erde nass� und �Die Erde ist nass� schlie�en wir - f�lschlich - auf �Es hat geregnet�. Das ist das gelegentliche Scheitern am Modus Tollens (Anderson, 1988, S. 248 ff.). Wir schlie�en also von der Wirkung auf die Ursache. Aber bestenfalls k�nnen wir die Ursache aufgrund der beobachteten Wirkung als plausibler ansehen - keineswegs jedoch als zwingend. Bei der Harvard-Medical-School Studie ist es die Krankheit, die wir als Ursache des positiven Testergebnisses ansehen. Auch hier wird ein bestenfalls plausibler R�ckschluss als zwingend �berinterpretiert. Die systematische und krasse Fehlsch�tzung beruht auf einer �berbewertung best�tigender Informationen.
Wer mehr �ber statistische Irrt�mern aller Art und deren ��berw�ltigung� lesen will, findet das in vergn�glicher Form im Buch von Beck-Bornholdtund Dubben (2001).
(22.12.1999)
Software-Verifikation und -Test
In einem Lehrbuch zum Thema Zuverl�ssigkeitsnachweis von Software finde ich den fett hervorgehobenen Satz: �Der Test von Hypothesen geht �ber die Falsifizierung ihres Komplements� (Ehrenberger, 2002, S. 116).� Dann wird gezeigt, dass bei einem Sachverhalt, der nicht der Hypothese entspricht, der Test schlimmstenfalls mit einer geringen Wahrscheinlichkeit (von sagen wir 5%) bestanden wird. Aus dem Bestehen des Tests wird dann gefolgert, dass das Komplement unwahrscheinlich ist (5%) und die Hypothese entsprechend wahrscheinlich (95%).
Widerspruch. Zwei Fehler stecken in dem �Beweis�. Erstens wird durch ein negatives Testergebnis (�bestanden�) nicht das Komplement der Hypothese falsifiziert, sondern ein ganz bestimmter Sachverhalt, die Alternativhypothese n�mlich. Eine Widerlegung der Alternativhypothese allein zeigt noch nicht, dass die Hypothese wahr ist. Zweitens wird eine Wahrscheinlichkeitsaussage �ber Testergebnisse als Wahrscheinlichkeitsaussage �ber die Hypothesen genommen. Und daf�r fehlt jegliche Begr�ndung. Man hat ja bei der Berechnung der Wahrscheinlichkeiten die Alternativhypothese als fest gegeben vorausgesetzt. Die Wahrscheinlichkeiten sind demzufolge bedingte Wahrscheinlichkeiten. Dem Gedankengeb�ude fehlt das mathematisch-logische Fundament, es ist auf Sand gebaut.
Analyse (mit etwas mehr Mathematik als sonst). Zu den Fehlern tragen Denkmechanismen bei, die bereits in WasonsAuswahlaufgabe und in der Harvard-Medical-School-Studieeine Rolle gespielt haben. Um die Sache klarer zu machen, schlie�e ich an die dort bereits eingef�hrte mathematische Notation an. In der Testtheorie wird die urspr�ngliche Hypothese als Nullhypothese bezeichnet, kurz _H_0. Das Komplement bezeichne ich hier einmal mit �_H_0 (gesprochen: �nicht H null�). Es gilt entweder _H_0oder �_H_0. Die Alternativhypothese _H_1 ist ein bestimmter mit der Hypothese unvertr�glicher Sachverhalt. Es gilt demnach: _H_1impliziert �_H_0. Der erste Fehlschluss geht auf unsere Anlage zur Induktion zur�ck, auf das plausible Schlie�en anstelle der hier erforderlichen exakten Deduktion: Von der Widerlegung der Alternativhypothese, von �_H_1 also, meint man auf� _H_0schlie�en zu k�nnen. Das ist ein Irrtum. Nun zum zweiten Fehlschluss: E bezeichne die Beobachtung, dass der Test bestanden worden ist. Ausgangspunkt des �Beweises� ist die Feststellung, dass der Test bei Vorliegen der Alternativhypothese mit einer Wahrscheinlichkeit von nur 5% bestanden wird: p(E |_H_1) = 5%. Daraus wird dann gefolgert, dass die Alternativhypothese bei Bestehen des Tests mit nur 5-prozentiger Wahrscheinlichkeit wahr sein kann: p(_H_1 |E) = 5%. Das ist ein unerlaubter Umkehrschluss, ein weiterer Induktionsfehler also. Zwar l�sst sich die Wahrscheinlichkeit� p(_H_1 |E) mit der Formel von Bayes ermitteln. Sp�testens im Zuge der Berechnung wird erkennbar, dass zus�tzliche Daten erforderlich sind. Man braucht die A-priori-Wahrscheinlichkeiten der Hypothesen, bevor man etwas �ber die Auswirkungen des Tests sagen kann. Und von solchen Aprioris ist in dem angesprochenen �Beweis� nirgends die Rede. (Zu den Hintergr�nden dieses Beispiels: Des Ingenieurs Schwierigkeiten mit der schlie�enden Statistik.)
Zusatz. Schlecht fundierte Theorien sind paradoxerweise im Qualit�tswesen nicht gerade selten. Ein Beispiel entdeckte ich k�rzlich: die��exakten� Formeln von Clopper und Pearson. Diese Formeln zur Absch�tzung einer Wahrscheinlichkeit werden immer wieder in den Lehrb�chern referiert, zusammen mit einer ziemlich sonderbaren �Herleitung�. Dabei ist schon lange bekannt, dass die Formeln alles andere als exakt sind. ImSkriptum�Grundlagen des Qualit�ts- und Risikomanagements� kritisiere ich einige der fragw�rdigen �Theorien� aus der Welt der Zuverl�ssigkeit und Sicherheit: Bayessch�tzung kontra Testtheorie, X-Ware Reliability, diversit�reProgrammierung (Software-Diversit�t), Zuverl�ssigkeitswachstumsmodelle.
(29.05.08)
Bayes-Sch�tzung
Im Abschnitt �ber die Harvard-Medical-School-Studiewird mit einer einfachen H�ufigkeitsbetrachtung die Wirksamkeit eines diagnostischen Tests abgesch�tzt. Durch den �bergang von H�ufigkeiten auf Wahrscheinlichkeiten wird daraus die Bayes-Sch�tzung (Sachs, 1992). Was auf diagnostische Tests so erfolgreich angewendet wird, das sollte auf Parametersch�tzungen �bertragbar sein. Hierbei geht es nicht mehr um die Absch�tzung, ob eine bestimmte Krankheit vorliegt oder nicht, sondern um die Absch�tzung einer Einflussgr��e (Parameter), die nicht direkt messbar ist. Beispiel f�r einen solchen Parameter ist die Fehlerwahrscheinlichkeit eines Produkts, das unter bestimmten Bedingungen in Serie gefertigt wird. Die Fehlerwahrscheinlichkeit ist nicht bekannt. Aber man kann sich eine Stichprobe des Produkts verschaffen und den Anteil der fehlerhaften Exemplare feststellen. Wie beim diagnostischen Test soll aus dem beobachteten Ergebnis (Testergebnis bzw. Fehleranteil) eine Wahrscheinlichkeitsaussage �ber den eigentlich interessierenden Sachverhalt (Krankheit bzw. Fehlerwahrscheinlichkeit) abgeleitet werden. In beiden F�llen geht es also um die Wahrscheinlichkeiten von Hypothesen, einmal um Hypothesen �ber eine Krankheit und das andermal um Hypothesen �ber m�gliche Fehlerwahrscheinlichkeiten. In beiden F�llen braucht man eine Anfangssch�tzung. Beim diagnostischen Test ist das die Basisrate der Krankheit. Bei der Parametersch�tzung geht man von einer mehr oder weniger willk�rlichen Sch�tzung der Hypothesenwahrscheinlichkeiten aus (A-priori-Wahrscheinlichkeiten). Durch Anwendung der Formel von Bayes wird diese Sch�tzung unter Einrechnung der gemachten Beobachtung verbessert (A-posteriori-Wahrscheinlichkeiten).
Widerspruch. Die Anwendung der Formel von Bayes auf Parametersch�tzungen kann zu paradoxen Ergebnissen f�hren. Es gibt F�lle, in denen die Sch�tzung immer schlechter wird, je mehr Daten man ber�cksichtigt.
Analyse. Im Kern besagt die Formel von Bayes, dass die Wahrscheinlichkeit einer Hypothese_H_ (�Person ist krank�) durch die gemachte Beobachtung E (�Test ist positiv�) in demselben Verh�ltnis steigt, wie die Beobachtung durch die Hypothese wahrscheinlicher wird. Mit den Formelzeichen f�r (bedingte) Wahrscheinlichkeiten sieht dieser Zusammenhang so aus: P(H|E)/P(H) = P(E|H)/P(E). Im Fall der Harvard-Medical-School-Studiesetzen wir folgende Daten als bekannt voraus: P(H)=0,1%, P(E|H)=95% (Sensitivit�t des Tests), P(E)≈5,1%. Die Formel liefert dann das Ergebnis: Eine positiv getestete Person ist mit der Wahrscheinlichkeit von weniger als 2% tats�chlich krank. Diese Anwendung der Bayes-Formel auf diagnostische Tests ist methodisch einwandfrei. Die Wahrscheinlichkeiten P(H) und P(H|E) sind die A-priori- bzw. A-posteriori-Wahrscheinlichkeit der Hypothese.
Dass die Sache bei der Parametersch�tzung zuweilen nicht so richtig funktioniert, wird in der Literatur auf zwei Ursachen zur�ckgef�hrt (Fisz, 1976, S. 580; Papoulis, 1965, S. 114):
Man braucht eine Anfangssch�tzung der Verteilung des Parameters. Und �ber dieses Apriori ist meist nichts bekannt; es wird willk�rlich angesetzt.
Da der abzusch�tzende Parameter im Allgemeinen eine zwar unbekannte aber immerhin feste Gr��e ist, darf man ihn eigentlich nicht als Zufallsvariable betrachten. Die Schlussfolgerungen aus der Bayes-Formel sind in diesem Sinne praxisfern.
Diese Einw�nde sind aus mathematischer Sicht eher harmlos. Sie allein k�nnen die paradoxen Ergebnisse nicht erkl�ren. Ich sehe einen weiteren Grund f�r das gelegentliche Nichtfunktionieren der Parametersch�tzung mit dem Bayes-Verfahren.
- Die A-posteriori-Verteilung des Parameters wird zuweilen falsch interpretiert. Sie wird � gegen�ber der A-priori-Verteilung � als bessere Sch�tzung der tats�chlichen Verteilung des Parameters angesehen. Die A-posteriori-Verteilung ist aber nur eine verbesserte Sch�tzung unter der Bedingung der gemachten Beobachtung. Mit anderen Worten: Die Verteilung besagt, mit welchen Wahrscheinlichkeiten die verschiedenen Parameterwerte zu dem beobachteten Ergebnis beigetragen haben k�nnten. Der Umkehrschluss von der Beobachtung auf die nicht bedingte Hypothese ist allenfalls plausibel, es handelt sich um einen Induktionschluss. Es kommt zum Fehler, wenn aus einer Beobachtung zu starke Schlussfolgerungen gezogen werden.
In der medizinischen Diagnostik nimmt man die A-posteriori-Wahrscheinlichkeit tats�chlich nicht als eine verbesserte Wahrscheinlichkeitssch�tzung gegen�ber dem Apriori: Die Basisrate der Krankheit bleibt unver�ndert. Die errechnete A-posteriori-Krankheitswahrscheinlichkeit gilt nur f�r die Personen mit positivem Testergebnis und nicht etwa f�r �die ganze Welt�. Mit einem einfachen Beispiel will ich diesen dritten Punkt veranschaulichen.
Tabelle der Wahrscheinlichkeiten aller Kombinationen | ||||
---|---|---|---|---|
Auszahlung E (Messergebnis) | Hypothesen �ber die Anzahl der M�nzen im Spiel | Zeilen�summe | ||
H 1 | H 2 | H 3 | ||
0 | 4/24 | 2/24 | 1/24 | 7/24 |
1 | 4/24 | 4/24 | 3/24 | 11/24 |
2 | 0 | 2/24 | 3/24 | 5/24 |
3 | 0 | 0 | 1/24 | 1/24 |
Spaltensumme | 1/3 | 1/3 | 1/3 | 1 |
Das Ein-Euro-Spiel. Sie bekommen angeboten, f�r einen Euro Einsatz an folgendem Spiel teilzunehmen. Im Verborgenen werden durch Zufallsauswahl eine, zwei oder drei M�nzen ausgew�hlt und dann geworfen. F�r jede M�nze, die Kopf zeigt, wird ein Euro ausgezahlt. Sie wollen wissen, ob sich das Spiel f�r Sie lohnt. Aus den Wahrscheinlichkeiten f�r die Wahl einer, zweier oder dreier M�nzen, und unter der Voraussetzung, dass es sich um faire M�nzen handelt (je 50% Wahrscheinlichkeit f�r Kopf und Zahl), wollen Sie die Gewinnerwartung� ermitteln. Das Dumme ist nur: Sie kennen die Verteilung des Parameters �Anzahl der M�nzen� nicht. Sie schauen dem Spiel eine Weile zu und wollen aus den beobachteten Auszahlungen und unter Zuhilfenahme der bayesschenFormel eine m�glichst gute Sch�tzung dieser Verteilung herausfinden. Sie nennen die Hypothesen, dass 1, 2 oder 3 M�nzen geworfen werden, _H_1, _H_2und _H_3. Als Anfangssch�tzung nehmen Sie � nach dem Indifferenzprinzip � die Gleichverteilung an: P(_H_1) = P(_H_2) = P(_H_3) = 1/3. In einer Tabelle stellen Sie die sich daraus ergebenden Wahrscheinlichkeiten f�r alle m�glichen Ereignisse (Kombinationen von M�nzzahl und Auszahlung) zusammen.
Nun machen Sie die Beobachtung E: Es wird ein Euro ausgezahlt. Die bayessche Formel liefert Ihnen die A-posteriori-Wahr�schein�lich�kei�ten der Hypothesen:
P(_H_1|E) = P(H_1)∙_P(E|_H_1)/P(E) = P(_EH_1)/P(E) = (4/24)/(11/24) = 4/11,
P(_H_2|E) = 4/11,
P(_H_3|E) = 3/11.
Das l�sst, unter Ber�cksichtigung der Anfangsverteilung des Parameters, den Schluss zu, dass an dem konkreten Spielergebnis (n�mlich ein Euro Auszahlung) mit der Wahrscheinlichkeit 4/11 nur eine M�nze im Spiel war; mit derselben Wahrscheinlichkeit waren es zwei M�nzen und mit der Wahrscheinlichkeit 3/11 waren es drei M�nzen. Dementsprechend korrigieren Sie Ihre Sch�tzung der Hypothesenwahrscheinlichkeiten.
Seien Sie gewarnt. Die Neubewertung der Hypothesen durch die A-posteriori-Wahrscheinlichkeiten l�sst sich vielleicht manchmal aus pragmatischer Sicht rechtfertigen, mathematisch begr�ndbar ist sie nicht. Und sie kann absurde Ergebnisse liefern. Und das ist in diesem Spiel der Fall. Beispielsweise w�rde eine Auszahlung von drei Euro zu der endg�ltigen Einsch�tzung f�hren, dass grunds�tzlich drei M�nzen im Spiel sind. Dann s��en Sie in der Falle und liefen Gefahr, die Gewinnerwartung zu hoch einzusch�tzen.
Anders sieht die Sache aus, wenn der �Spielautomat� immer f�r einen ganzen Tag � also �ber viele Spiele � bei seiner M�nzenauswahl bleibt. In diesem Fall funktioniert Ihre Bayes-Sch�tzung und Sie k�nnen daraufhin f�r den Tag entscheiden, ob Sie mitmachen wollen oder nicht.
(10.09.2008)
Umtauschparadoxon (Briefumschlag-Paradoxon)
Zwei Briefumschl�ge enthalten Geld, einer doppelt so viel wie der andere. Ich darf einen Umschlag ausw�hlen, und das Geld entnehmen. Danach darf ich entscheiden, ob ich das Geld behalten will oder zum anderen Kuvert wechsle. Angenommen, ich ziehe ein Kuvert und finde 100 � darin.� Eine kurze �berlegung zeigt mir, dass ich das Angebot zum Umtausch annehmen sollte: Da ich den Briefumschlag rein zuf�llig gew�hlt habe, ist die Wahrscheinlichkeit daf�r, dass ich zun�chst den kleineren Betrag gezogen habe genauso gro� wie die Chance f�r den gr��eren Betrag, also jeweils gleich �. Den 100 �, die ich jetzt habe, stehen im Falle des Umtauschs � ∙ 200 � plus � ∙ 50 � gegen�ber. Das ist eine Gewinnerwartung von 125 �, und das sind 25 � mehr als ohne Umtausch.
Widerspruch. Da es auf den Betrag nicht ankommt, h�tte ich mich � ohne den Umschlag zu �ffnen � gleich f�r den anderen Briefumschlag entscheiden k�nnen. Aber damit bin ich wieder bei der Ausgangssituation: Ich habe ja einfach nur gew�hlt und kann dieselbe �berlegung wie oben anstellen. Der Wechsel w�rde auch jetzt Gewinn versprechen, obwohl ich dann wieder beim ersten Umschlag gelandet w�re.
Analyse. Das Paradoxon kommt durch eine unzul�ssige Anwendung des Indifferenzprinzips(John Maynard Keynes) zustande: �Wenn keine Gr�nde daf�r bekannt sind, um eines von verschiedenen m�glichen Ereignissen zu beg�nstigen, dann sind die Ereignisse als gleich wahrscheinlich anzusehen� (Rudolf Carnap/Wolfgang Stegm�ller; 1959, S. 3). Wahrscheinlichkeiten daf�r, dass in den Umschl�gen bestimmte Summen stecken, sind zwar denkbar. Aber �ber die Wahrscheinlichkeiten dieser verschiedenen F�lle ist nichts bekannt. Zu allem �berfluss ist die unterstellte Gleichverteilung aller m�glichen F�lle sogar prinzipiell unm�glich: Bei einer potentiell unendlichen Anzahl von F�llen kann nicht jeder der F�lle dieselbe Wahrscheinlichkeit haben. Mit dem Indifferenzprinzip unterstellen wir hier eine Struktur, die tats�chlich nicht vorhanden ist. Das ist eine �bersch�tzung des Ordnungsgehalts der Dinge in Folge der uns innewohnendenPr�gnanztendenz.
Zusatz 1. Wir nehmen einmal an, dass nur zwei F�lle zu unterscheiden sind. Die Briefumschl�ge enthalten im ersten Fall 50 � und 100 � und im zweiten Fall 100 � und 200 �. Die Person, die die Briefumschl�ge f�llt und anbietet,� m�ge mit der Wahrscheinlichkeit p den Fall 2 realisieren und ansonsten den Fall 1. Gehen wir zun�chst einmal davon aus, dass ich �ber den Inhalt der Umschl�ge vollst�ndig im Unklaren gelassen werde. Der Inhalt des zun�chst gew�hlten Briefumschlags hat jetzt auf meine Entscheidung keinen Einfluss. Ich kann mich daf�r entscheiden, grunds�tzlich nicht zu tauschen. Das ergibt eine Gewinnerwartung von �. Das sind 75+75_p_ �. Denselben Wert erhalte ich, wenn ich mich f�r die Strategie entscheide, grunds�tzlich zu tauschen. Der Tausch verbessert also erwartungsgem�� nichts.
Anders sieht die Sache aus, wenn die Person mich �ber die m�glichen F�lle vorab informiert: Jetzt mache ich meine Entscheidung vom Inhalt des gew�hlten Umschlags abh�ngig: Ich tausche immer dann, wenn weniger als 200 � im Umschlag sind. Nun ist meine Gewinnerwartung gleich 75 + 125_p_ �. Diese Strategie zahlt sich aus, solange p gr��er als 0 ist, also solange �berhaupt die Umschl�ge mit den h�heren Betr�gen in Frage kommen. Eine weitere Variante besteht darin, nur dann zu wechseln, wenn zun�chst nur 50 � gezogen worden sind. Die Gewinnerwartung betr�gt jetzt 100 + 50_p_ �. Diese Strategie ist der eben beschriebenen �berlegen, solange p < 1/3 ist.
Zusatz 2. Durch die Einbeziehung weiterer F�lle lassen sich diese �berlegungen problemlos verallgemeinern. Sogar (abz�hlbar) unendlich viele F�lle d�rfen es sein. Und auch eine Obergrenze f�r den Betrag ist keinesfalls zwingend. Man k�nnte beispielsweise den F�llen 1, 2, 3,� � die Wahrscheinlichkeiten �, �, ⅛, ...� zuordnen. Die Briefumschl�ge k�nnten dann 1 � und 2 �, 2 � und 4 �, 3 � und 6 �, � enthalten. Das ist nur eine aus einer un�bersehbaren Vielfalt von m�glichen Aufteilungen. Die beste Strategie f�r das Umtauschen h�ngt davon ab, welche Informationen �ber die F�lle und deren Wahrscheinlichkeiten verf�gbar sind.
Der informierte Mitspieler wird unter den eben beschriebenen Bedingungen immer dann tauschen, wenn er zun�chst einen ungeraden Euro-Wert gezogen hat. Ansonsten bleibt er bei seiner ersten Wahl. Er kann auf diese Weise seine Gewinnerwartung um 5/9 � verbessern und erreicht so etwa 3 � und 56 Cent anstelle der 3 � bei �blindem� Verhalten.
�(02.08.08)
Umtauschparadoxon f�r Fortgeschrittene
Mein Wohlt�ter informiert mich, dass er beim F�llen der Umschl�ge so vorgegangen ist: Anfangs hat er in den einen Umschlag 1 � gelegt und in den anderen 2 �. Dann hat er so lange gew�rfelt, bis er die Augenzahl 1 oder 2 erhalten hat. Immer wenn das nicht der Fall war, also bei den Augenzahlen 3, 4, 5 oder 6, hat er die Betr�ge in den Umschl�gen jeweils verdoppelt. Das Ergebnis dieser Prozedur � so sagt der Wohlt�ter � steckt in den Briefumschl�gen.
Ich ziehe einen Umschlag und es sind 16 � drin. Ich �berlege: Die Wahrscheinlichkeit des Falles, dass das der kleinere Betrag ist, steht zu der Wahrscheinlichkeit des anderen Falles im Verh�ltnis 2:3. Den kleineren Betrag habe ich also mit der (bedingten) Wahrscheinlichkeit 2/5 oder 40 % gezogen und den gr��eren mit der Wahrscheinlichkeit 3/5 oder 60 %. Wenn ich tausche, betr�gt der Erwartungswert demnach 16 � multipliziert mit dem Faktor 2∙40 % + �∙60 %, das sind 110 %. Der Umtausch l�sst im Mittel 10 % mehr erwarten als ich in der Hand halte. Das entspricht einem mittleren Zugewinn um 1 � und 60 Cent. Das Risiko, mit 60-prozentiger Wahrscheinlichkeit 8 � zu verlieren, f�llt nicht so sehr ins Gewicht. Ich finde: Der Tausch lohnt sich. (Die Zugewinnerwartung von 10 % bei Tausch gilt f�r jeden gezogenen Wert �ber 1 �; bei einem Euro ist sie gleich 100 %.)
Widerspruch. Treffe ich die Entscheidung grunds�tzlich auf der Basis des zu erwartenden Gewinns, werde ich stets tauschen, egal welchen Betrag ich zun�chst gezogen habe. Damit ergibt sich derselbe Widerspruch wie beim einfachen Umtauschparadoxon. Nur dass er sich jetzt nicht mehr so leicht aufl�sen l�sst.
Analyse. Der Nachweis, dass die Tausche-immer-Strategie bei Wiederholung des Spiels und auf lange Sicht der Tausche-nie-Strategie �berlegen ist, scheitert daran, dass die jeweiligen Erwartungswerte f�r die Auszahlungen unendlich gro� sind. Tats�chlich ist es so, dass bei subjektiver Bewertung der Gewinnaussichten und der Risiken, ein Tausch immer fraglicher wird, je h�her der zun�chst gezogene Betrag ist. Das Risikoargument n�hrt �brigens auch erhebliche Zweifel am Angebot und an der Aufrichtigkeit des Wohlt�ters, dem ja keine unbegrenzten Finanzmittel zur Verf�gung stehen. Wir stehen hier vor �hnlichen Realisierungsschwierigkeiten wie beim Schneeballsystem.
Eine detaillierte Analyse finden Sie in Umtauschparadoxon.pdf. Dazu gibt es eine kleine stochastische Simulation als lauff�higes Java-Archiv (Umtauschparadoxon.jar).
Den Hinweis auf das schwere Umtauschparadoxon habe ich der englischsprachigen Wikipedia entnommen: http://en.wikipedia.org/wiki/Two_envelopes_problem.
(13.07.09)
Halbkreis
Aufgabe. Sch�tzen Sie ab, wie gro� die Wahrscheinlichkeit daf�r ist, dass drei rein zuf�llig und unabh�ngig voneinander gew�hlte Punkte eines Kreises auf einem - passend positionierten - Halbkreis liegen?
Widerspruch. Die Wahrscheinlichkeit wird meist untersch�tzt - und zwar wird sie unter 50% - manchmal sogar bei 25% und weniger - vermutet. Mittels eines kleinen Experiments k�nnen Sie sich �berzeugen, dass die Wahrscheinlichkeit wesentlich h�her liegt. Sie betr�gt genau 75%.
Analyse. Man denkt sich wohl zun�chst einen festen Halbkreis und schlie�t daraus auf eine kleine Wahrscheinlichkeit daf�r, dass die drei gew�hlten Punkte auf diesem Halbkreis liegen. Der Anfangssch�tzwert ist also etwa 1/8. Dann dreht man in Gedanken den Halbkreis so, dass m�glichst viele der Punkte erfasst werden. Durch die M�glichkeit der Anpassung des Halbkreises an die Position der Punkte muss die Wahrscheinlichkeit wohl gr��er sein als die Anfangssch�tzung. Dementsprechend wird der Sch�tzwert korrigiert. Diese Korrektur geschieht aber zu vorsichtig (Verankerung): �In many situations, people make estimates by starting from an initial value that is adjusted to yield the final answer...In either case, adjustments are typically insufficient. That is, different starting points yield different estimates, which are biased toward the initial values� (Tversky, Kahnemann, 1974).
(23.12.99)
Das Braess'scheParadoxon
In manchen F�llen bewirkt eine Aktion genau das Gegenteil dessen, was damit beabsichtigt ist (Spektrum der Wissenschaft 1992, Heft 11, S. 23-26): Eine zus�tzliche Entlastungsstra�e macht die Verkehrsstaus schlimmer (Dietrich Braess). Um zu zeigen, wie so etwas passieren kann, habe ich mir das folgende Spiel ausgedacht (es ist eine vereinfachte Version des Verkehrsproblems):
Es handelt sich um ein Zweipersonenspiel. Vorgelegt wird vom Spielleiter die Zeichnung eines Rechtecks. Jeder Spieler hat die Aufgabe, entlang der Kanten dieses Rechtecks einen Weg zu suchen, der ihn von der linken oberen Ecke zur rechten unteren Ecke f�hrt, und zwar zu m�glichst geringen Kosten. Die Wegekosten betragen 2 Einheiten f�r jede der horizontalen und 5 Einheiten f�r jede der vertikalen Kanten. Wird eine der Kanten von beiden Spielern gew�hlt, haben sie - wegen gegenseitiger Behinderung - den doppelten Preis zu zahlen. Einer der Spieler w�hlt seinen Weg �oben herum� und zahlt die Wegekosten 7 (=2+5). Der andere geht �unten herum� und zahlt ebenfalls 7 (=5+2) Einheiten.
Der Spielleiter er�ffnet nun den Spielern die M�glichkeit, ihre Kosten zu senken, indem er eine zus�tzliche und kostenlose Verbindung von rechts oben nach links unten einf�hrt. Diese M�glichkeit nutzt einer der Spieler auch tats�chlich aus. Er zahlt nun nur noch 6 (=2+0+2�2) Einheiten. Da eine der Verbindungen von beiden benutzt wird, muss der andere Spieler jetzt mehr zahlen, n�mlich 9 (=5+2�2) Einheiten. Das l�sst ihm keine Ruhe, und er macht es wie sein Gegenspieler.
Beide w�hlen schlie�lich den z-f�rmigen Weg und zahlen jeweils 8 (=2�2+2�0+2�2) Einheiten. Obwohl beide jetzt schlechter fahren als zu Beginn, als es die Entlastungsverbindung noch nicht gab, kann jeder der Spieler nur noch zu seinem eigenen Nachteil vom z-f�rmigen Weg abweichen. In der Spieltheorie nennt man so etwas ein Nash-Gleichgewicht. �brigens: Es bringt auch nichts, wenn sich beide absprechen und den vorteilhafteren Weg abwechselnd benutzen. Der Mittelwert liegt dann immer noch h�her als bei den getrennten Wegen. Aus dieser misslichen Situation kommen beide nur heraus, wenn sie beschlie�en, den Entlastungspfad zu ignorieren und zu ihren urspr�nglichen Wegen zur�ckkehren. Darin liegt das Paradoxon.
Wir haben es hier mit einer Variante des Gefangenen-Dilemmas zu tun, das ausgiebig in �Die Evolution der Kooperation� von Robert Axelrod (1987) behandelt wird.
Sehr eindrucksvoll ist ein mechanisches Analogon zum Braess'schen Paradoxon.
(16. April 1999)
Je schlechter, desto besser
Zurzeit kommt bei Lebensmittelkontrollen ziemlich viel Unappetitliches zu Tage (Der Spiegel 48/2005, S. 38-40). Das wird von manchem Politiker als Erfolg gedeutet: Dass man dies alles aufgedeckt habe, spreche doch f�r die G�te der staatlichen Kontrollen.
Widerspruch. Der Erfolg der Kontrolleure l�sst sich kosteng�nstig verbessern � durch die Entlassung von Kontrolleuren. Bei halb so vielen Kontrolleuren halbiert sich f�r den skrupellosen H�ndler das Risiko, erwischt zu werden. Oder anders herum: Bei gleichem Risiko kann er mit noch mehr Sauereien zus�tzliches Geld machen. Die Erfolgsquote der verbliebenen Kontrolleure steigt. Die Lage wird schlechter, der Kontroll-Erfolg besser.
Kommentar und Analyse. Heutzutage wird alles M�gliche evaluiert und in Ranking-Listen einsortiert. Diesem Trend gegen�ber ist Misstrauen angebracht, denn objektive und manipulationsresistente Ma�st�be sind rar. Das lineare Ursache-Wirkungsdenkenund die �berbewertung best�tigender Information sorgen f�r Blickverengung und f�r Trugschl�sse. Um beim Beispiel zu bleiben: Jeder aufgedeckte Fall von Lebensmittelbetrug spricht f�r die Qualit�t der Kontrolleure, aber eben auch f�r schlechte Zust�nde.
Es folgen weitere Beispiele f�r Je-schlechter-desto-besser-Effekte.
_Qualit�tsverbesserung durch Selektion._Die Regierung von Irgendwo meldet: �Vor zwei Jahren� hat diese Landesregierung die Aufnahmebedingungen f�r Gymnasien versch�rft. Seither haben sich die durchschnittlichen Leistungen an unseren Gymnasien deutlich verbessert. Die Real- und Hauptschulen haben ebenfalls von der Ma�nahme profitiert; auch an diesen Schulen sind die Noten im Durchschnitt besser geworden.� Die Opposition erwidert, dass kein Sch�ler durch die versch�rften Aufnahmepr�fungen gef�rdert w�rde. Mehr Menschen w�rden von der h�heren Bildung ausgeschlossen, zum Nachteil der Wettbewerbsf�higkeit des Landes.
Diese zugespitzten Formulierungen treffen den Kern nahezu jeder Diskussion zur Schulpolitik. Beispielsweise br�stet sich Bayern mit den herausragenden Leistungen seiner Abiturienten. Gleichzeitig hat Bayern aber auch die niedrigste Abiturientenquote aller Bundesl�nder. Dieser Je-schlechter-desto-besser-Effekt ist auch als Will-Rogers-Ph�nomen bekannt (Beck-Bornholdt/Dubben, 2001): Nehmen wir einmal die durchschnittlichen Leistungen der Sch�ler einer Klasse als Evaluationsma�stab. Es m�ge zwei Parallelklassen geben, die in der Evaluation unterschiedlich gut abschneiden. Der Schulleiter sucht nun einen unterdurchschnittlichen Sch�ler der besseren Klasse aus, dessen Leistungen aber immer noch �ber dem Durchschnitt der anderen Klasse liegen. Der Wechsel dieses Sch�lers von der besseren zur schlechteren Klasse f�hrt zu einer Verbesserung des Durchschnitts in beiden Klassen.
_Klein-Gunter und die Zahnpasta._Klein-Gunters Mutter r�gt: �Du putzt deine Z�hne nicht, die Zahnpasta wird nicht alle.� Zur Pflichterf�llung nach diesem Ma�stab sollte es reichen, w�chentlich eine geh�rige Portion Zahnpasta im Komposthaufen unterzuw�hlen. Mit dieser Geschichte beginnt Gunter Dueck (2003) einen Artikel �ber Sinn und Unsinn der
_Leistungsindikatoren und Evaluationsma�st�be._Gerade flattert mir wieder ein Hochschulkr�nkung auf den Tisch. (Nat�rlich muss es �ranking� statt �kr�nkung� hei�en. Dieser �Freudsche Verschreiber� ist mir wirklich passiert.) Diesmal ist die mittlere Studiendauer der Ma�stab f�r das Ranking. Endlich mal was Objektives, denke ich. Aber da kommen mir Zweifel: Ich kenne Leute, die neben dem Studium Kinder gro�gezogen und solche, die noch vor dem Ende ihres Studiums eine Firma gegr�ndet haben. Das ist ohne Studienzeitverl�ngerung nicht zu machen. Diese Leistungstr�ger unserer Gesellschaft schlagen negativ zu Buche.
Konsumforschung. Am 1. September 1999 liest man in der Fuldaer Zeitung einen Bericht �ber ein Konsum�for�schungsgutachten: �Interessant ... ist ..., dass �ber die H�lfte der Passanten t�glich oder mehrmals pro Woche Fuldas Innenstadt aufsuchen. 25,8 Prozent kommen einmal pro Woche oder mindestens 14-t�glich. Demnach kann davon ausgegangen werden, dass die Innenstadt ein umfangreiches Angebot f�r die Kunden bereith�lt.� Offenbar ist beabsichtigt, die Tatsache, dass immerhin 50 Prozent der ange�trof�fe�nen Passanten t�glich, und nur 25 Prozent w�chentlich kommen, als Zeichen der Attraktivit�t Ful�das hinzustellen. Verzerrte oder vorsortierte Stichprobe(Sample with the built-in bias) nennt man so etwas (Kr�mer, 1991; Huff, 1954), denn befragt werden kann nur, wer da ist. Aber das ist noch nicht alles. Die Schlussfolgerung ist v�llig aus der Luft gegriffen, wie eine Grenzbetrachtung zeigt: H�tten hundert Prozent der Leute angegeben, t�glich zu kommen, w�re jedem klar: In Fulda trifft man nur Fuldaer. Die Stadt ist f�r Ausw�rtige v�llig uninteressant.
Zum Schluss noch etwas aus meinem Fachgebiet:
Je unzuverl�ssiger ein System ist, desto zuverl�ssiger wei� man das. Mit den hochzuverl�ssigen Systemen der Sicherheitstechnik hat man � was Fehler angeht � gottlob nur sp�rliche Erfahrungen. Bei der heutigen B�rosoftware wei� man dagegen ziemlich genau, was man sich damit einhandelt.
(3. Dezember 2005)
Expertenwissen erschwert das Probleml�sen
Wer Neues finden will, muss bereits m�glichst viel zum Thema wissen, er sollte Fachmann auf dem Gebiet sein. Das schient nahe zu liegen. Die meisten Menschen werden es wohl unterschreiben. Aber ist es wirklich so?
Widerspruch. Im Laufe einer Studie zur Funktionsweise des ersten Computers, n�mlich der rein mechanisch arbeitenden Z1 von Konrad Zuse, machte ich eine �berraschende Beobachtung. Mir und auch einigen meiner Kollegen, sie sind Experten auf dem Gebiet der Informatik, fiel es erstaunlich schwer, die Arbeitsweise des mechanischen Addierwerks zu verstehen. Horst Zuse, �ltester Sohn des Erfinders, meinte gar: �Die Funktionsweise der arithmetischen Einheit (Bin�res Gleitkommarechenwerk) ist Konrad Zuses Geheimnis geblieben und er hat es 1995 mit ins Grab genommen.� � Vielleicht doch nicht. Meine Vermutung ist, dass wir in Bahnen denken, die durch die moderne Informatik und ihre Didaktik vorgegeben sind. Dieses Expertenwissen macht uns blind f�r L�sungen, die abseits der eingetretenen Pfade liegen. Dieses Expertenwissen hatte Konrad Zuse nicht. Er interessierte sich noch nicht einmal f�r die Technik der damals bekannten und gebr�uchlichen mechanischen Rechenmaschinen, wie er selbst bekannte. Er ging eigene Wege. Ich vermute, dass Zuse gerade dadurch, dass er sich gar nicht erst in die Gedankenwelt der damaligen Rechentechnik begab, indem er also eine vorzeitig Blickverengung vermied, frei und f�hig war, revolution�r Neues zu erfinden. Nat�rlich nutzte er Vorwissen, beispielsweise das bin�re Zahlensystem, dessen Vorz�ge er durch Schriften von Gottfried Wilhelm Leibniz kennenlernte. Er nahm sich aber die Freiheit, sich beim Lernen auf Wissen und Methoden zu konzentrieren, die ihm bei seiner Arbeit weiterhalfen; sein Wissenserwerb war problemgeleitet. Der von ihm zu Beginn ins Auge gefasste Bau eines Computers mit Relais brachte ihn auf eine grafische Darstellungsweise, die er _abstrakte Schaltgliedtechnik_nannte. Diese abstrakte Schaltgliedtechnik ist bestechend elegant und sie erfasst die wesentlichen Eigenschaften der Schaltelemente, n�mlich das potentialfreie Schalten durch galvanisch getrennte Stromkreise mittels Relais. In den heute gebr�uchlichen Symbolen der Schaltgliedtechnik kommt die galvanische Trennung von Stromkreisen nicht mehr zum Ausdruck, weil die eingesetzten Schaltkreistechnologien eine solche Trennung nicht bieten. Das f�hrt zur Blickverengung. Es ist kein Wunder, dass Zuses elegante L�sung f�r den Addierer mit einschrittigem�bertrag heutzutage aus dem Blickfeld ger�t.
Analyse. Dass Experten mit Problemen ihres Faches manchmal mehr Schwierigkeiten haben als die nicht so Geschulten, l�sst sich auf Effekte zur�ckf�hren, die ich unter der �berschrift Automatisierung des Denkens und Handelnseinordne.
Ein einfaches Beispiel. Bekannten und Freunden legte ich den folgenden Text vor und bat sie zu z�hlen, wie oft der Buch�stabe F vorkommt. Versuchen Sie es doch selbst einmal.
FINISHED FILES ARE THE RE-
SULT OF YEARS OF SCIENTIF-
IC STUDY COMBINED WITH THE
EXPERIENCE OF YEARS
Sie haben im Text drei-, vier-, oder f�nfmal den Buchstaben F gefunden? Sehen Sie noch einmal genauer hin: Der Buchstabe F kommt sechsmal vor. Wir �bersehen bei der ersten Begegnung mit diesem Text vorzugsweise das F im W�rtchen OF. Dies ist ein Wort, das in der Sprache mit hoher H�ufigkeit auftritt und deshalb als eine Einheit gelesen und nicht erst aus Buchstaben zusammengesetzt wird. Verbl�fft war ich, als eine Bekannte sofort die richtige Zahl nannte. Des R�tsels L�sung: Sie konnte kein Englisch und ist den Text Buchstabe f�r Buchstabe durchgegangen.
(7. Juni 2012)
Ein Egoismus-Paradoxon
Wer behauptet, der Mensch zerst�re seine Lebensgrundlagen durch die egoistische Verfolgung seiner Interessen, wird allgemeine Zustimmung ernten. Dabei w�re eine genauere Analyse angebracht. Formulieren wir etwas genauer: �Wenn wir eine Population von wildlebenden Tieren - z. B. Gro�wale - maximal ausbeuten, gef�hrden wir deren Bestand.� Auch dieser Satz wird wohl meist bejaht.
Widerspruch. So allgemein hingesagt stimmt der Satz nicht. Zur Widerlegung nehmen wir der Einfachheit halber an, die fragliche Population unterliege einem einfachen Gesetz des begrenzten Wachstums. Der anfangs kleine Bestand x m�ge j�hrlich um einen bestimmten Prozentsatz r - sagen wir _r_=5% - wachsen. Je gr��er die Population ist, umso mehr verringert sich diese Zuwachsrate, weil nicht genug Futter f�r den Nachwuchs da ist. Wir m�ssen also mit einer bestandsabh�ngigen Zuwachsrate rechnen. Diese Zuwachsrate geht gegen null, wenn sich die Gr��e x der Population einem Wert n�hert, der von der Umwelt gerade noch verkraftet wird. Dieser Wert wird als Kapazit�t _K_bezeichnet. Wir setzen hier einmal _K_=100. Ein f�r unsere Zwecke brauchbarer Ansatz f�r die Zuwachsrate ist r(1-x/K). Die Multiplikation der Zuwachsrate mit dem Bestand ergibt bekanntlich die Wachstumsgeschwindigkeit der Population: r(1-x/K)x. Durch Jagd soll der Zuwachs �abgeerntet� werden.
Wer einen maximalen Ertrag anstrebt, wird die Population auf den Wert x = K/2 = 50 anwachsen lassen und sie dann durch Bejagen bei diesem Bestand halten. Das Streben nach maximalem Ertrag sichert demzufolge einen ausreichenden Bestand der bejagten Population - entgegen der zun�chst ge�u�erten Meinung.
Kommentar. Wenn wir - ganz Egoisten - den langfristig haltbaren H�chstertrag anstreben, m�ssen wir nach dem Prinzip der Nachhaltigkeit (Sustainability) wirtschaften. Das n�tzt uns und der Umwelt. Dass wir das oft nicht tun, liegt daran, dass viele J�ger um die Beute konkurrieren und dass jeder einen m�glichst gro�en Teil des �Kuchens� abkriegen will. Es ist unsere Unf�higkeit, die so genannte Trag�die der Gemeing�ter (Tragedy of the Commons) zu verhindern, die uns in Schwierigkeiten bringt. Der eng- und kurzsichtige Egoist macht sich und anderen Probleme - nicht dagegen der �Weitwinkelegoist�. (Siehe auch das Literaturverzeichnis meines Kurses �ber Umweltsimulation: Wilson/Bossert, Odum und Global 2000.)
�(31.8.1999)
Das Paradoxon der Restlebensdauer
Wir befinden uns an einem Highway im mittleren Westen der USA. Die Gegend ist entlegen, nur wenige H�user und eine Tankstelle stehen am Highway. Die n�chste Ortschaft ist weit weg. Ab und zu kommt ein Auto vorbei. Im Laufe eines Nachmittags, also innerhalb von 6 Stunden sind es etwa 36 Wagen. Sie kommen rein zuf�llig. (Der Mathematiker spricht von einem Poissonstrommit einer Intensit�t von 6 Wagen je Stunde.) Irgendwann am Nachmittag tritt ein Anhalter an die Stra�e und wartet auf das n�chste Auto, das ihn wohl zum n�chsten Ort mitnehmen w�rde. Wie lange wird der Anhalter im Mittel warten m�ssen, bis der n�chste Wagen kommt?
Unten ist einmal die Situation �ber der Zeit aufgetragen: Jedes vorbeikommende Auto wird auf der Zeitachse mit einem �o� markiert. Der Zeitpunkt, zu dem der Anhalter auftritt, erh�lt das �x�. Die Wartezeit des Anhalters ist w. Gesucht ist offenbar der Erwartungswert von w.
├─────o───o───x─────────o────────────o─o───────> Zeit
├────────────┼──── w ───┤
Widerspruch. Schnell gefunden � und falsch � ist diese Antwort: Der Anhalter muss im Mittel 5 Minuten warten. �Begr�ndung�: Der mittlere zeitliche Abstand zwischen den Wagen betr�gt 10 Minuten. In ein solches typisches Intervall f�llt rein zuf�llig die Ankunft des Anhalters. Das kann genauso wahrscheinlich am Anfang oder am Ende des Intervalls oder auch sonst wo im Intervall sein. Wenn man �ber alle m�glichen F�lle den Mittelwert nimmt, kommt man auf die 5 Minuten. Ist doch klar. Oder? Ein Einwand k�nnte folgenderma�en lauten: Es ist �hnlich wie beim Lottospiel. Nur weil ich schon lange keinen Gewinn hatte, r�ckt ein m�glicher Gewinn nicht n�her. Also: Egal wie lange es schon her ist, dass das letzte Fahrzeug vor�ber gefahren ist, die Zeit bis zum n�chsten Eintreffen eines Fahrzeugs wird dadurch nicht beeinflusst. Die Zeit bis zum n�chsten Fahrzeug unterliegt derselben Statistik wie die Zeit zwischen zwei Fahrzeugen. Also muss der Anhalter im Mittel 10 Minuten warten.
Analyse. Zu logischen Schnellsch�ssen und Fehlschl�ssen kommt es durch die �bertriebene Reduktion von Merkmalen einer Situation, durch Blickverengung also. Eine Folge des Scheinwerferprinzips und der Pr�gnanztendenz.
Ein einfacheres Problem, dessen L�sung auch den Kern des Paradoxons der Restlebensdauer trifft, ist das folgende: Werktags komme ich immer so zwischen vier und f�nf Uhr nachmittags an den Stachus und will mit der U-Bahn zum Hauptbahnhof fahren. Obwohl die Z�ge in beide Richtungen etwa gleich dicht fahren, kommt in 9 von 10 F�llen zuerst ein Zug, der in Richtung Ostbahnhof f�hrt. Ist das Pech oder liegt es am Fahrplan? Eine �hnliche Situation wird im Preisr�tsel �Zufallsbekanntschaften� im Spektrum der Wissenschaft vom Mai 2000 dargestellt. Die Aufl�sung steht im Juli-Heft.
Eine ausf�hrliche und gr�ndliche Analyse des Paradoxons der Restlebensdauer ist im Rahmen der Erneuerungstheorie m�glich (Kleinrock, Band I, 1975, S. 169 ff.). Eine kurze und elementare Darstellung der Zusammenh�nge enthalten meine Anmerkungen zur Erneuerungstheorie (ca. 80 KB).
(23.8.2000)
Eine Programmierstudie
Aufgabenstellung. Angenommen, die �<�-Relation des Computers funktioniert nicht. Die Funktion
LESS(a, b: REAL): BOOLEAN
soll genau dann den Wert TRUE liefern, wenn a<b ist. Wie l�sst sich das realisieren?
Die Antworten von 19 Befragten:
- f�nfmal: IF b-a>0 THEN less:= TRUE ELSE less:= FALSE
- zweimal: IF (a>b) OR (a=b) THEN less:= FALSE ELSE less:= TRUE
- viermal: IF b>a THEN less:= TRUE ELSE less:= FALSE
- dreimal: IF NOT(a>=b) THEN less:= TRUE ELSE less:= FALSE
- zweimal: less:= NOT(a>=b)
- einmal: less:= b>a
- zweimal: IF a>=b THEN less:= FALSE ELSE less:= TRUE
Analyse
- Alle L�sungen sind korrekt.
- Die einfachste L�sung ist am schwersten zu finden: less:= b>a.
- Boolesche Ausdr�cke scheinen �funktional� an Entscheidungen �gebunden� zu sein, was nicht stimmt. Ein Einstellungseffekt.
- Die Reihenfolge der Variablen scheint unab�nderlich zu sein, was nicht stimmt. Eine Folge der Strukturerwartung.
(1998)
Die rutschende Leiter
Aufgabe. Eine Leiter steht zun�chst senkrecht an der Wand. Dann wird ihr Fu�ende langsam von der Wand weggezogen, bis die Leiter ganz auf dem Boden liegt. Auf welcher Kurve bewegt sich dabei der Mittelpunkt der Leiter? Ist die Kurve konkav oder konvex - also nach unten oder nach oben gekr�mmt?
Widerspruch. Intuitiv wird meist eine konvexe, tangential an Wand und Boden anliegende Kurve vermutet. Tats�chlich aber bewegt sich der Mittelpunkt der Leiter, die an der Wand herabrutscht, genau sowie der Mittelpunkt einer Leiter, die einfach kippt, bei der also der Fu�punkt unver�ndert an der Wand bleibt. Dass das so ist, ergibt sich aus folgendem Gedankenexperiment: Man stelle sich die beiden Leitern in der Mitte verbunden vor, wie eine Schere. Beim �ffnen dieser �Schere� rutscht die eine Leiter an der Wand entlang und die andere kippt. Der gemeinsame Mittelpunkt bewegt sich also auf einem Viertelkreis, dessen Enden auf Wand und Boden senkrecht stehen; er beschreibt eine konkave Kurve.
Analyse. Wie kommt es zu der urspr�nglichen intuitiven und falschen Antwort? Man kann sich den Irrtum so erkl�ren: Wir stellen uns vor, wie die Leiter f�llt. Dazu bilden wir im Kopf Modelle der Gegenst�nde und bewegen sie probeweise.� Dieses Probehandeln im vorgestellten Raum ist eine Art �Simulation im Kopf�. Albert Einstein sieht darin � wie vormals bereits Sigmund Freud � das Wesen des Denkens: �Die geistigen Einheiten, die als Elemente meines Denkens dienen, sind bestimmte Zeichen und mehr oder weniger klare Vorstellungsbilder, die 'willk�rlich' reproduziert und miteinander kombiniert werden k�nnen ... dieses kombinatorische Spiel scheint die Quintessenz des produktiven Denkens zu sein� (Krech/Crutchfield, 1992).
Der Irrtum liegt aber nicht im Probehandeln selbst, sondern in der fehlgeleiteten Beobachtung und Auswertung: Aufgrund der Pr�gnanztendenz, also der �bertreibung wesentlicher Merkmale, treten auff�llige Charakteristika in den Vordergrund. Andere Ph�nomene k�nnen durch das pr�gnantere in den Hintergrund gedr�ngt werden. So ist es im Falle der rutschenden Leiter. Die H�llkurve (Einh�llende, Enveloppe) der Leiterbewegung dr�ngt sich in den Vordergrund. Die Bewegung des Mittelpunkts der Leiter ist dagegen in der Vorstellung nur schwer zu verfolgen. Die folgenden Grafiken machen das deutlich.
Die Pr�gnanztendenz ist normalerweise ein �u�erst n�tzlicher Mechanismus. Meist liegen wir damit richtig. (Sonst w�re der Mechanismus mangels Fitness seiner Anwender bereits ausgestorben.) Aber in au�ergew�hnlichen Situationen kann es auch zu Fehlern kommen � wie hier geschehen. Es liegt eine Denkfalle vor, eine kognitive T�uschung also.
(31.8.1999)
Das Drei-T�ren-Problem
Das Drei-T�ren-Problem � auch _Ziegenproblem_genannt (Der Spiegel, 34/1991, S. 212-213). Gro�e Fernsehshow. Der Supergewinn verbirgt sich hinter einer von drei T�ren. Der Kandidat trifft seine Wahl. Die T�r wird jedoch zun�chst nicht ge�ffnet. Der Showmaster �ffnet eine der beiden anderen T�ren, wohl wissend, dass dahinter eine Ziege als lebende Niete angepflockt ist. Der Showmaster stellt dem Kandidaten nun frei, bei seiner urspr�nglichen Wahl zu bleiben, oder die dritte der T�ren zu �ffnen. Soll er, oder soll er nicht?
Widerspruch. Der Alltagsverstand entscheidet meist, dass es sich nicht lohnt, neu zu w�hlen. Bestenfalls kommt man zum Schluss, dass es egal ist, was man macht (Fifty-fifty-Irrtum). Diese Fehlurteile wurden selbst von renommierten Wissenschaftlern und Statistikern abgegeben (Stewart, 1991). Aber es verh�lt sich ganz anders. Mit etwas Wahrscheinlichkeitsrechnung l�sst sich Klarheit gewinnen: Hinter der vom Kandidaten gew�hlten T�r steckt der Hauptgewinn mit der Wahrscheinlichkeit 1/3. Mit der Wahrscheinlichkeit 2/3 steckt der Hauptgewinn hinter einer der beiden anderen T�ren. An diesen Wahrscheinlichkeiten �ndert sich durch die Offenbarung einer Niete durch den - voraussetzungsgem�� gut informierten - Showmaster gar nichts. Der Showmaster liefert Information. Und diese kann der Kandidat nutzen. Wenn er auf die andere noch nicht ge�ffnete T�r wechselt, verdoppelt er seine Gewinnchance auf 2/3.
Analyse. Der popul�re Fifty-fifty-Irrtum beruht vermutlich auf einer sorglosen Anwendung des Indifferenzprinzips(�Wenn keine Gr�nde daf�r bekannt sind, um eines von verschiedenen m�glichen Ereignissen zu beg�nstigen, dann sind die Ereignisse als gleich wahrscheinlich anzusehen�, John Maynard Keynes). Anstatt es auf die Ausgangssituation anzuwenden, wird das Prinzip auch auf die durch den Showmaster ver�nderte Situation angewandt. Der Fehler geht wohl auf die Automatisierung des Denkens und Handelnszur�ck, es handelt sich um einen Einstellungseffekt.
Nachtr�ge (17.12.03, 4.12.05). Seit ich das Drei-T�ren-Problem in diese Sammlung aufgenommen habe, erreichen mich immer wieder Zuschriften. Die Absender wollen mich davon �berzeugen, dass die Chancen, hinter einer der zwei noch geschlossenen T�ren den Hauptgewinn zu finden, fifty-fifty sind. Ihnen rate ich zu einem Spiel unter Freunden und Verwandten: Drei umgedrehte Kaffeetassen�ersetzen die T�ren. Ein Spielleiter versteckt als Hauptgewinn eine M�nze unter einer der Tassen. Und dann geht es weiter nach den Regeln der Fernsehshow. Wenn das etwa zwanzigmal durchexerziert wird, f�llt auch der Hartn�ckigste von seinem �Gleichverteilungsglauben� ab. Ausf�hrlich wird das Drei-T�ren-Problem von Gero von Randow (2004) behandelt.
Variante mit vergesslichem Showmaster. Auf folgende Komplikation hat mich Peter Seizer, Neu Ulm, aufmerksam gemacht: Was ist, wenn der Showmaster selbst nicht mehr wei�, hinter welcher T�r der Gewinn steckt. Er st��t nur rein zuf�llig auf die Niete. Was sagt uns die Wahrscheinlichkeitsrechnung jetzt? Die Wahrscheinlichkeit, dass der Kandidat urspr�nglich richtig gew�hlt hat, ist nach wie vor 1/3. Der Quizmaster kann in diesem Fall nichts falsch machen. Hat der Kandidat urspr�nglich falsch gew�hlt - das passiert in zwei von drei F�llen - so wird der Showmaster mit 50-prozentiger Wahrscheinlichkeit die Show schmei�en, weil er versehentlich die T�r mit dem Hauptgewinn �ffnet. Er beraubt also den Kandidaten der H�lfte seiner Chancen, bei einem Wechsel selbst den Hauptgewinn zu ziehen. Egal was der Kandidat macht, seine Chancen stehen jetzt tats�chlich fifty-fifty.
Variante mit den drei Todeskandidaten. Drei Gefangene wissen, dass zwei von ihnen hingerichtet werden sollen. Was sie nicht wissen ist, wer von ihnen �berleben wird. Einer von ihnen stellt folgende �berlegung an: �Ich habe eine Chance von 1/3, nicht hingerichtet zu werden. Ich kann meine Chance verbessern, wenn ich den Gef�ngnisw�rter dazu bringen kann, mir den Namen eines meiner Mitgefangenen zu nennen, der hingerichtet wird. Dann bleiben n�mlich nur noch zwei M�glichkeiten: Entweder bin ich der andere, oder nicht. Meine �berlebenschance ist dann 50 %� (Sz�kely, 1990, S. 73). Das ist nat�rlich ein Fehlschluss, �hnlich dem beim Drei-T�ren-Problem. (Allenfalls der Dritte im Ungl�cksbunde h�tte Grund zu verhaltener Freude.)
(15. Januar 00)
Mentale Landkarten
Wenn ich frage, ob London weiter �stlich oder weiter westlich, weiter n�rdlich oder weiter s�dlich als Berlin liegt, bekomme ich meist die Antwort: London liegt nordwestlich von Berlin.
Widerspruch. London liegt aber weiter s�dlich als Berlin. Das zeigt ein Blick auf die Landkarte. Woher kommt der Irrtum bez�glich der Nord-S�d-Richtung?
Analyse. Bei der �mentalen Grenzziehung� kommt es aufgrund der Pr�gnanztendenzzu Begradigungen und Vergr�berungen. An diesen pr�gnanten Grenzen orientieren wir uns. Folglich werden Orte in Gedanken systematisch verr�ckt (Anderson, 1988, S. 94). Im Fall London-Berlin erkl�re ich mir die zu beobachtende Verzerrung so: Bezogen auf die Nordsee liegt England im Westen und Deutschland im S�den. Der �rmelkanal wird auf seine Ost-West-Richtung hin �begradigt�. Durch diese Vereinfachung �rutscht� England gedanklich gen Norden.
(22. August 01)
Die Parallelogramm-Aufgabe
Ein Parallelogramm ist durch zwei Geraden, die von einer Ecke ausgehen, in drei fl�chengleiche St�cke zu teilen - etwa so (D�rner, 1979):
Zugelassen sind f�r die Konstruktion nur die in der Geometrie �blichen Hilfsmittel: Zirkel und Lineal.
Schritt f�r Schritt zur L�sung. Die meisten Menschen sehen die L�sung nicht auf Anhieb. Schlimmer noch: Auch l�ngeres Gr�beln hilft nicht weiter. Man dreht sich im Kreise. Sie auch? Dann gebe ich einen Tip: Lassen Sie doch einmal eine der Bedingungen (�... von einer Ecke ausgehen ...�, �... fl�chengleich ...�) weg. Vielleicht hilft das auf die Spr�nge. Ich habe es mit Studenten und Freunden ausprobiert: Die allgemein gehaltenen Anregungen k�nnen helfen, die eingefahrenen Denkpfade zu verlassen. Das ist die Methode, die Georg P�lya in seiner ber�hmten �Schule des Denkens� (1949) propagiert. Es ergibt sich in den meisten F�llen ein typischer Denkablauf. Mehr �ber das Probleml�sen finden Sie in meiner Lektion� Sch�pferisches Denken - Heuristik.
(20. April 00)
Pascals Wette auf die Existenz Gottes - Pascal�s wager
Der franz�sische Religionsphilosoph, Mathematiker und Physiker Blaise Pascal (1623-1662) suchte eine rationale Verteidigung seines Glaubens. Von ihm stammt die folgende Wette: Wenn du an Gott glaubst - sozusagen auf ihn setzt - und Gott existiert nicht, so verlierst du nichts. Wenn du aber nicht an Gott glaubst und Gott existiert, dann kommst du in die H�lle. Deswegen ist es vern�nftig, an Gott zu glauben. So wahrst du deine Chance, in den Himmel zu kommen.
Widerspruch. Was ist, wenn Gott alle diejenigen gar nicht mag, die aus reinen Vernunftgr�nden an ihn glauben? Das liegt sogar nahe; denn schon der Versto� gegen das Verbot, vom �Baum der Erkenntnis des Guten und B�sen� zu essen hatte ja drastische Folgen (1. Mose 2, 17). Was ist, wenn Gott das Universum dem Teufel �berlassen hat? Oder wenn es in der H�lle recht lustig, im Himmel dagegen ziemlich langweilig ist? Oder wenn ... L�sst man der Phantasie freien Lauf, verfl�chtigt sich die scheinbar zwingende Kraft des Pascalschen Arguments f�r den Glauben.
Analyse. Rationalismus und Aufkl�rung waren �u�erst erfolgreiche Denkrichtungen in unserer Ideengeschichte; kein Wunder also, dass die Rationalit�t des Menschen hoch eingesch�tzt und auch �bersch�tzt wurde. Viel war mit Vernunft erkl�rbar, warum nicht auch Gott? Aber Logik und Gedankensch�rfe allein erm�glichen keine Erkl�rung der Natur oder gar des �bernat�rlichen. Es m�ssen Vermutungen, Vorurteile, Hypothesen, Theorien hinzukommen, also das prinzipiell Unbeweisbare, das nur an praktischen Resultaten Pr�fbare. An den �berpr�fungsm�glichkeiten hapert es bei der Religion. Deshalb muss die durchaus erlaubte Methode der Einengung des gedanklichen Spielraums hier daneben gehen. Es gibt keine Denknotwendigkeit, den Scheinwerfer der Erkenntnis auf ein Bild von Himmel und H�lle zu richten, wie es Bibel (Matth�us 25, 31) und Eschatologie ausmalen. Es fehlt der Erfahrungshintergrund, der eine solche Einengung der Menge aller prinzipiell denkbaren Welten auch nur nahe legen oder in irgendeiner Weise st�tzen k�nnte. Unser Hang zur Bildung von einschr�nkenden Hypothesen ist es, der Wissenschaft �berhaupt erst m�glich macht. Dieser Hang ist es aber auch, der uns anf�llig macht f�r die Manipulation unserer Gedanken durch andere. Wir durchschauen meist nicht sofort, dass eine Hypothese - wie die der Existenz von Himmel und H�lle - leer und nutzlos ist. Wir �bersehen allzu leicht, dass es widerlegende Erfahrungen gar nicht geben kann. Und eine Hypothese �ber die Beschaffenheit der Welt, die prinzipiell nicht an der Erfahrung scheitern kann, beinhaltet keinerlei Erkenntnis �ber diese Welt. Sinnvolle und begr�ndete Prognosenlassen sich damit nicht gewinnen. Die M�glichkeit einer rationalen Entscheidung wird bei der Pascalschen Wette also nur vorget�uscht.
Links und Lesehinweise. Die Pascalsche Wette habe ich auf der Web-Seite von Volker Dittmar gefunden. Eine ziemlich ausf�hrliche Darstellung des F�r und Wider aus dem Blickwinkel der Entscheidungstheorie und viele Literaturhinweise bietet die Stanford Encyclopedia of Philosophy. Wer Originalbeitr�ge von Gl�ubigen, Agnostikern und Atheisten sucht, m�ge das Stichwort �Pascal�s Wager� in eine Suchmaschine eingeben. Mit Google kommt man zurzeit auf �ber 10000 (zehntausend!) Treffer. Wie Bilder von Himmel und H�lle entstehen und welche Funktion sie haben, zeigt der Wissenschaftspublizist Martin Urban (2002) unter Zugabe einer geh�rigen Portion Skepsis. Eine Einf�hrung in das skeptische Denken bietet Christoph B�rdlein (2002) an.
(22. September 2003)
L�gnerparadoxon(The liar paradox)
Der Satz �Ich l�ge� ist die Kurzversion des L�gnerparadoxons. Der Satz l�sst wenigstens die folgenden drei Auffassungen zu:
Ich l�ge immer
Ich l�ge manchmal
Ich l�ge gerade
Die ersten beiden Auffassungen bieten keine Schwierigkeiten: Der Sprecher ist ein ganz normaler Mensch, der halt hin und wieder l�gt, meistens aber die Wahrheit spricht. Im 1. Fall l�gt er gerade und im 2. nicht.
Widerspruch. Interessant ist der 3. Fall. Hier taucht die Schwierigkeit in dem Moment auf, in dem man den Satz mit der Glaubw�rdigkeit des Sprechers verkn�pft: Gilt der Satz, l�gt der Sprecher und der Satz muss falsch sein. Gilt er nicht, sagt der Sprecher die Wahrheit; und das kann ja nun ebenfalls nicht stimmen. Das klingt tats�chlich paradox.
Analyse. Die Aussagevariablen A m�ge f�r die Aussage �Ich l�ge� stehen. Der Kern der Angelegenheit kommt zu Tage, wenn man die ausgesprochene Aussage mit der Aussage �ber ihren Wahrheitswert kombiniert: Meine Aussage(A) ist genau dann wahr, wenn ich gerade nicht l�ge (�A). Formal liefert das den kombinierten Ausdruck A = �_A._Diese Aussage ist �quivalent zu A_�_A. Sie ist logisch falsch. Es gibt keine M�glichkeit, der Variablen A einen logischen Wert (wahr oder falsch) zuzumessen derart, dass die kombinierte Aussage wahr wird.
Eine logisch falsche Aussage ist noch immer eine logische Aussage. Nur existiert eben die Welt nicht, in der sie gilt. Der Logiker sagt es so: Die Erf�llungsmenge der Aussage ist leer. Deshalb spreche ich lieber von einer unerf�llbaren Aussage und nicht von einem Paradoxon. An unerf�llbaren Aussagen ist �berhaupt nichts dran, was zu endlosem Gr�beln verf�hren m�sste. Jeder darf einmal Unsinn reden, und der Satz �Ich l�ge� in der 3. Auffassung ist eben Unsinn, nichts weiter. (Wir versuchen ja auch nicht, �u�erungen wie �Shubidubidu� oder �Hol�s der Teufel� als wahr oder falsch einzustufen.)
Das L�gnerparadoxon ist ein typischer Selbstbezug. Ein Selbstbezug besteht aus einer Aussage, die � auf der Metaebene � gleichzeitig etwas �ber diese Aussage aussagt. Ein ber�hmter Selbstbezug steht in der Bibel, und zwar in einem Brief des Paulus an Titus 1, 12: �Es hat einer von ihnen ge�sagt, ihr eigener Prophet: Die Kreter sind immer L�gner, b�se Tiere und fau�le B�uche.�
Eine unerf�llbare Aussage entsteht erst dann, wenn die Aussagen auf der Kommunikationsebene und die auf der Metaebene einander widersprechen. Solche Aussagen werden von Watzlawick, Beavin und Jackson (1969) auch _semantische Antinomien_oder semantische Paradoxien genannt.
Das L�gnerparadoxon ist eine semantische Antinomie, der Selbstbezug des Paulus dagegen nicht: Die gemachte Aussage ist vertr�glich mit der Situation, dass der Prophet gerade l�gt und es wenigstens einen Kreter gibt, der nicht durchweg l�gt oder der kein fauler Bauch ist. Eine weitere M�glichkeit ist, dass Paulus einfach falsch berichtet hat. Seine� Bekr�ftigung (�Dies Zeugnis ist wahr�) macht die Sache nicht besser.
Der Selbstbezug �Ich l�ge nicht� ist ohne inneren Widerspruch. Aussage und Metaaussage� verbinden sich hier zu einer Aussage vom Typ _A_=A. Sie ist logisch - also unter allen Umst�nden - wahr. Und sie besagt nichts, auch nichts dar�ber, ob ich nun l�ge oder nicht. (Nat�rlich l�ge ich nicht. Aber Sie k�nnen das nicht wissen!)
(06.09.2004, korr.: 29.12.06, 12.06.09)
Henkerparadoxon (The unexpected hanging)
Am Samstag wird folgendes Urteil ge�spro�chen: �Die Hin�richtung wird mittags an einem der sieben Tage der n�chsten Wo�che statt�fin�den. Aber Sie werden nicht wissen, an welchem Tage, bis Sie am Mor�gen des Hin��richtungstagesBescheid be�kom�men.�
Widerspruch. Nun, wenn bis Freitag nichts passiert ist, schlie�t der Todeskandidat, kann auch am Samstag der Henker nicht mehr kom�men, denn er k�me dann ja nicht un�ver�hofft. Also ist der Samstag aus�ge�schlos�sen. Wie aber steht's dann mit Frei�tag? Auch der Freitag ist mit demselben Ar�gument ausgeschlossen. So weiterfahrend kommt der Kandidat zum Schluss, dass der Henker eigentlich an keinem Tag der Woche kommen kann. Am Mittwochmorgen aber trifft ihn die entsetzliche Nach�richt � unverhofft!
Versch�rfung des Widerspruchs. Da der Todeskandidat bewiesen hat, dass er nicht hingerichtet werden kann, w�rde ihn die Nachricht selbst am Samstag noch �berraschen. Das Urteil ist im Nachhinein gesehen (scheinbar) wahr, gerade weil es f�r falsch gehalten wird.
Analyse. Viel ist schon �ber dieses Paradoxon geschrieben worden. Als Beispiel nenne ich Poundstone(1988, S. 110 ff.). Fr�her habe ich mich mit einem Erkl�rungsversuch abgefunden, der darauf hinausl�uft, dass die Anwendbarkeit der Logik eben ihre Grenzen hat und dass sie uns �ber diese Grenzen leider nicht informiert. Heute denke ich, dass die Sache viel einfacher liegt:
Die_Logik ist anwendbar_ und
bei richtiger Anwendung der Logik verschwindet das Paradoxon.
So wie der Todeskandidat das Urteil interpretiert, l�uft es auf eine logisch falsche Aussage hinaus, wie etwa der Satz �Heute regnet es und heute regnet es nicht�. Warum?
Offenbar entstehen die Schwierigkeiten durch die Lesart des Urteils durch den Todeskandidaten: �Die Hin�richtung wird mittags an einem der sieben Tage der n�chsten Wo�che statt�fin�den. Und gleichg�ltig, an welchem Tag das ist, Sie werden nicht wissen wann, bis Sie am Mor�gen des Hin��richtungstages Bescheid be�kom�men.� In dieser Interpretation ist die Aussage unter allen Umst�nden falsch. Denn aus ihr l�sst sich schlussfolgern, dass auch am Samstag eine �berraschende Hinrichtung m�glich ist. Und das ist gleichzeitig unm�glich. Das so verstandene Urteil wird auch im Nachhinein nicht wahr, egal was passiert.
Aus einer widerspr�chlichen � einer logisch falschen und unerf�llbaren Aussage also � lassen sich grunds�tzlich keine g�ltigen Schl�sse ziehen. Genau genommen lassen sich aus einer logisch falschen Aussage beliebige Aussagen herleiten � wahre und falsche. Aber das hilft nicht weiter. In diesem Sinne fehlt der Argumentation des Todeskandidaten das Fundament.
Die Widerspr�chlichkeit des Urteils wird durch das Einbeziehen mehrerer Tage wirkungsvoll verh�llt. Und genau das ist die Denkfalle: Wegen der Sinnsuche unseres Wahrnehmungsapparatsund der daraus folgenden �bersch�tzung des Ordnungsgehalts der Dingestellen wir halbwegs plausible Aussagen nicht in Frage.
Anders als beim L�gnerparadoxonm�ssen wir die Aussage des Richters hier nicht einmal als Unsinn qualifizieren, dem jeder Wahrheits- oder Falschheitsgehalt abgeht: Die Aussage ist � so wie der Todeskandidat sie auffasst � einfach logisch falsch.
Der Richter h�tte den Selbstwiderspruch durch eine kleine Erg�nzung des Urteils ausschlie�en k�nnen: �� es sei denn, die Hinrichtung findet am n�chsten Samstag, am siebenten Tag also, statt.� F�r den Todeskandidaten h�tte das faktisch nichts ge�ndert. Nur falsche Hoffnungen h�tte er sich dann nicht mehr machen k�nnen.
�(13.12.2003, korr.:27.12.06, pr�zisiert aufgrund eines Briefwechsels mit G�nter Feuer: 01.04.07)
Keine Regel ohne Ausnahme
Dieses Beispiel findet der Leser � zumindest dem Sinn nach und etwas ausf�hrlicher � in den Kommentaren zu meinem Hoppla!-Artikel �GWUP: Esoterik durch die Hintert�r�. Dort wird ein bekannter Philosoph folgenderma�en zitiert:
Nat�rlich ist der Satz �was ich jetzt sage, ist falsch� antinomisch. Denn ist er wahr, so ist er falsch, und ist er falsch, so ist er wahr. Aber schon die Regel �keine Regel ohne Ausnahme� ist nicht antinomisch, sondern nur falsch. Nimmt man sie n�mlich als wahr an, so ist sie � wie gezeigt wurde � falsch; aus der Annahme, sie sei falsch, folgt dagegen nicht, dass sie wahr w�re. Sie ist demnach falsch. Von einer Antinomie kann keine Rede sein.�
Widerspuch . Die Aussage �Keine Regel ohne Ausnahme� ist entweder wahr oder falsch. Jedenfalls gibt es keine Subjektvariable, von der der Wahrheitswert der Aussage abh�ngen k�nnte, denn die Subjektvariable �Regel� ist an den negierten Existenzquantor�Keine� gebunden und f�r konkretisierende Ersetzungen folglich nicht mehr frei. So interpretiert, kann die Aussage �Keine Regel ohne Ausnahme� gar keine Regel sein, sondern bestenfalls eine Definition dessen, was wir unter einer Regel verstehen wollen. Dann ist die Aussage notgedrungen wahr. Eine Selbstanwendung ist ausgeschlossen. Eine Selbstanwendung setzt der zitierte Philosoph aber stillschweigend voraus. Daraus kann nichts werden.
_Analyse._Mehr Bewegung kommt in die Sache, wenn wir den Satz sinnerhaltend umformulieren: �Wenn etwas eine Regel ist, dann gibt es dazu wenigstens eine Ausnahme.� Anstelle von etwas kann jetzt jede m�gliche Regel stehen. Jetzt haben wir ein Pr�dikat, das auf alle m�glichen Regeln und dar�ber hinaus anwendbar ist und man kann es tats�chlich als eine Regel auffassen. Ich nenne sie hier die sonderbare Regel. Der Selbstanwendung der sonderbaren Regel steht jetzt nichts mehr im Wege. Die zentrale Frage ist nun, ob die sonderbare Regel auf sich selbst angewendet wahr oder falsch ist.
Die Menge der Regeln l�sst sich aufteilen in eine Teilmenge A der Regeln mit und in eine dazu komplement�re Teilmenge B der Regeln ohne Ausnahmen. Dabei bleibt die sonderbare Regel zun�chst unber�cksichtigt. Zwei F�lle sind zu unterscheiden:
Fall 1: B ist nicht leer; es gibt Regeln ohne Ausnahmen.
Fall 2: B ist leer; Regeln ohne Ausnahmen gibtes nicht.
Fall 1 bietet keinerlei Probleme. Die sonderbare Regel hat Ausnahmen, n�mlich wenigstens die der Menge B. Wir k�nnen die sonderbare Regel widerspruchfrei der Menge A zuordnen. Im Fall 2 kommt es zur Antinomie. Ordnen wir n�mlich unsere sonderbare Regel der Menge A zu, dann bleibt die Menge B leer und es gibt nach wie vor keine Regeln ohne Ausnahmen. Damit ist die sonderbare Regel f�r s�mtliche Regeln wahr. Das aber hei�t: sie gilt ausnahmslos. Folglich geh�rt sie nicht zu A, sondern zu B. Nun ist die Menge B nicht mehr leer. Also auch die sonderbare Regel hat eine Ausnahme. Und genau diese Tatsache zwingt sie wieder zur�ck in die Menge A, wodurch sich die Menge B wieder leert. Das ist das f�r eine Antinomie typische Hin-und-her.
(22.07.2015)
Mustererkennung ohne Muster
Gegeben sind zwei Bitfolgen der L�nge zehn. Die erste Bitfolge ist 1001010110, und die zweite ist 0100000001. Wir fragen danach, welche der Folgen am ehesten durch reinen Zufall � beispielsweise durch das wiederholte Werfen einer fairen M�nze � entstanden sein k�nnte. Die erste Bitfolge scheint zuf�llig zu sein. Die zweite Folge sieht verd�chtig aus: Sie enth�lt sieben Nullen in Folge, ein ganz besonderes Muster also. Im Falle des Gl�cksspiels w�rde man von einer Pechstr�hne reden (oder von einer Gl�cksstr�hne � je nachdem).
Widerspruch. Tats�chlich ist die zweite Folge rein zuf�llig entstanden, die erste nicht. Die Wahrscheinlichkeit, dass es in eine reinen Zufallsfolge aus zehn Bits zu einem Abschnitt aus sieben gleichen Werten (Nullen oder Einsen) kommt, ist gar�nicht so klein. Sie betr�gt 4 % (Querbeet-Aufgabe Nr. 24). Auch bei der ersten Folge spielt der Zufall eine Rolle. Aber beim n�heren Hinsehen stellt sich heraus, dass die Folge aus f�nf Paaren aus zueinander komplement�ren Bits zusammengesetzt ist. (Freilich k�nnen derartig regelhafte Folgen auch rein zuf�llig entstehen. Sie haben eine Wahrscheinlichkeit von 3 %.)
Analyse. Moderne Wissenschaft und Aberglaube liegen nicht allzu weit auseinander. Sie n�hren sich aus derselben Quelle, n�mlich aus unserer Neugier und aus unserer F�higkeit zu lernen. Die Grundmechanismen des Wissenserwerbs sind die Strukturerwartung, die Begabung zur Mustererkennung, die Kausalit�tserwartung und die Bef�higung zu Erweiterungsschl�ssen, zur Induktion also. Diese angeborenen Lehrmeister machen wissenschaftliches Arbeiten �berhaupt erst m�glich. Aber sie haben eine okkulte Kehrseite: Wir sehen manchmal auch dort Muster, wo es eigentlich gar nichts zu sehen gibt. Beispielsweise k�nnen wir in Wolkenbildern Gesichter erkennen. In Rauchwolken auch. Ber�chtigt ist das vermeintliche Teufelsgesicht in den Rauchwolken, die am 11.9.2001 aus dem World Trade Center schlugen (Inernet-Suchbegriffe:Devil�s Face WTC).
Im Film �A Beautiful Mind� spielt Russell Crowe den ber�hmten Wirtschaftswissenschaftler und Spieltheoretiker John Nash, Nobelpreistr�ger von 1994. In einer Anfangsszene des Films beobachtet Nash die Bewegungen einer Gruppe von Tauben. Er will Muster darin erkennen und eine Theorie des Verhaltens darauf aufbauen. Mustererkennung kann Nash offenbar besonders gut. Sein Wahrnehmungsapparat ist in dieser Hinsicht sehr empfindlich, bis hin zum Krankhaften. Das f�hrt schlie�lich dazu, dass er in einer Sammlung von �berwiegend belanglosen Zeitungsmeldungen das Muster einer m�chtigen Verschw�rung findet.
Offenbar ist es kein allzu weiter Weg von der wissenschaftlichen Erkenntnis zum Phantasiegebilde und zum Okkulten. Vom Aberglauben und der Esoterik unterscheidet sich die Wissenschaft im Wesentlichen dadurch, dass letztere ihre Vermutungen einer unerbittlichen und nachvollziehbaren Pr�fung unterwirft. �Es ist schlechte Wissenschaft, wenn wir unsere Intuitionen und Vorurteile ungepr�ft lassen. Im eigenen Interesse sollten wir, wo immer wir das k�nnen, die M�ngel der intuitiven Schlussfolgerungen aufdecken. Die Methoden der Wissenschaft und der Statistik sind aus dem Widerstand gegen diese M�ngel entstanden. Sorgf�ltig angewendet sind sie unsere beste Waffen gegen derartige Fallen.� (Goldacre, 2009, S. 255; meine �bersetzung.) Kurz: Bauchentscheidungen sollten unterbleiben, wenn wir es besser wissen k�nnen. Wir sollten uns nicht durch bekannte Autoren der popul�rwissenschaftlichen Literatur irritieren lassen, die mit gro�em Erfolg das Gegenteil behaupten. Lassen wir diese B�cher dort liegen, wo sie hingeh�ren: in den Esoterik-Ecken der Buchhandlungen.
(05.07.2010)
Kausalit�tsfalle
Anfang 1995 brachten die Tageszeitungen unter dem Titel Unsicherheitsfaktor Mensch eine Nachricht der Internationalen Zivilluftfahrt-Organisation ICAO: �Als Unsicherheitsfaktor Nummer eins erwies sich auch 1994 wieder der Mensch: Nicht weniger als 31 der 47 Unf�lle sind auf�menschliches Versagen zur�ckzuf�hren und immerhin 16 auf das Wetter ... Die europ�ische Airbus Industrie in Toulouse �nderte die automatische Steuerung an den A300-600- und A310-Typen.�
Widerspruch. Wenn 31 der 47 Unf�lle auf menschliches Versagen und 16 auf das Wetter zur�ckzuf�hren sind, kann den Hersteller des Flugzeugs eigentlich keine Schuld mehr treffen. Warum dann die �nderung der automatischen Steuerung?
Analyse. Die Kausalit�tserwartung, also die Erwartung, dass es zu jedem Geschehnis eine Ursache gibt, ist ein angeborener Lehrmeister (Konrad Lorenz). Das Kausaldenken ist Grundlage der empirischen Wissenschaften und des freien Willens. Unsere Handlungen erfahren wir als _Ursache_dessen, was sich daraufhin entwickelt. Dasjenige, was von der getroffenen Entscheidung abh�ngt, ist die Wirkung. Ursache-Wirkungsbeziehungen sind der Hebel, mit dem es uns gelingt, den Lauf der Welt in unserem Sinne zu beeinflussen. Die Kausalit�tserwartung wird von einigen Philosophen sogar zum universell g�ltigen Prinzip erhoben (Kausalit�tsprinzip): Nihil fit sine causa � nichts geschieht ohne Grund. Es wurde bereits von Aristoteles aufgestellt.
Die Suche nach der einen Ursache ist ein so erfolgreiches Prinzip, dass wir uns angesichts eines Geschehnisses erst zufrieden geben, wenn uns eine Ursache genannt wird. Auch ziemlich fadenscheinige Begr�ndungen erf�llen diesen Zweck. Das ist ein wirkungsvoller Ansatzpunkt f�r die �Meinungskneter�: Der Manipulant braucht diesen m�chtigen Drang der Kausalit�tserwartung nur zu befriedigen, und zwar so, dass es ihm n�tzt. Die Kausalit�tserwartung wird zur Kausalit�tsfalle. Und genau eine solche wird durch die obige Zeitungsmeldung gestellt. Aus Sicht des Herstellers liegt die Schuld an einem Desaster bei den �blichen Verd�chtigen: Pilot, Kapit�n, Fahrzeugf�hrer. Solche voreiligen Schuldzuweisungen erschweren die unvoreingenommene Suche nach den wirklichen Ursachen. Wir sollten jedem, der von �menschlichem Versagen� spricht, aufmerksam und kritisch begegnen.
Hier ist ein weiteres Beispiel. Unter der �berschrift �Fehler des Co-Piloten� meldet die Fuldaer Zeitung vom 27.10.2004: Der Absturz einer Airbus-Maschine in New York kurz nach den Terroranschl�gen vom September 2001 ist auf einen Fehler des Co-Piloten zur�ckzuf�hren... Zu diesem Schluss kam die US-Untersuchungsbeh�rde NTSB... Der Co-Pilot habe die Maschine nach Turbulenzen stabilisieren wollen, dabei das Seitenruder des Leitwerks aber falsch bedient. Durch sein aggressives Eingreifen sei das Leitwerk abgefallen.� (Aus USA Today vom selben Tag erfahre ich von einer Diskussion dar�ber, dass auch falsches Pilotentraining oder eine Fehlkonstruktion die Hauptrolle gespielt haben k�nnten.)
Die Wissenschaft hat (noch) nicht f�r alles kausale Erkl�rungen parat. Diese unbefriedigte Kausalerwartung beunruhigt manche Menschen so stark, dass sie meinen, einen Urgrund f�r alles was ist, annehmen zu m�ssen. Und sie haben auch einen Namen daf�r: Gott. Andere dr�cken sich vorsichtiger aus und sprechen von intelligentem Design (Intelligent Design, ID). Diese Menschen finden Gott � oder eben den intelligenten Designer � dort, wo unsere Erkenntnis L�cken aufweist (God of the Gaps). Das Dumme an diesem heute vor allem in den USA um sich greifenden Glauben ist, dass er im Grunde nichts erkl�rt. Wir haben es mit einer Denkfalle zu tun. Mehr dazu unter Glaubensfragen. Wer sich dem Thema eher unverkrampft und mit Genuss n�hern will, dem empfehle ich das Buch �Roger�s Version� von John Updike.
Meister der fehlgeleiteten Ursachenforschung sind die Zahlenmystiker. Vermutlich hatte der ber�hmte Pythagoras weniger Anteil an dem nach ihm benannten Satz als an der Entwicklung der Zahlenmystik. �Auch sie w�re wahrscheinlich ohne ihn entstanden; trotzdem sollte er sich daf�r sch�men� (Dudley, 1999).� An vielen Beispielen zeigt Underwood Dudley, auf welche Abwege die Suche nach Sinn im Unsinn f�hren kann. (Siehe auch die R�tselaufgabe 18 zum Thema �V� in der Problemsammlung Querbeet.)
(13.04.2005; zuletzt revidiert am 18.01.07)
Glaubensfragen
Es gibt Lebensformen mit Organen hoher Komplexit�t und wunderbarer Zweckm��igkeit. F�r viele dieser Lebensformen und Organe kennen wir eine schl�ssige Stammesgeschichte noch nicht. Hier und da fehlen Verbindungsglieder (Missing Links). Ein gern zitiertes Beispiel ist die der Fortbewegung von Einzellern dienende rotierende Gei�el, das Flagellum. Wir wissen noch nicht, aus welchen Vorformen sich dieser Motor hat entwickelt k�nnen. �ndert man nur ein winziges Detail oder l�sst man eine Kleinigkeit weg, funktioniert der Motor nicht mehr. Im Zuge der Auslese des Bestangepassten aber ist ein nicht rotierender Motor ein Verlustgesch�ft. Die Anh�nger der Lehre vom Intelligent Design (ID) nennen so etwas irreduzible Komplexit�t. Sie schlie�en daraus, dass die Evolutionslehre nach Darwin falsch ist und dass es einen Sch�pfer und Steuermann der Welt gibt, einen Urgrund, einen intelligenten Designer, Gott.
Widerspruch. Gott ist da, wo unsere wissenschaftlichen Erkl�rungen (noch) nicht hinreichen. Er wird von den ID-Anh�ngern sozusagen in den L�cken unserer Erkenntnis angesiedelt. F�r diesen God of the Gaps wird es immer enger. Laufend finden Wissenschaftler neue Verbindungsglieder im Stammbaum des Lebens (Dawkins, 2006; Clack, 2006). Hinzu kommt, dass die Evolution nicht den geraden Wegnimmt. Biologische Mechanismen und K�rperteile k�nnen in Vorformen andere Funktionen gehabt haben. Wir kennen Zeugnisse f�r Umwege der Evolution, beispielsweise den blinden Fleck des Auges. Von einem intelligenten Designer w�ren derartige �Fehlkonstruktionen� nicht zu erwarten (Dennet, 2005).
Analyse. Die irreduzible Komplexit�t wird in den USA vor allem von Leuten ins Spiel gebracht, die die biblische Sch�pfungsgeschichte als gleichrangig neben der Evolutionslehre im Schulunterricht etabliert sehen wollen. Denn: Die V�ter der Verfassung haben (im First Amendment) auf eine strikte Trennung von Staat und Kirche geachtet. Es gibt keinen Religionsunterricht an Schulen. Um die biblische Sch�pfungsgeschichte doch noch an die Schulen zu bringen, braucht sie einen wissenschaftlichen Anstrich. Das Aufzeigen von vermeintlich irreduzibler Komplexit�t und der Schluss auf den dann notwendigen intelligenten Designer wirken bei oberfl�chlicher Betrachtung wissenschaftlich. Beim n�hern Hinsehen ist es aus damit. Die Argumentation zielt auf eine L�hmung der Wissenschaft, die ja geradezu darauf aus ist, Komplexit�t zu reduzieren. Deshalb machen amerikanische Gerichte hier auch nicht mit. Die Sch�pfungslehre bleibt in den meisten Bundesl�ndern aus der Schule verbannt. Aufsehen erregte das Urteil des Richters John Jones, eines von George W. Bush ernannten Lutheraners, das dieser im Dezember 2005 in Pennsylvania verk�ndete. Der Richter nannte das Intelligent Design eine �atemberaubende Trivialit�t�, die den Test auf Wissenschaftlichkeit nicht bestehen k�nne (TIME, 8.5.2006).
Die Frage bleibt, warum das Argument von der irreduziblen Komplexit�t dennoch auf viele Menschen �berzeugend wirkt. Zur Kl�rung schauen wir uns die Struktur des �Gottesbeweises� einmal genauer an. Offensichtlich wird angenommen, dass alle m�glichen Vermutungen und Hypothesen �ber die Herkunft eines bestimmten biologischen Sachverhalts (beispielsweise das Flagellum der Einzeller) bekannt sind. Und eine davon ist die Sch�pfungshypothese. Wenn nun die bekannten darwinistischen Hypothesen keine befriedigende Erkl�rung liefern, dann muss die letzte noch verbleibende Hypothese richtig sein: Ein intelligenter Designer war am Werk. Diese Art der Beweisf�hrung wird von den ID-Anh�ngern eliminierende Induktion(Eliminative Induction) genannt und im Ernst als der wissenschaftlichen Induktion gleichrangig � wenn nicht gar �berlegen � angesehen (Dembski, 2003). Dass die Sch�pfungshypothese tats�chlich grunds�tzlich nicht widerlegbar ist und dass sie allein aus diesem Grunde gar nicht als ernsthafter Konkurrent der wissenschaftlichen Hypothesen gelten kann, scheint die Verfechter der eliminierenden Induktion nicht weiter zu st�ren.
Nun erkennen wir, warum die eliminierende Induktion f�r viele so attraktiv ist. Die Offenheit der wissenschaftlichen Arbeit, die st�ndig drohende Falsifizierung lieb gewonnener Theorien und die fortw�hrende Suche nach neuen und besseren Hypothesen � all das braucht Personen, die Unsicherheiten aushalten k�nnen. Die Umwandlung von Unsicherheit in Sicherheit ist ein st�ndiger und anstrengender Prozess. Letztendliche Sicherheit, endg�ltige Wahrheiten sind nicht zu erwarten. Die eliminierende Induktion kommt pr�tenti�s daher. Letztlich ist sie nur Ausdruck der Angstvermeidung, einer Art Kurzschlussreaktion des Neugier- und Sicherheitstriebs. Die eliminierende Induktion macht den beunruhigenden Fragen ein Ende, sie liefert letztg�ltige Antworten.
Anmerkungen. Die gro�en Kirchen vertreten die ID-Position wohlweislich nicht. �Christliches Menschenbild und moderne Evolutionstheorien� ist eine Botschaft von Papst Johannes Paul II. an die Mitglieder der P�pstlichen Akademie der Wissenschaften anl�sslich ihrer Vollversammlung am 22. Oktober 1996. Sie beinhaltet einen Vorschlag, wie Glaube und Wissenschaft in Einklang zu bringen sind.
(23.12.06)
T�uschw�rter
Das Erfinden und Verbreiten von T�uschw�rtern ist ein beliebtes T�tigkeitsfeld von Manipulanten. Meist t�uscht nicht das Wort an sich. Die missbr�uchliche Verwendung macht�s.
Entsorgungspark (statt M�llkippe)
Freisetzung (statt Entlassung)
Verschlankung (statt Stellenabbau)
Neuartiger Waldschaden (statt Waldsterben)
Nullwachstum (statt Stagnation)
Restrisiko (statt Risiko)
Sicherheitsrelevanter Ausfall (statt gef�hrlicher Ausfall)
Verteidigungsministerium (statt Kriegsministerium)
Nichtr�ckzahlbare Anleihe (statt: verlorener Zuschuss)
Schadensqualit�t (statt Gift)
Polizist �gibt drei Sch�sse ab�, der Verfolgte �stirbt auf der Stelle� (statt: Polizist erschie�t den Verfolgten)
Der Kanzler �bekr�ftigte die �europ�ische Perspektive� Bulgariens�. So l�sst sich mit bedeutungsschweren W�rtern nichts sagen.
Sanfte Kundendaten (statt Kundenaussp�hung)
Recht auf humanit�re Einmischung (Kriegsgrund). _Kommentar:_Man traue keinem erhabenen Motiv, wenn sich auch ein niedriges finden l�sst.
Kollateralschaden (f�r die zivilen Opfer eines Krieges)
Fehler (statt L�ge): Roland Koch, Hessischer Ministerpr�sident im Januar 2000; er deklarierte Gelder aus schwarzen Kassen als Darlehen. Wem der Un�terschied nicht klar ist: Fehler passieren einem schon einmal, L�gen dagegen nicht.
Die USA setzen auf �flie�enden Sieg� (Tageszeitung, 7.4.03). Planer haben monatelang lang an einer Definition eines Sieges in diesem Kriegsfall gearbeitet.
Verteidigung der Menschenrechte (noch ein Kriegsgrund) � Wie gesagt: Die missbr�uchliche Verwendung macht�s.
Lebensmitteltechnisch optimiert (f�r genmanipulierte Lebensmittel)
Analyse. Die Wirkung der T�uschw�rter beruht auf dem Denkmechanismus der unbewussten Assoziationen.
(07.02.12)
Ver�ffentlichungen
Grams, T.: Grundlagen des Qualit�ts- und Risikomanagements. Zuverl�ssigkeit, Sicherheit, Bedienbarkeit. Vieweg Praxiswissen, Braunschweig, Wiesbaden 2001 (Skriptum)
Grams, T.: Denkfallen beim objektorientierten Programmieren. it 34(1992)2, 102-112
Grams, T.: Denkfallen und Programmierfehler. Springer Compass, Berlin, Heidelberg 1990
Grams, T.: Ursachen h�ufiger Programmierfehler. Handbuch der modernen Datenverarbeitung HMD (Nov. 1988) Heft 144 �Fehlertolerante Systeme�, 46-57
Grams, T.: Thinking Traps in Programming - A Systematic Collection of Examples. SAFECOMP '88. IFAC Proceeding Series 1988, Number 16. Pergamon Press, 95-100
Grams, T.: Biased Programming Faults - How to Overcome Them? Aus: Informatik-Fachberichte 147 (Hrsg.: F. Belli, W. G�rke) Fehlertolerierende Rechensysteme, 1987, 12-23
Siehe auch unter
- Zuverl�ssigkeit und Sicherheit
- Klug entscheiden bei Risiko
- Prognosen und Theorien
- Hoppla! (Weblogbuch �ber sonderbare Nachrichten und allt�glichen Statistikplunder)
Literaturhinweise
Anderson, John R.: Kognitive Psychologie. Heidelberg 1988
Beck-Bornholdt, Hans-Peter; Dubben, Hans-Hermann: Der Hund, der Eier legt. Erkennen von Fehlinformation durch Querdenken. Rowohlt Taschenbuch Verlag, Reinbek bei Hamburg 2001. Eine solide Darstellung und Analyse der wesentlichen statistischen Denkfallen.
Boltzmann, L.: Popul�re Schriften. Ausgew�hlt von Engelbert Broda. Vieweg, Braunschweig 1979
B�rdlein, Christoph: Das sockenfressende Monster in der Waschmaschine. Eine Einf�hrung ins skeptische Denken. Alibri, Aschaffenburg 2002
Carnap, Rudolf; Stegm�ller, Wolfgang: Induktive Logik und Wahrscheinlichkeit. Springer, Wien 1959
Clack, Jennifer A.: Was Fischen Beine machte. Spektrum der Wissenschaft (2006)10, 24-32
Dawkins, Richard: The God Delusion. London 2006
Dembski, William, A.: �Science and Design� + �The Logical Underpinnings of Intelligent Design�. Professorenforum-Journal 2/2003
Dennet, Daniel C.: Intelligent Design � Wo bleibt die Wissenschaft? Spektrum der Wissenschaft (2005) 10, 110-113
D�rner, Dietrich: Probleml�sen als Informationsverarbeitung. Kohlhammer, Stuttgart 1979
Dudley, Underwood: Die Macht der Zahl. Was die Numerologieuns weismachen will. Birkh�user, Basel 1999 (Original:Numerology � Or, What Pythagoras Wrought. Washington 1997)
Dueck, Gunter: Ein Indikatorenhoch�ber Deutschland! Starke Triebwinde. Informatik Spektrum 26 (2003) 1, S. 39-44
Ehrenberger, W.: Software-Verifikation. Verfahren f�r den Zuverl�ssigkeitsnachweis von Software. Hanser, M�nchen, Wien 2002
Evans, Jonathan St. B. T.: Bias in Human Reasoning: Causes and Conse�quen�ces. Lawrence Erlbaum Associates, Publishers, Hove and London (UK)�1989
Fisz, Marek: Wahrscheinlichkeitsrechnung und mathematische Statistik. DVW Berlin 1976
Goldacre, Ben: Bad Science. Harper Collins, London 2009
Hell, Wolfgang; Fiedler, Klaus; Gigerenzer, Gerd (Hrsg.): Kognitive T�uschungen. Spektrum Akademischer Verlag, Heidelberg, Berlin, Oxford 1993
Huff, Darrell: How to lie with statistics. 1954, 1982. Der Klassiker zum Thema Statistikplunder.
Kahneman, Daniel; Slovic, Paul; Tversky, Amos (eds.): Judgment under uncertainty: Heuristics and biases. Cambridge University Press, Cambridge CB2 1RP, 1982
Kleinrock, Leonard: Queuing Systems. Vol. 1: Theory. Wiley-Interscience1975
Kr�mer, Walter: So l�gt man mit Statistik. Campus, Frankfurt/M. 1991
Krech, Crutchfield u. a.: Grundlagen der Psychologie. Band 4 Kognitionspsychologie. Beltz, Weinheim 1992. (Vorstellungen und Denken, S. 109)
Leiter, Brian: Why Tolerate Religion? University of Texas,Austin, 25.05.2006
Papoulis, Athanasios: Probability, Random Variables, and Stochastic Processes. McGraw-Hill, New York1965
P�lya, Georg: Schuledes Denkens. Francke, Bern 1949
Popper, Karl R.: Conjectures and Refutations. The Growth of Scientific Knowledge. Routledge, London 1963 (Deutsch: Vermutungen und Widerlegungen. J. C. B. Mohr, T�bingen� 1994/1997)
Poundstone, William: Labyrinths of Reason. Anchor Book, New York 1988
Randow, Gero von: Das Ziegenproblem. Denken in Wahrscheinlichkeiten. Rowohlt Taschenbuch Verlag, Reinbek bei Hamburg 2004. Ausf�hrliche Behandlung des Drei-T�ren-Problems. Das Buch kann auch als Einf�hrung in die elementare Wahrscheinlichkeitsrechnung gelesen werden.
Sachs, Lothar: Angewandte Statistik. Anwendung statistischer Methoden. Springer, Berlin,Heidelberg 1992
Sainsbury, R. M.: Paradoxes. Cambridge University Press, 1995 (deutsch:Paradoxien. Reclam, Stuttgart 2001)
Sch�nwandt, Walter: Denkfallen beim Planen (Ausarbeitung eines Referats)
Stewart, Ian: Mathematische Unterhaltungen (Wie eine verbl�ffende M�glichkeit, aus einer scheinbar ganz nutzlosen Information Vorteil zu ziehen, die Gem�ter jenseits und diesseits des Atlantiks bewegte.) Spektrum der Wissenschaft (1991) 11, 12-16
Sz�kely, G�bor J.: Paradoxa. Klassische und neue �berraschungen aus Wahrscheinlichkeitsrechnung und mathematischer Statistik. Harri Deutsch, Thun, Frankfurt am Main, 1990
Thomas Waschke (2003): Intelligent Design � Eine Alternative zur naturalistischen Wissenschaft? Skeptiker 4/2003
Tversky, Amos; Kahnemann, Daniel: Judgment under Uncertainty: Heuristics and Biases. Science 185 (Sept. 1974), 1124-1131 (Auch enthalten in: Kahneman,Slovic, Tversky, 1982)
Urban, Martin: Wie die Welt im Kopf entsteht. Von der Kunst, sich eine Illusion zu machen. Eichborn, Frankfurt/M. 2002. Aus dem Inhalt: Logik des Aberglaubens. Bilder als Machtinstrument der Kirche. Magie der Medien.
Watzlawick, Paul; Beavin, Janet H.; Jackson, Don D.: Menschliche Kommunikation. Formen, St�rungen, Paradoxien. Verlag Hans Huber, Bern 1969
Verbindungen
Allgemein
- Skeptizismus: Die Gesellschaft zur wissenschaftlichen Untersuchung von Parawissenschaften (GWUP)
- Volker Dittmar �ber Psychologie, Religion & Glauben
- Kritisches Denken, Wahrnehmungspsychologie, Kognitionspsychologie - John H. Krantz
R�tsel und Rechenaufgaben
Anschauungsmaterial zum Thema Denkfallen bieten R�tsel und Rechenaufgaben, die in verschiedenen Sammlungen erschienen sind (beispielhaft: Walther Lietzmanns Buch �Wo steckt der Fehler�, die Kolumnen von Martin Gardner und Ian Stewart im Spektrum der Wissenschaft), die Web-Seite von David Eppstein.
Wandersagen und Stadtlegenden
Die Sinnsuche des Wahrnehmungs- und Denkapparats l�sst uns auch in Nichtssagendem (�Schr�der [der Kanzler] bekr�ftigte die 'europ�ische Perspektive' Bulgariens.�) und fadenscheinigen Geschichten irgend einen Sinn erkennen. Beispiele bieten die Astrologie und die Wahrsagerei - aber auch die vielen Wandersagen und Stadtlegenden. Hier sind Verbindungen zu Sammelstellen f�r solche Wandersagen:
- Stadtlegenden und Folklore (David Emery)
- Stadtlegenden (Barbara Mikkelson)
- Mythenbildung (Martin Ebert)
� Timm Grams, 1998-2015, aktualisiert am 22.05.2020 (Weitere Beispiele finden Sie im Weblogbuch Hoppla!)