Data Governance #11 – The Sixth Sense - Nicht jede Gabe ist ein Segen. Wie uns kognitive Verzerrung die Wahrnehmung trübt!
Zur Klärung der zentralen Begriffe haben wir ein Glossar zur Beitragsreihe Data Governance für Sie eingerichtet.
Im letzten Beitrag dieser Serie haben wir uns mit Data Literacy beschäftigt. Ein Aspekt und eine wichtige Fähigkeit ist das kritische Denken. Oftmals sind unsere Gedanken und Einschätzungen aber kognitiv verzerrt.
Diese Verzerrungen können unsere Entscheidungsfindung erheblich beeinflussen und zu fehlerhaften Schlussfolgerungen führen. In diesem Blogbeitrag werden wir uns eingehend mit dem Konzept des Critical Thinking befassen und zehn häufige kognitive Verzerrungen untersuchen, die unsere Wahrnehmung und Urteilsfähigkeit trüben können.
Critical Thinking und kognitive Verzerrungen
Critical Thinking, oder kritisches Denken, ist die Fähigkeit, Informationen objektiv zu analysieren und fundierte Entscheidungen zu treffen. Es erfordert, dass wir unsere eigenen Überzeugungen und Annahmen hinterfragen und offen für neue Perspektiven sind. Kognitive Verzerrungen sind systematische Denkfehler, die unsere Urteilsfähigkeit beeinträchtigen. Sie entstehen oft unbewusst und können dazu führen, dass wir Informationen falsch interpretieren oder voreingenommene Entscheidungen treffen.
Detaillierte Betrachtung der kognitiven Verzerrungen
Schauen wir uns einige Effekte der kognitiven Verzerrung im Detail an:
Survivorship Bias
Der Survivorship Bias tritt auf, wenn wir nur die erfolgreichen oder sichtbaren Fälle analysieren und die gescheiterten oder unsichtbaren Fälle ignorieren. Ein klassisches Beispiel ist die Untersuchung von Flugzeugen, die vom Kriegseinsatz zurückkehren, während die zerstörten Flugzeuge unberücksichtigt bleiben. Dies führt zu einem verzerrten Bild der Schwachstellen.
Stellen wir uns vor, es ist der Zweite Weltkrieg und die Alliierten analysieren die Schäden an den Flugzeugen, die von ihren Einsätzen zurückkehren. Die Ingenieur:innen bemerken, dass bestimmte Teile der Flugzeuge, wie die Flügel und der Rumpf, besonders oft beschädigt sind. Sie schlagen vor, diese Bereiche zu verstärken, um die Überlebenschancen der Flugzeuge zu erhöhen. Doch ein Statistiker namens Abraham Wald erkennt, dass diese Analyse einen entscheidenden Fehler aufweist: Sie berücksichtigt nur die Flugzeuge, die es zurückgeschafft haben. Die Flugzeuge, die abgeschossen wurden und nicht zurückkehrten, hatten möglicherweise Schäden an anderen, kritischeren Stellen, wie dem Motor oder dem Cockpit. Indem man nur die überlebenden Flugzeuge betrachtet, erhält man ein verzerrtes Bild der tatsächlichen Schwachstellen.
Diese Verzerrung kann erhebliche Auswirkungen haben. Wenn die Ingenieur:innen ihre Verstärkungen nur auf Basis der zurückgekehrten Flugzeuge anbringen, könnten sie die tatsächlichen Schwachstellen übersehen und die Überlebenschancen der Flugzeuge nicht wirklich verbessern.
Confirmation Bias
Beim Confirmation Bias suchen, interpretieren oder erinnern sich Menschen nur an Informationen, die ihre bestehenden Überzeugungen bestätigen. Ein Beispiel ist jemand, der an eine bestimmte Diät glaubt und nur Artikel liest, die diese Diät loben, während er Studien ignoriert, die sie widerlegen.
Stellen wir uns vor, jemand hat sich entschieden, eine neue Diät auszuprobieren, die verspricht, schnell Gewicht zu verlieren. Diese Person ist fest davon überzeugt, dass diese Diät die beste Methode ist, um abzunehmen. Um ihre Überzeugung zu bestätigen, beginnt sie, im Internet nach Informationen zu suchen. Sie stößt auf zahlreiche Artikel und Erfahrungsberichte, die die Diät in den höchsten Tönen loben und beeindruckende Erfolgsgeschichten erzählen. Diese positiven Berichte bestärken sie in ihrer Entscheidung und sie fühlt sich motiviert, die Diät weiterzuführen.
Doch gleichzeitig gibt es auch wissenschaftliche Studien und Expertenmeinungen, die die Wirksamkeit und Sicherheit dieser Diät in Frage stellen. Diese Informationen sind jedoch nicht so leicht zugänglich oder werden bewusst ignoriert. Die Person liest nur die Artikel, die ihre Überzeugung bestätigen, und blendet die kritischen Stimmen aus. Dadurch entsteht ein verzerrtes Bild der Realität, das ihre Entscheidung beeinflusst und möglicherweise zu gesundheitlichen Risiken führt.
Availability Heuristic
Die Availability Heuristic beschreibt die Tendenz, Wahrscheinlichkeiten höher einzuschätzen, wenn einem dazu leicht Beispiele einfallen – oft aus den Medien oder jüngsten Erlebnissen. Nach einem Flugzeugabsturz in den Nachrichten denken viele, dass Fliegen gefährlich ist, obwohl Autofahren riskanter ist.
Stellen wir uns vor, jemand sieht in den Nachrichten einen Bericht über einen tragischen Flugzeugabsturz. Die Bilder von den Trümmern und den Berichten über die Opfer sind erschütternd und bleiben im Gedächtnis haften. In den folgenden Tagen und Wochen spricht jede:r darüber, und die Medien berichten weiterhin intensiv über den Vorfall. Diese ständige Präsenz des Themas führt dazu, dass die Person beginnt, die Wahrscheinlichkeit eines Flugzeugabsturzes als viel höher einzuschätzen, als sie tatsächlich ist. Jedes Mal, wenn sie an das Fliegen denkt, kommen ihr die schrecklichen Bilder und Berichte in den Sinn.
In Wirklichkeit ist Fliegen jedoch eine der sichersten Reisemethoden, und die Wahrscheinlichkeit, bei einem Autounfall ums Leben zu kommen, ist viel höher. Doch weil die Person keine ähnlichen intensiven und emotionalen Berichte über Autounfälle sieht, schätzt sie das Risiko des Autofahrens als geringer ein. Diese Verzerrung, die durch die Verfügbarkeit von Informationen in den Medien und persönlichen Erlebnissen entsteht, kann dazu führen, dass Menschen irrationale Ängste entwickeln und ihre Entscheidungen auf falschen Annahmen basieren.
Ankereffekt (Anchoring Bias)
Der Ankereffekt tritt auf, wenn eine zuerst genannte Zahl oder Information unbewusst spätere Entscheidungen oder Einschätzungen beeinflusst.
Stellen wir uns vor, jemand betritt ein Autohaus mit dem Ziel, ein neues Auto zu kaufen. Die verkaufende Person begrüßt den/die Kund:in freundlich und beginnt, verschiedene Modelle vorzustellen. Er zeigt zunächst ein luxuriöses Modell und erwähnt, dass der Preis bei 12.000 € liegt. Diese Zahl bleibt im Kopf des/der Käufer:in hängen und dient als Anker für alle weiteren Preisvergleiche. Als die verkaufende Person später ein anderes Modell für 10.000 € anbietet, erscheint dieser Preis im Vergleich plötzlich als attraktiv, obwohl er objektiv betrachtet immer noch hoch ist.
Der Käufer hat das Gefühl, ein gutes Geschäft zu machen, weil der Preis von 10.000 € im Vergleich zu den zuvor genannten 12.000 € günstig wirkt. Dieser Effekt tritt auf, weil die zuerst genannte Zahl unbewusst als Referenzpunkt dient und die Wahrnehmung aller folgenden Preise beeinflusst. Der Ankereffekt zeigt uns, wie leicht unsere Entscheidungen durch anfängliche Informationen verzerrt werden können, selbst wenn diese Informationen nicht unbedingt relevant oder objektiv sind.
Hindsight Bias
Der Hindsight Bias beschreibt das Phänomen, dass ein Ereignis rückblickend als vorhersehbarer erscheint, als es tatsächlich war. Nach einem Wahlergebnis sagen viele: „Das war klar“, obwohl sie sich vorher nicht sicher waren.
Stellen wir uns vor, es ist Wahlabend und die Ergebnisse werden bekannt gegeben. Eine Partei gewinnt überraschend mit deutlichem Vorsprung. Viele Menschen, die vorher unsicher waren, wie die Wahl ausgehen würde, sagen nun: „Das war doch klar, dass sie gewinnen würden.“ Diese Aussage entsteht aus dem Hindsight Bias, der dazu führt, dass Ereignisse im Nachhinein als viel vorhersehbarer erscheinen, als sie es tatsächlich waren.
Vor der Wahl gab es zahlreiche Umfragen und Analysen, die unterschiedliche Ergebnisse prognostizierten. Die Meinungen der Wählenden waren gespalten, und viele waren sich unsicher, welche Partei letztendlich gewinnen würde. Doch sobald das Ergebnis feststeht, neigen die Menschen dazu, ihre Unsicherheit zu vergessen und das Ergebnis als offensichtlich zu betrachten. Sie erinnern sich selektiv an die Informationen, die das Wahlergebnis unterstützen, und blenden die Unsicherheiten und gegensätzlichen Prognosen aus.
Dunning-Kruger-Effekt
Der Dunning-Kruger-Effekt beschreibt, dass Menschen mit geringem Wissen oft ihre Kompetenz überschätzen, während Expert:innen ihr Wissen realistischer oder sogar zu kritisch einschätzen.
Stellen wir uns vor, jemand nimmt an einem Wochenendkurs zum Thema Fotografie teil. Nach dem Kurs fühlt sich die Person selbstbewusst und glaubt, nun ein:e Expert:in auf diesem Gebiet zu sein. Sie beginnt, Freunden und Familie Ratschläge zu geben und plant sogar, ihre Dienste als Fotograf anzubieten. Diese Selbstüberschätzung resultiert aus dem Dunning-Kruger-Effekt, bei dem Menschen mit geringem Wissen ihre Kompetenz überschätzen.
Auf der anderen Seite steht eine Person mit viel Fotografikerfahrung, die seit Jahren in diesem Bereich arbeitet. Diese Person hat umfangreiche Kenntnisse und Erfahrungen gesammelt und ist sich der vielen Herausforderungen und Feinheiten der Fotografie bewusst. Diese realistische Einschätzung der eigenen Fähigkeiten und des Wissensstands führt dazu, dass der/die Expert:in oft kritischer mit sich selbst ist.
Self-Serving Bias
Beim Self-Serving Bias werden Erfolge den eigenen Fähigkeiten zugeschrieben, Misserfolge jedoch äußeren Umständen.
Stellen wir uns vor, jemand bereitet sich intensiv auf eine wichtige Prüfung vor. Die Person investiert viel Zeit und Mühe in das Lernen und fühlt sich gut vorbereitet. Am Tag der Prüfung gibt sie ihr Bestes und besteht mit hervorragenden Noten. Dieser Erfolg wird den eigenen Fähigkeiten und der harten Arbeit zugeschrieben, was das Selbstwertgefühl stärkt.
Ein Jahr später steht eine weitere Prüfung an, doch diesmal läuft es nicht so gut. Trotz intensiver Vorbereitung fällt die Person durch. Statt den Misserfolg als Möglichkeit zur Selbstreflexion zu nutzen, sucht sie nach äußeren Umständen, die dafür verantwortlich gemacht werden können. Sie sagt: „Die Lehrperson war unfair und hat die Prüfung viel zu schwer gemacht. Außerdem war der Raum zu laut und ich konnte mich nicht konzentrieren.“ Der Misserfolg wird nicht den eigenen Fähigkeiten oder der Vorbereitung zugeschrieben, sondern äußeren Faktoren, die außerhalb der eigenen Kontrolle liegen.
Status-quo-Bias
Der Status-quo-Bias beschreibt die Tendenz, den aktuellen Zustand gegenüber Veränderungen zu bevorzugen – selbst wenn Alternativen besser wären.
Stellen wir uns vor, ein Unternehmen nutzt seit Jahren dieselbe Software zur Verwaltung seiner Kundendaten. Diese Software ist veraltet und ineffizient, was zu häufigen Problemen und Verzögerungen führt. Mehrere Mitarbeitende haben bereits vorgeschlagen, auf eine modernere und leistungsfähigere Software umzusteigen, die viele der bestehenden Probleme lösen könnte. Doch die Geschäftsführung zögert, diese Veränderung umzusetzen. Sie argumentieren, dass die aktuelle Software „schon immer“ verwendet wurde und dass ein Wechsel zu viel Aufwand und Unsicherheit mit sich bringen würde.
Halo-Effekt
Der Halo-Effekt tritt auf, wenn eine einzelne positive Eigenschaft (z. B. gutes Aussehen) unsere Einschätzung anderer Eigenschaften (z. B. Intelligenz) beeinflusst. Eine attraktive Person wird automatisch als sympathisch und kompetent wahrgenommen – ohne Fakten.
Stellen wir uns vor, jemand betritt einen Raum und sieht eine Person, die sehr gut aussieht. Diese Person hat ein strahlendes Lächeln, ist gut gekleidet und wirkt selbstbewusst. Ohne die Person näher zu kennen, neigen wir dazu, positive Eigenschaften wie Intelligenz, Freundlichkeit und Kompetenz anzunehmen. Wir denken vielleicht: „Diese Person sieht so gut aus, sie muss auch klug und sympathisch sein.“ Diese Annahmen basieren jedoch nicht auf Fakten, sondern auf dem ersten Eindruck, den das Aussehen vermittelt.
Ein konkretes Beispiel könnte ein Vorstellungsgespräch sein. Ein:e Bewerber:in, der/die attraktiv und gut gekleidet ist, wird möglicherweise von den Interviewenden positiver wahrgenommen. Diese positive Einschätzung kann dazu führen, dass der/die Bewerbende bevorzugt wird, selbst wenn andere Kandidat:innen möglicherweise besser qualifiziert sind.
Sunk Cost Fallacy
Die Sunk Cost Fallacy beschreibt das Festhalten an etwas, nur weil man bereits viel Zeit, Geld oder Energie investiert hat – obwohl es rational keinen Sinn mehr ergibt.
Stellen wir uns vor, jemand hat sich entschieden, einen neuen Film anzusehen, der vielversprechend klingt. Nach etwa einer Stunde merkt die Person, dass der Film langweilig und uninteressant ist. Trotz der Enttäuschung und des mangelnden Interesses entscheidet er/sie sich, den Film weiterzuschauen. Der Grund dafür ist, dass er/sie bereits eine Stunde investiert hat und das Gefühl hat, diese Zeit nicht „verschwenden“ zu wollen. Diese Entscheidung, den Film weiterzuschauen, basiert auf der Sunk Cost Fallacy – der irrationale Glaube, dass man an etwas festhalten sollte, nur weil man bereits Zeit, Geld oder Energie investiert hat.
Fazit
Das Bewusstsein für kognitive Verzerrungen ist ein entscheidender Schritt, um kritisch denken zu können. Indem wir unsere eigenen Denkfehler erkennen und hinterfragen, können wir fundiertere Entscheidungen treffen und unsere Urteilsfähigkeit verbessern. Critical Thinking ist eine wertvolle Fähigkeit, die uns hilft, in einer komplexen und informationsreichen Welt klarer zu sehen. Aus unserer Sicht ist „Critical Thinking“ eine wichtige, aber extrem herausfordernde Fähigkeit, die jede:r Datenkundige (Data Literate) trainieren sollte.
P.S. The Sixth Sense – Nichte jede Gabe ist ein Segen (1999); https://www.imdb.com/de/title/tt0167404/
Seminarempfehlungen
MYSQL ADMINISTRATION DB-MY-01
Mehr erfahrenDATA WAREHOUSE GRUNDLAGEN DB-DB-03
Mehr erfahrenIT-ORGANISATION UND IT-GOVERNANCE - OPTIMIERUNG IHRER IT-ORGANISATION PM-28
Mehr erfahrenPrincipal Consultant bei ORDIX
Kommentare