· 

#WissensWissen - Wie viel wissen wir über das, was wir wissen?


Die "Illusion der erklärenden Tiefe": Wie viel wissen wir über das, was wir wissen?

Durch mixingmemory am 16. November 2006.

Es gibt nichts Besseres, als ein neugieriges Kind zu haben, das Sie darauf aufmerksam macht, wie wenig Sie tatsächlich über die Welt wissen. Oft (häufiger als ich zugeben möchte) wird mir mein Sohn (Darth Vader da drüben links) eine Frage stellen, wie etwas funktioniert oder warum etwas so passiert, wie es tut, und ich werde anfangen zu antworten, zunächst zuversichtlich in meinem Wissen, nur um festzustellen, dass ich völlig ahnungslos bin. Es ist mir dann peinlich, dass ich meine eigene Ignoranz nicht kann. Dies ist die Illusion der erklärenden Tiefe, und sie ist häufiger, als Sie oder ich wahrscheinlich zugeben wollen.

Ich werde gleich auf Gründe eingehen, warum es üblich ist, aber werfen wir zuerst einen Blick auf die Forschung. In mehreren Studien hatten Rozenblit und Keil1 eine Reihe von Aufgaben, die zeigen sollten, dass das anfängliche Vertrauen der Menschen in ihr erklärendes Wissen erheblich sinken wird, nachdem sie gebeten wurden, dieses Wissen tatsächlich zurückzuholen. Zuerst erhielten die Teilnehmer eine Liste von Objekten (z.B. einen Tacho und eine Nähmaschine) und baten sie, ihr Vertrauen in ihr Wissen darüber zu bewerten, wie diese Gegenstände funktionierten. Als nächstes wurden sie gebeten, detaillierte Beschreibungen der Funktionsweise der Objekte zu geben, und wurden dann gebeten, ihr Vertrauen in ihr Wissen über die Objekte erneut zu bewerten. Wenn das nicht ausreichte, um ihr Vertrauen zu erschüttern, erhielten sie dann mehrere Fragen zu den Objekten und bewerteten ihr Wissen erneut. Schließlich erhielten sie Erklärungen, wie die Objekte funktionierten, und wurden gebeten, ihr anfängliches Wissen (d.h. Vorerklärungswissen) und ihr aktuelles (Post-Erklärungs-)Wissen zu bewerten. Im Folgenden finden Sie eine Grafik, die die Daten aus zwei der Studien darstellt (Rozenblit und Keils Abbildung 3). T1 stellt die mittleren Anfangsbewertungen ihrer Teilnehmer dar. T2-T4 zeigen ihre mittleren Bewertungen ihres Wissens nach Abschluss jeder der Aufgaben an (T4 ist ihre endgültige Bewertung ihrer Vorerklärungskenntnisse), und T5 stellt die mittlere Bewertung der Kenntnisse nach der Erklärung dar.

Wie Sie sehen können, waren ihre anfänglichen Bewertungen (T1) deutlich höher als ihre nachfolgenden Bewertungen, und ihr Vertrauen in ihr erklärendes Wissen stieg erst wieder an, nachdem sie eine detaillierte Erklärung (T5) gelesen hatten. Mit anderen Worten, die Teilnehmer waren ihre eigene Ignoranz genauso unwissend wie oft, wenn mein Sohn mich bittet, die Dinge zu erklären. Rozenblit und Keil verwendeten erwachsene Teilnehmer, aber Mill und Keil zeigten, dass man ähnliche Effekte mit Zweit- und Viertklässlern erzielen kann, was darauf hindeutet, dass sich unser mangelndes Bewusstsein für unseren Mangel an Wissen ziemlich früh entwickelt2.

Nachdem Keil und seine Kollegen die Existenz einer Illusion erklärender Tiefe bei Erwachsenen und Kindern demonstriert hatten, machten sie sich daran, festzustellen, warum sie auftritt. Mit demselben Paradigma testeten Rozenblit und Keil auf illusorisches Wissen für Fakten und Geschichten und stellten fest, dass die Bewertungen ihres eigenen Wissens durch die Teilnehmer im Laufe der Zeit konsistent waren. Mill und Keil fanden heraus, dass die Zweit- und Viertklässler auch im Laufe der Zeit so zuversichtlich in ihr Wissen über Verfahren blieben. Daher scheint sich die Wirkung auf Erklärungen zu beschränken. Rozenblit und Keil fanden auch heraus, dass bei Erwachsenen die Illusion der erklärenden Tiefe für Objekte mit sichtbareren Teilen ausgeprägter war.

Diese Ergebnisse veranlassten Rozenblit und Keil, drei Faktoren vorzuschlagen, die eine Rolle bei der Illusion der erklärenden Tiefe spielen:

"Umweltunterstützung mit Repräsentation verwirren": Wenn wir darüber nachdenken müssen, wie etwas funktioniert, haben wir es oft direkt davor und können es beobachten. Das bezeichnen Rozenblit und Keil als "Umweltunterstützung". Sie argumentieren, dass wir fälschlicherweise glauben, dass das erklärende Wissen in unseren Köpfen liegt, weil wir es erklären können, wenn das Objekt direkt vor uns liegt. Erst wenn wir gezwungen sind, es ohne das vor uns liegende Objekt zu erklären, erkennen wir, wie wenig wir darüber wissen. Dieser Faktor würde die Feststellung erklären, dass die Illusion der erklärenden Tiefe für Objekte mit vielen sichtbaren Teilen größer ist.

"Ebenen der Analyseverwirrung": Denken Sie einen Moment darüber nach, wie Ihre Toilette funktioniert. Wenn Sie dazu aufgefordert werden, dies zu erklären, könnten Sie einfach antworten: "Sie drücken auf den Spüler, und das Wasser läuft ab und füllt sich dann wieder." Oder Sie könnten eine Erklärung geben, dass der Spüler mit dem Flapper verbunden ist, so dass er beim Drücken des Spülers den Klapper anhebt, wodurch Wasser aus dem Tank fließt, und so weiter. Oder Sie könnten die Physik der Spülung beschreiben, bei der ein Siphon erzeugt wird und, sobald das Wasser ausgeflossen ist, gebrochen ist, so dass Wasser zurück in die Schüssel und den Tank fließen kann. Jede dieser Erklärungen findet auf einer anderen Ebene statt. Rozenblit und Keil argumentieren, dass die Menschen dazu neigen, Wissen auf einer Erklärungsebene zu haben (z.B. das Drücken des Spülers, wodurch das Wasser abfließen und sich dann wieder auffüllt"), und dies lässt sie fälschlicherweise glauben, dass sie Wissen auf den anderen Erklärungsebenen haben, wenn sie es wirklich nicht tun. Dies erklärt, warum sie nicht die Illusion von Tiefe für Fakten und Geschichten zeigen. Fakten und Geschichten beinhalten im Allgemeinen nur wenige kausale Zusammenhänge (einige Fakten beinhalten möglicherweise keine), die auf einer Erklärungsebene beschrieben werden können, und daher ist es schwieriger, fälschlicherweise zu glauben, dass wir erklärendes Wissen haben, das wir eigentlich nicht haben.

"Unbestimmter Endzustand": Da es viele verschiedene Ebenen gibt, auf denen wir die Funktionsweise vieler Objekte erklären können, kann es schwierig sein zu wissen, wann wir genug Wissen haben, um zu erklären, wie diese Objekte funktionieren. Rozenblit und Keil argumentieren, dass dies dazu führen kann, dass die Menschen zu zuversichtlich in ihrem Wissen über solche Objekte sind. Dies erklärt auch, warum Story-Wissen leichter abzuschätzen ist. Geschichten haben einen Anfang und ein Ende, was es einfacher macht zu bestimmen, wann wir genug wissen, um sie zu erklären. Ich vermute jedoch, dass man, wenn Menschen an komplexeren Geschichten mit mehreren Erzählebenen getestet würden, auch eine Illusion von Tiefe für Geschichten finden könnte, basierend auf diesem und dem vorherigen Faktor.

Keil und seine Kollegen haben die letzten Jahre damit verbracht, die praktischen und theoretischen Auswirkungen dieser Ergebnisse in mehreren Papieren und Buchkapiteln auszuarbeiten. Wenn Sie interessiert sind, können Sie einige von ihnen hier, hier und hier lesen. Ich werde nur über die Implikation sprechen, die ich am interessantesten finde: unsere Abhängigkeit von der Aufteilung der kognitiven Arbeit. Wie die Erklärung unserer Verwirrung von "Umweltunterstützung" mit interner Repräsentation impliziert, ist ein Grund, warum wir mit unseren Illusionen der erklärenden Tiefe durchkommen können, dass wir, wenn wir mit einem Problem konfrontiert werden, das erklärendes Wissen erfordert, oft die Informationen haben, die wir benötigen, um eine Erklärung direkt vor uns zu bilden, und sie daher nicht im Kopf haben müssen. Keil und seine Kollegen haben auch etwas anderes besprochen, das es uns ermöglicht, unsere eigene Ignoranz nicht zu kennen3: Wir können uns auf das Wissen anderer verlassen. Ich denke vielleicht, dass ich viel darüber weiß, wie Computer funktionieren, aber wenn mein Computer ausfällt, schicke ich ihn an einen Experten, weil ein Experte wirklich weiß, wie mein Computer funktioniert (es sei denn, dieser "Experte" funktioniert für Circuit City, wie jeder, der jemals seinen Computer an ihn geschickt hat, wahrscheinlich weiß). Mein falscher Glaube, dass ich weiß, wie mein Computer funktioniert, tut mir also nicht wirklich weh.

Um diese Abteilung der kognitiven Arbeit zu nutzen, müssen wir wissen, wer was weiß. Lutz und Keil4 haben gezeigt, dass wir schon in jungen Jahren in der Lage sind, aus ihrem allgemeinen Fachgebiet Rückschlüsse auf das spezifische Wissen der Menschen zu ziehen. Sie hatten kleine Kinder (3-5 Jahre alt), die Rückschlüsse auf das Wissen zweier Arten von vertrauten Experten, Ärzten und Automechanikern, ziehen. Drei-, Vier- und Fünfjährige konnten Rückschlüsse auf "stereotypisches" Wissen ziehen, z. B. wer mehr über die Befestigung eines gebrochenen Arms im Vergleich zu einem Platten wissen würde, und Vier- und Fünfjährige können Rückschlüsse auf das Wissen über "zugrunde liegende Prinzipien" ziehen, wie z.B. "wer würde mehr darüber wissen, warum Pflanzen Sonnenlicht brauchen, um zu wachsen?" vs "Wer würde mehr darüber wissen, ob eine Leiter stark genug ist, damit eine Person klettern kann?" (S. 1075). Es ist wahrscheinlich kein Zufall, dass wir anfangen, Fachwissen zu beweisen, etwa zur gleichen Zeit, als wir beginnen, die Illusion von erklärender Tiefe zu zeigen, denn zu wissen, wessen Experte in dem, was es uns ermöglicht, uns weniger bewusst zu sein, was wir nicht wissen.

Ich brauche Ihnen wahrscheinlich nicht zu sagen, dass diese Abhängigkeit von der Aufteilung der kognitiven Arbeit in der Wissenschaft immer wichtiger wird. Wenn unser wissenschaftlicher Wissensbestand wächst, sind einzelne Wissenschaftler gezwungen, sich immer mehr auf ihr Wissen zu spezialisieren. Zwangsläufig wird die Illusion von erklärender Tiefe auch Wissenschaftler plagen, aber hoffentlich werden sie, wenn Spezialisten auf ein Problem stoßen, das Wissen erfordert, das außerhalb ihres Fachwissens liegt, ihre Ignoranz erkennen und wissen, wen sie konsultieren sollten, um bei der Lösung des Problems zu helfen. Ich wäre jedoch nicht überrascht, wenn sich herausstellt, dass die Illusion der erklärenden Tiefe viele Forscher auf den falschen Weg führt, weil sie denken, dass sie etwas verstehen, das außerhalb ihres Fachwissens liegt, wenn sie es nicht tun. Daher ist die Illusion der erklärenden Tiefe ein weiterer Grund für Wissenschaftler, an der Erhöhung des Umfangs der interdisziplinären Kommunikation zu arbeiten.

1Rozenblit, L., & Keil, F. (2002). Die missverstandenen Grenzen der Volkswissenschaft: Eine Illusion erklärender Tiefe. Kognitionswissenschaft, 26, 521-562.
2Mills, C.M., & Keil, FC (2004). Die Grenzen des eigenen Verständnisses kennen: Die Entwicklung eines Bewusstseins für eine Illusion erklärender Tiefe. Zeitschrift für experimentelle Kinderpsychologie, 87, 1-32.
3Z.B. Keil, FC (2005). Die Wiege der Kategorisierung: Unterstützung fragilen internen Wissens durch Handel mit Kultur und Welt. In W.K. Ahn, R.L. Goldstone, BC Liebe Grüße, A. Markman und P. Wolff (Hrsg.), Kategorisierung innerhalb und außerhalb des Labors: Essays zu Ehren von Doug Medin, (S. 289-302). Washington, D.C.: American Psychological Association.
4Lutz, D.R. und Keil, FC (2002). Frühes Verständnis der Aufteilung der kognitiven Arbeit. Kinderentwicklung, 73, 1073-1084.


The "Illusion of Explanatory Depth": How Much Do We Know About What We Know?

By mixingmemory on November 16, 2006.
There's nothing like having a curious child to make you aware of just how little you actually know about the world. Often (more often than I'd like to admit), my son (Darth Vader over there on the left) will ask me a question about how something works, or why something happens the way it does, and I'll begin to answer, initially confident in my knowledge, only to discover that I'm entirely clueless. I'm then embarrassed by my ignorance of my own ignorance. This is the illusion of explanatory depth, and it's more common than you or I probably want to admit.

I'll get to reasons why it's common in a moment, but first, let's take a look at the research. In several studies, Rozenblit and Keil1 had participants a series of tasks designed to show that people's initial confidence in their explanatory knowledge will drop significantly after they are asked to actually retrieve that knowledge. First, participants were given a list of objects (e.g., a speedometer and a sewing machine), and asked to rate their confidence in their knowledge of how those items worked. Next, they were asked to give detailed descriptions of how the objects worked, and were then asked to rate their confidence in their knowledge of the objects again. If that wasn't enough to shake their confidence, they were then given several questions about the objects, and rated their knowledge again. Finally, they were given explanations of how the objects worked, and were asked to rate their initial knowledge (i.e., pre-explanation knowledge) and their current (post-explanation) knowledge. Below is a graph presenting the data from two of the studies (Rozenblit and Keil's Figure 3). T1 represents the participants' mean initial ratings of their knowledge. T2-T4 show their mean ratings of their knowledge after completing each of the tasks (T4 is their final rating of their pre-explanation knowledge), and T5 represents the mean rating of post-explanation knowledge.

i-4f4c193d55633e9a5f529d8b4768fb51-Rozenblit&Keil2002.JPG

As you can see, their initial ratings (T1) were significantly higher than their subsequent ratings, and their confidence in their explanatory knowledge only rose again after reading a detailed explanation (T5). In other words, the participants were as ignorant of their own ignorance as I often am when my son asks me to explain things. Rozenblit and Keil used adult participants, but Mill and Keil showed that you can get similar effects with second and fourth graders, indicating that our lack of awareness of our lack of knowledge develops pretty early2.

After demonstrating the existence of an illusion of explanatory depth in adults and children, Keil and his colleagues set out to determine why it occurs. Using the same paradigm, Rozenblit and Keil tested for illusory knowledge for facts and stories, and found that participants' ratings of their own knowledge were consistent over time. Mill and Keil found that for second and fourth graders remained as confident in their knowledge about procedures over time as well. Thus, the effect seems to be limited to explanations. Rozenblit and Keil also found that in adults, the illusion of explanatory depth was more pronounced for objects with more visible parts.

These findings led Rozenblit and Keil to suggest three factors that play a role in the illusion of explanatory depth:

"Confusing environmental support with representation": Often, when we need to think about how something works, we have it right in front of it, and can observe it. This is what Rozenblit and Keil refer to as "environmental support." They argue that we mistakenly believe the explanatory knowledge is in our heads because we can explain it when the object is right in front of us. Only when we're forced to explain it without the object in front of us do we realize how little we know about it. This factor would explain the finding that the illusion of explanatory depth is greater for objects with many visible parts.
"Levels of analysis confusion": Think for a moment about how your toilet works. If asked to explain this, you could just answer "you press down on the flusher, and the water drains, then fills up again." Or you could give an explanation involving the flusher being connected to the flapper, so that when you press the flusher, it lifts the flapper, causing water to flow out of the tank, and so on. Or you could describe the physics of flushing, in which a siphon is created and, once the water has flowed out, is broken, allowing water to flow back into the bowl and the tank. Each of those explanations occurs at a different level. Rozenblit and Keil argue that people tend to have knowledge at one level of explanation (e.g., pressing the flusher causing the water to drain and then fill up again"), and this causes them to mistakenly believe that they have knowledge at the other levels of explanation when they really don't. This explains why they don't exhibit the illusion of depth for facts and stories. Facts and stories generally only involve a few causal relations (some facts might not involve any) that can be described at one level of explanation, and thus it's more difficult to mistakenly believe we have explanatory knowledge that we don't actually have.
"Indeterminate end state": Because there are many different levels at which we can explain the functioning of many objects, it can be difficult to know when we have enough knowledge to explain how those objects work. Rozenblit and Keil argue that this may lead people to be overconfident in their knowledge of such objects. This also explains why story knowledge is easier to estimate. Stories have a beginning and an end, making it easier to determine when we know enough to explain them. I suspect, however, that if people were tested on more complex stories with multiple narrative levels, you might find an illusion of depth for stories as well, based on this factor and the previous one.
Keil and his colleagues have spent the last couple years working out the practical and theoretical implications of these findings in several papers and book chapters. If you're interested, you can read some of them here, here, and here. I'm just going to talk about the implication that I find the most interesting: our reliance on the division of cognitive labor. As the explanation of our confusion of "environmental support" with internal representation implies, one reason we can get away with our illusions of explanatory depth is that when we're confronted with a problem that requires explanatory knowledge, we often have the information we need to form an explanation right in front of us, and therefore don't have to have it in our heads. Keil and his colleagues have also discussed something else that lets us get away being ignorant of our own ignorance3: we can rely on the knowledge of others. I may think I know a lot about how computers work, but when my computer breaks down, I send it to an expert, because an expert really does know how my computer work (unless that "expert" works for Circuit City, as anyone who's ever sent their computer to them probably knows). So my mistaken belief that I know how my computer works doesn't really hurt me.

In order to utilize this division of cognitive labor, we have to know who knows what. Lutz and Keil4 have shown that from a very young age, we're able to make inferences about people's specific knowledge from their general area of expertise. They had young children (3-5 years old) make inferences about the knowledge of two types of familiar experts, doctors and car mechanics. Three, four, and five year olds were able to make inferences about "stereotypical" knowledge, such as who would know more about fixing a broken arm vs. a flat tire, and four and five year olds are able to make inferences about knowledge of "underlying principles," such as "who would know more about why plants need sunlight to grow?" vs "who would know more about whether a ladder is strong enough for a person to climb?" (p. 1075). It's probably not a coincidence that we begin to demonstrate knowledge of expertise at about the same time that we begin to display the illusion of explanatory depth, because knowing whose an expert in what allows us to be less aware of what we don't know.

I probably don't need to tell you that this reliance on the division of cognitive labor is increasingly important in science. As our body of scientific knowledge grows, individual scientists are forced to become more and more specialized in their knowledge. Inevitably, the illusion of explanatory depth will plague scientists as well, but hopefully, when specialists arrive at a problem that requires knowledge that lies outside of their expertise, they will be able to recognize their ignorance and know whom they should consult to aid in the solving of the problem. I wouldn't be surprised, however, if it turns out that the illusion of explanatory depth leads many researchers down the wrong path, because they think they understand something that lies outside of their expertise when they don't. Thus the illusion of explanatory depth provides yet another reason for scientists to work on increasing the amount of interdisciplinary communication.

1Rozenblit, L., & Keil, F. (2002). The misunderstood limits of folk science: An illusion of explanatory depth. Cognitive Science, 26, 521-562.
2Mills, C.M., & Keil, F.C. (2004). Knowing the limits of one's understanding: The dvelopment of an awareness of an illusion of explanatory depth. Journal of Experimental Child Psychology, 87, 1-32.
3E.g., Keil, F.C. (2005). The cradle of categorization: Supporting fragile internal knowledge through commerce with culture and the world. In W.K. Ahn, R.L. Goldstone, B.C. Love, A. Markman, and P. Wolff (Eds.), Categorization Inside and Outside the Laboratory: Essays in Honor of Doug Medin, (pp. 289-302). Washington, D.C.: American Psychological Association.
4Lutz, D.R. and Keil, F.C. (2002). Early understanding of the division of cognitive labor. Child Development, 73, 1073

ParadoxInnovation

überraschende Lösungen zusammenStellen 



 

Gerne lernen wir Ihre Wünsche und Bedarfe kennen. Bitte senden Sie uns eine Email oder rufen Sie uns an: 

 

Michael Wingenfeld

Dr.-Leo-Ritter-Strasse 45
93049 Regensburg 

www.ParadoxInnovation.de 

Tel +  49  941  30779  057 

Info@ParadoxInnovation.de

Sparkasse Regensburg 

DE63  7505  0000  0001  0021  38

BIC: BYLADEM1RBG    UID: DE188865016



Das stellen wir auch noch auf:

KonFiguRATIO

Schule für Bewußtes zusammenStellen

Kurse & Coaching

Aus- & Weiterbildung

zum KonFiguRateur 

SERVE-IN

Service . Innovation + Inszenierung

Seminare, Workshops + Trainings

für Service + Engineering 

Geschäfte, Innovationen + Prozesse 

real.scan.service.

Wir multiplizieren Ihre Realität - digital !

aufStellungen in und mit

digitalen Realitäten, VR, AR, ... 

Game Engines, CAD, Simulationen, ...