Sie sind auf Seite 1von 79

Virtuelles Seminar im Wintersemester 2003/2004

im Rahmen des Virtuellen Graduierten Kollegs (VGK)

Wissenschaft & Öffentlichkeit

Arbeitsergebnisse und Dokumentation

Es ist so. Es könnte auch anders sein.

Wissenschaft & Öffentlichkeit Literatur Glossar
Wissenschaft & Öffentlichkeit
Literatur
Glossar

Kritik des gesunden Menschenverstandes

Literatur Glossar Kritik des gesunden Menschenverstandes Dozenten: Prof. Bromme & Prof. Spada Arbeitsgruppen:

Dozenten:

Prof. Bromme & Prof. Spada

Arbeitsgruppen:

Gruppe A (Kapitel 1.1) Miriam Bertholet, Sabine Müller, Tina Schorr

Gruppe B (Kapitel 1.2) Anna Ertelt, Mareike Florax, Tanja Keller

Gruppe C (Kapitel 1.3) Stephanie Pieschl, Erik Ründal

Gruppe D (Kapitel 2.1) Julia Schuh, Marc Stadtler, Karsten Stegmann

Gruppe E (Kapitel 2.2) Tobias Bartholomé, Ingo Kollar, Jessica Phillip

Redaktionsgruppe:

Tina Schorr, Anna Ertelt, Erik Ründal, Karsten Stegmann, Ingo Kollar

Gliederung

1. Es ist so. Es könnte auch anders sein

4

1.1.

Gruppe A: Die Veränderung des epistemischen Kerns in der Wissenschaft (Kapitel 2 & 3)

4

1.1.1.

Exzerpt

4

1.1.2.

Annotationen

6

Die Sokal-Affäre

6

Auswirkungen der Trennung von Natur- und Geisteswissenschaft auf die Psychologie

7

Einfluss wissenschaftlicher Ergebnisse

8

„Epistemischer Kern“ der Wissenschaft

10

1.1.3.

Diskussion des Grundlagentexts durch die Seminarteilnehmer

11

Allgemeine Fragen

11

Fragen Psychologie

16

1.2.

Gruppe B: Das Verhältnis zwischen Wissenschaft & Öffentlichkeit – Krisen und Entwicklungen (Kapitel 4 bis 6)

17

1.2.1.

Exzerpt und Annotationen

17

Wie ist es? Unsaubere Schnittstellen (Kapitel 4)

17

Es hätte anders kommen können (Kapitel 5)

24

Anders für wen – anders mit wem? (Kapitel 6)

28

1.2.2.

Diskussion des Grundlagentexts durch die Seminarteilnehmer

32

Allgemeine Fragen

32

Weitere Beiträge

36

1.3.

Gruppe C: Zwei Modi – Verschleierung und Produktion von Wissen? (Kapitel 7 & Epilog)

36

1.3.1.

Exzerpt

36

Es könnte auch anders sein: Wissensproduktion nach Modus II (S. 66 - 78)

36

Wie könnte es anders sein? (S. 79 - 83)

38

1.3.2.

Annotationen

38

1.3.3.

Diskussion des Grundlagentexts durch die Seminarteilnehmer

38

2. Kritik des gesunden Menschenverstandes

43

2.1. Gruppe D: Untersuchte Fehlkonzepte in naturwissenschaftlichen Domänen (S. 9 – 34) 43

2.1.1.

Beispiele für untersuchte Fehlkonzepte

44

 

Umwelt & Biologie

44

Physik

45

Wissenschaftliches Arbeiten

47

2.1.2.

Diskussion des Grundlagentexts durch die Seminarteilnehmer

49

Fragen zu Fehlkonzepten und Ihrer Bedeutung in der (pädagogischen) Psychologie

49

Weitere Beiträge

54

2.2.

Gruppe E: Unanschaulichkeiten in der Psychologie (S. 77 - 128)

55

2.2.1.

Beispiele für Unanschaulichkeiten innerhalb der Psychologie

56

Genetische Einflüsse in der Psychologie

56

Fehlkonzepte aus dem Bereich Entwicklungspsychologie

57

Fehlkonzepte bzgl. des Operanten Konditionierens

58

Fehlkonzepte über die Wirkweise von Affekt / Emotion

58

Kontraintuitive Befunde aus der Sozialpsychologie

59

Fehlkonzepte zum Intelligenzbegriff

60

Fehlkonzepte über die Aussagekraft statistischer Methoden

61

Fehlkonzepte aus dem Bereich Wahrnehmung

61

Historische Fehlkonzepte

61

Analogien und Metaphern bei der Beschreibung von psychologischen Sachverhalten

62

Verbreitung und Veränderbarkeit von Fehlkonzepten und Mythen

62

Abschließende Bemerkungen

63

2.2.2.

Diskussion des Grundlagentexts durch die Seminarteilnehmer

65

3. Glossar

71

4. Literatur

77

1.

Es ist so. Es könnte auch anders sein.

Helga Nowotny (1999). Es ist so. Es könnte auch anders sein. Über das veränderte Verhältnis von Wissenschaft und Gesellschaft.

Wissenschaft & Öffentlichkeit Glossar Literatur
Wissenschaft & Öffentlichkeit
Glossar
Literatur

Gruppe A: Die Veränderung des epistemischen Kerns in der Wissenschaft (Kapitel 2 & 3)

Gruppe B: Das Verhältnis zwischen Wissenschaft & Öffentlichkeit Krisen und Entwicklungen (Kapitel 4 bis 6)
Gruppe B: Das Verhältnis
zwischen Wissenschaft &
Öffentlichkeit Krisen und
Entwicklungen (Kapitel 4
bis 6)
Gruppe C: Zwei Modi -
Verschleierung und
Produktion von Wissen?
(Kapitel 7 & Epilog)

Es ist so. Es könnte auch anders sein.

Kritik des gesunden Menschenverstandes

auch anders sein. Kritik des gesunden Menschenverstandes 1.1. Gruppe A: Die Veränderung des epistemischen Kerns

1.1.

Gruppe A: Die Veränderung des epistemischen Kerns in der Wissenschaft (Kapitel 2 & 3)

1.1.1.

Exzerpt

Wissenschaftliches Wissen hat weitgreifende, weltveränderliche Möglichkeiten. Dies hat sich in beeindruckender Deutlichkeit in der Entwicklung der Technowissenschaften in den letzten Jahrzehnten gezeigt. Die neue Zielsetzung von Wissenschaft ist die Stärkung internationaler wirtschaftlicher Wettbewerbsfähigkeit durch innovative Leistungen. Begleitet wird diese Ausrichtung von einem Privatisierungsschub in den Wissenschaften. Dieser bezieht sich jedoch nicht nur auf die Ressourcenverteilung, sondern umfasst ebenso die Verbreitung von Wissen und das Einfordern der Öffentlichkeit von Mitspracherecht. Dies ist begleitet von der Rückkehr von Emotionen in den wissenschaftlich-öffentlichen Diskurs, die sich besonders drastisch in den „science wars“ zwischen Naturwissenschaftlern und der „postmodernen Linken“ zeigen, wofür die so genannte Sokal-Affäre ein prominentes Beispiel ist.

Sokal-Affäre. Im Mai 1996 reichte der New Yorker Physikprofessor Alan Sokal einen Aufsatz mit dem Titel „Transgressing the Boundaries: Toward a Transformative Hermeneutics of Quantum Gravity“ bei der amerikanischen, für ihre postmoderne Ausrichtung bekannte kulturwissenschaftlichen (Cultural Studies) Zeitschrift für Social Text zur Veröffentlichung ein, die ihn unbeanstandet abdruckte. Der Artikel lief auf die relativistische Behauptung hinaus, dass die physikalische Wirklichkeit ebenso wie die gesellschaftliche im Grunde eine sprachliche Konstruktion sei. Für diese Thesen wurde nicht nur das ganze einschlägige Jargon- und Referenz-Arsenal des postmodernen Diskurses mobilisiert, sondern auch einige völlig unsinnige naturwissenschaftliche Behauptungen. Zeitgleich enthüllt Sokal in der Zeitschrift Lingua Franca seinen Scherz in dem Artikel: „A Physicist Experiments with Cultural Studies“, Mai/Juni 1996, S. 62-64.

Die emotionalisierte Debatte zeigt eine tiefe Verunsicherung über die Frage, mit welchen Argumenten die Unterstützung der Wissenschaft durch die Öffentlichkeit im 21. Jahrhundert sichergestellt werden kann.

Wissenschaftler müssen den Verlust ihrer Autorität ertragen und es wird notwendig Lobbyarbeit zu leisten. Der epistemische Kern der Wissenschaften muss neu mit der Gesellschaft verhandelt werden. Der zentralen Bestandteile des Wissenschaftsbildes sind neu zu bestimmen. Bisher fand wissenschaftliche Lebensform, experimentelle Arbeits- und methodische Denkweise ihren Ausdruck im Entstehen der scientific community. Diese ist geprägt durch die Geschichte der Wissenschaft, die eine Entwicklung nahm, die dem möglichst objektiven und unparteiischen Wissen am meisten Gewicht zuspricht. Dadurch wird Unabhängigkeit von subjektivem, durch Interessen verzerrtem Wissen der Alltagswirklichkeit gefordert, es bedingt jedoch gleichzeitig eine moralisch erkaltete Professionalität und Getrenntheit der Ergebnisse der Wissenschaft.

Es existieren zur Zeit nicht kohärente Bilder von Wissenschaft. Die wachsende Diskrepanz derselben zeigt sich im Anspruch und der tatsächlichen Umsetzung von Wissenschaft. Das allgemeine Bild der Wissenschaft, entspricht nicht mehr der empirischen Wirklichkeit der Forschungspraxis. Der Glaube an das besondere Ethos der Wissenschaft und ihren epistemischen, unverzichtbaren Kern bildet jedoch die Legitimationsbasis für die Autonomie der Wissenschaften.

Dennoch, das Bild einer Wissenschaft, die mittels strikter Rationalität und Objektivität verpflichteter Methodik und abgehoben vom gesellschaftlichen Kontext aus sich heraus Ideen

erzeugt, ist heute obsolet. Es bleibt umstritten, wer die Prioritäten in der Forschungspolitik setzt und welche Mitsprache der Öffentlichkeit eingeräumt wird.

1.1.2.

Annotationen

Die Sokal-Affäre

Nowotny (1999, S. 22) erwähnt die so genannten „Science Wars“, die besonders als Sokal-Affäre bekannt wurden. Es handelt sich dabei um eine Auseinandersetzung über Postmoderne Philosophie, in deren Mittelpunkt deren Verhältnis zur modernen Naturwissenschaft steht. Diese Wissenschafts-Affäre nahm folgenden Verlauf:

Im Mai 1996 reichte der New Yorker Physikprofessor Alan Sokal einen Aufsatz mit dem Titel Transgressing the Boundaries: Toward a Transformative Hermeneutics of Quantum Gravity (S. 217-252) (deutsch: Die Grenze überschreiten: Auf dem Weg zu einer transformativen Hermeneutik der Quantengravitation) bei der amerikanischen, für ihre postmoderne Ausrichtung bekannte kulturwissenschaftlichen (Cultural Studies) Zeitschrift für Social Text zur Veröffentlichung ein. Diese druckte ihn unbeanstandet mit anderen in einer Sondernummer ab. Der Artikel lief auf die relativistische Behauptung hinaus, dass die physikalische Wirklichkeit ebenso wie die gesellschaftliche im Grunde eine sprachliche Konstruktion sei. Selbst noch die Naturgesetze seien abhängig vom kulturellen Weltbild der Forscher. Für diese Thesen wurde nicht nur das ganze einschlägige Jargon- und Referenz- Arsenal des postmodernen Diskurses mobilisiert, sondern auch einige völlig unsinnige naturwissenschaftliche Behauptungen, die den Herausgebern von Social Text indes nicht weiter auffielen. Zeitgleich enthüllt Sokal in der Zeitschrift Lingua Franca seinen Scherz in dem Artikel: „A Physicist Experiments with Cultural Studies“, Mai/Juni 1996, S. 62-64.

Dieser Vorfall löste im akademischen Milieu und der Presse (der Fall kam immerhin bis auf die Titelseite der New York Times) einige öffentliche Diskussionen aus, wie dieser Vorfall zu bewerten sei. Alan Sokal wird zum gefragten Teilnehmer von Podiumsdiskussionen in den USA, später auch weltweit. Für Sokal selbst waren die Ergebnisse seines "Experiments" offenkundig: Der postmoderne Relativismus habe in weiten Bereichen der Sozial- und Geisteswissenschaften zu einem Verfall der wissenschaftlichen Standards, aber auch der politischen Argumentationskultur geführt. Dabei ist für ihn das eine durchaus mit dem anderen verbunden: Er selbst ist nach eigener Aussage "ein Linker und Feminist aufgrund von Evidenz und Logik, nicht entgegen diesen Prinzipien" - im Gegensatz

zu den Postmodernen Denkern, die zwar ebenfalls Linke, aber eben Relativisten seien, für die

es keine "wirklichen" Wahrheiten gebe.

Eine besondere Pikanterie von Sokals Jux lag darin, dass sein Artikel in einer

Sondernummer von Social Text erschien, die den Auseinandersetzungen rund um die

sogenannten „Science Wars“ gewidmet war. Seit dem Anfang der neunziger Jahre bekriegen

sich vor allem in der anglo-amerikanischen Wissenschaftswelt zwei Fraktionen. Auf der einen

Seite haben sich einige Wissenschaftssoziologen, -historiker und -philosophen versammelt.

Die Radikalsten unter ihnen stellten danach die Objektivität der Naturerkenntnis und ihrer von

sozialen Einflüssen scheinbar unberührten Wahrheit in Frage. Anfang der neunziger Jahre

begannen dann die ersten Reaktionen der Gegenseite, den Naturwissenschaftlern, die ihre bis

dahin völlig unhinterfragte Autorität angetastet sahen.

Im Herbst 1997 fand eine Verlagerung der Kriegsschauplätze sowie der beteiligten

Streithähne statt: Alan Sokal holte gemeinsam mit seinem belgischen Physiker-Kollegen Jean

Bricmont zu einer weiteren Attacke aus, mit der es nun vor allem wider die postmoderne

Philosophie gehen sollte. Der Titel des Buches "Impostures intellectuelles" (deutsch etwa

"Intellektuelle Hochstapeleien" bzw. " Eleganter Unsinn") bezog sich allerdings fast nur auf

eines: die fragwürdige Verwendung naturwissenschaftlicher Begrifflichkeiten und

mathematischer Konzepte durch postmoderne Denker wie Jacques Lacan, Julia Kristeva oder

Gilles Deleuze. In neun Kapiteln wird ein französischer Denker nach dem anderen an den

Pranger gestellt; nur wenige kommen ungeschoren davon, denen die beiden Physiker keine

Unredlichkeiten nachweisen können.

Auswirkungen der Trennung von Natur- und Geisteswissenschaft auf die Psychologie

Nowotny (1999, S. 25) stellt fest: „Zu den wahrscheinlich wichtigsten Voraussetzungen

für den Erfolg des Wissensprojekts gehörte die institutionalisierte Trennung der

wissenschaftlichen Untersuchungsobjekte. Die Bereiche „Natur“ und „Kultur“ oder „Natur“

und „Gesellschaft“ wurden scharf voneinander geschieden, […]“

Die Trennung der Wissenschaften in Natur- und Geisteswissenschaften, in

nomothetischen und ideographischen Ansatz oder in quantitative und qualitative Methodik hat

besonders auf die Psychologie Einfluss genommen. Die Standortbestimmung ist innerhalb der

Psychologie uneindeutig, was auch an der von Universität zu Universität unterschiedlichen

Fakultätszugehörigkeit erkennbar ist. Es findet sich also gerade in der Psychologie ein

Nebeneinander von nomothetischen Ansätzen, also der Suche nach allgemeinen Gesetzen, und ideographischen Ansätzen, die aus der Betrachtung von bedeutenden Einzelfällen ihre Erkenntnisse gewinnen.

Die scharfe Trennung zwischen Natur- und Geisteswissenschaft sowie die häufig damit verbundene „Abwertung“ von nicht rein naturwissenschaftlichem Wissen, hat unter anderem ihren Ursprung in Kants Kategorisierung von Wissenschaften in „Naturlehre“ und „Naturwissenschaft“ (vgl. dazu Schönpflug, 2000). Naturlehre hat nach Kant beschreibende und ordnende Funktionen, während Naturwissenschaft zu Gesetzen mit apodiktischer Gewissheit führen muss. In der Anwendbarkeit der Mathematik liegt die Möglichkeit zur Trennung zwischen Naturlehre und –wissenschaft: Eine Disziplin ist in dem Maße Wissenschaft, in dem in ihr Mathematik enthalten ist. Nur wenn Beobachtungen nach a priori Prinzipien geschehen, entsteht Wissenschaft. Kant und auch Hegel bestimmten als Gegenstand der Psychologie das subjektive Bewusstsein, was sich nicht durch mathematische Formeln beschreiben lässt und nicht durch a priori Prinzipien beobachtbar ist. Dadurch wurde der Psychologie abgesprochen, die Kriterien für Wissenschaftlichkeit zu erfüllen und sie wurde – als deren minderer Teil – in die Philosophie eingebunden.

Als Reaktion auf die Kriterien des Idealismus für Wissenschaftlichkeit entwickelten sich Richtungen innerhalb der Experimentellen Psychologie, die versuchten, Mathematik in der Psychologie anwendbar zu machen, so z.B. die Psychophysik. Daneben aber existierten natürlich auch weiterhin Ansätze mit geisteswissenschaftlicher Methodik, wie z.B. der Hermeneutik nach Dilthey. So kommt es, dass die Psychologie bis heute zu den Wissenschaften mit der breitesten Methodenvielfalt gehört.

Einfluss wissenschaftlicher Ergebnisse

Nowotny (1999, S. 26) stellt im Zusammenhang mit dem Einfluss von Wissenschaft folgende These auf: „Je objektiver und unparteiischer sich Wissen präsentieren kann, desto mehr Gewicht kommt ihm zu, um moralische und politische Entscheidungen anzuleiten.“

Objektivität gehört zusammen mit dem Streben nach Wahrheit, der Rationalität und der wissenschaftlichen Methodik zum bisherigen epistemischen Kern der Wissenschaft und begründet dadurch mit das Bild von Wissenschaft, wie es sowohl wissenschaftsintern als auch –extern von Seiten der Gesellschaft gesehen wird. Ein Festhalten an diesem epistemischen Kern bedeutet nach Nowotny, dass den wissenschaftlichen Ergebnissen ein hohes Maß an

Glaubwürdigkeit zugesprochen wird. Dies resultiert darin, dass wissenschaftliche Ergebnisse und auch die Methodik Einzug in öffentliche Debatten und Entscheidungen halten. Dies ist beispielsweise bei der Entscheidung darüber der Fall, ob gentechnisch veränderte Nahrungsmittel nach Deutschland eingeführt bzw. auch hier angebaut werden dürfen. Bei der Debatte führen sowohl Gegner als auch Befürworter gentechnisch veränderter Nahrungsmittel wissenschaftliche Untersuchungsergebnisse an, um ihre eigene Position zu unterstützen.

Der Rückgriff auf wissenschaftliche Ergebnisse in öffentlichen Diskussionen führt aber dazu, dass die Ergebnisse an Glaubwürdigkeit verlieren, da sie selbst zum Gegenstand der Diskussion werden können. Beispielsweise wird das Argument von Befürwortern gentechnisch veränderter Nahrungsmittel, dass in bisherigen Freilanduntersuchungen keine negativen Auswirkungen der Freisetzung festgestellt werden konnten, von Gegnern oft mit dem Vorwurf von Untersuchungsmängeln (z.B. zu kurzer Untersuchungszeitraum, zu geringer Untersuchungsradius) beantwortet. Damit wird wissenschaftliches Wissen verbreitet und mit Alltagswissen vermischt, wodurch wissenschaftliche Ergebnisse immer stärker zur Disposition gestellt werden. Hinzu kommt außerdem, dass meist nicht nur die wissenschaftlichen Ergebnisse in öffentlichen Diskussionen Verwendung finden, sondern auch Wissenschaftler von der Öffentlichkeit zitiert bzw. instrumentalisiert werden und häufig sogar selbst aktiv an öffentlichen Auseinandersetzungen teilnehmen. Dies wird zwar auf der einen Seite von der Öffentlichkeit im Zuge einer Verwertbarkeit von Wissenschaft gefordert, geht aber auf der anderen Seite gleichzeitig mit einem Autoritäts- und Glaubwürdigkeitsverlust wissenschaftlicher Ergebnisse, bestimmter Wissenschaftler und letztlich gar der Wissenschaft selber einher, da epistemischer Kern und besonders Objektivität nicht mehr aufrechterhalten werden. Der Autoritätsverlust entsteht also durch die Annäherung von Wissenschaft und Gesellschaft bzw. durch die Einbettung von Wissenschaft in politische und ökonomische Zusammenhänge.

Ergebnis dieser Entwicklung ist, dass eine autonome Sonderstellung von Wissenschaft nicht mehr gegeben ist und Wissenschaft damit angreifbar wird. Wissenschaftler sind daher darauf angewiesen, um Unterstützung für ihre Arbeit zu werben, d.h. als Lobbyisten tätig zu werden. Öffentlichkeitsgerechte Ergebnispräsentationen und wissenschaftsexterne Kooperationen dienen damit nicht mehr nur der inhaltlichen Auseinandersetzung, sondern in weitaus stärkerem Maß der Wissenschaftswerbung mit dem Ziel, die Verteilung von Aufmerksamkeit und Ressourcen zugunsten des eigenen Fachs oder Projekts zu beeinflussen. Dieses Auftreten von Wissenschaftlern als Lobbyisten verstärkt aber gerade wieder den

Autoritätsverlust der Wissenschaft, da bisheriger epistemischer Kern und Objektivität angegriffen werden. Das öffentliche Bild von Wissenschaft, das auf diesem epistemischen Kern basiert, steht damit auch in Diskrepanz zu den tatsächlichen Forschungspraktiken, wodurch der Autoritätsverlust der Wissenschaft in einer Art „Abwärtsspirale“ immer weiter beschleunigt wird. Dies drückt sich auch dadurch aus, dass die Autonomie der Wissenschaft stark beeinträchtigt ist und Legitimität nur noch punktuell neu erworben werden kann, wenn etwa wissenschaftsextern bestimmte Forschungsprioritäten verfolgt werden bzw. öffentlichkeitsnahe Selektionskriterien für wissenschaftliche Fragestellungen Anwendung finden. Ein Beispiel für eine solche Entwicklung kann in dem seit Vorstellung der PISA- Studie plötzlich erwachten Interesse an empirischer Bildungsforschung in mehreren Disziplinen (z.B. Pädagogik, Psychologie, diverse Fachdidaktiken) gesehen werden, obwohl empirische Bildungsforschung bis zu diesem Zeitpunkt in Deutschland kaum Beachtung gefunden hat.

„Epistemischer Kern“ der Wissenschaft

Im dritten Kapitel beschäftigt sich Nowotny (1999, S. 28ff) hauptsächlich mit der Frage, inwiefern der epistemische Kern der Wissenschaft neu bestimmt werden kann. Was ist mit diesem Begriff gemeint?

Erkenntnis

betreffend“ oder „erkenntnistheoretisch“. Der epistemische Kern der Wissenschaften beinhaltet also das Selbstverständnis darüber, wie Erkenntnis zustande kommt.

„Epistemisch“

(von

„episteme“

(griech.)

=

Wissen)

bedeutet

„die

Fleck (1935/1980) geht in seiner Wissenschaftstheorie von der Annahme aus, dass Wissenschaft kooperativ stattfinden muss. Deshalb besteht die Notwendigkeit, neben empirischen Ergebnissen auch die Überzeugungen zu berücksichtigen, die Wissenschaftler verbinden. Fleck verwendet die Begriffe „Denkkollektiv“ für die Gemeinschaft der Wissenschaftler und „Denkstil“ für die Vorannahmen, auf denen sie ihr Wissen begründen. Teil des epistemischen Kerns ist also, dass Wissen nie allein, sondern nur aufgrund von Vorannahmen möglich ist. Diese sind allerdings nicht a priori vorhanden, sondern durch verschiedene soziale und historische Faktoren geprägt:

(1) Durch „das Gewicht der Erziehung“; Wissen besteht hauptsächlich aus Erlerntem.

(2) Durch „die Last der Tradition“; das Erkennen von neuem ist geprägt durch das Alte.

(3) Durch

„die

Wirkung

der

Reihenfolge

des

Erkennens“;

bereits

formulierte

Erkenntnis, schränkt die Möglichkeit neuer Erkenntnisse ein.

Dadurch gibt es neben den wissenschaftlichen Erkenntnissen immer eine große Menge an alternativen Wirklichkeiten, die miteinander in Konkurrenz stehen. Jede soziale Gruppe bildet ihren eigenen Denkstil aufgrund des sozialen Hintergrunds und mit Fokus auf ihre spezifischen Probleme aus.

Durch das Vorhandensein des Denkstils gibt es keine unvoreingenommene oder voraussetzungslose Beobachtung, stattdessen aber zwei verschieden Typen von Beobachtungen:

(1) das unklare anfängliche Schauen

(2) das entwickelte unmittelbare Gestaltsehen

Letzteres ist nur möglich, wenn man in einem bestimmten Wissensgebiet genügend Erfahrungen hat. Die Fähigkeit zum unmittelbaren Gestaltsehen ist Bestandteil des Denkstils und hindert einen daran, Wissen zu bilden, welches widersprüchlich zur bekannten Gestalt ist.

Das unklare Schauen ermöglicht in seiner Unstrukturiertheit hingegen empirische Entdeckungen. Fleck (1935/1980, S. 122) stellt fest: „Jede empirische Entdeckung kann also als Denkstilergänzung, Denkstilentwicklung oder Denkstilumwandlung aufgefasst werden.“

Nowotny betont die Notwendigkeit der Wandlung des epistemischen Kerns. Doch wie kann sich eine solche vollziehen, wenn doch innerhalb eines Denkkollektivs eine Tendenz zur Verhaftung an alten Erkenntnissen besteht? Fleck weist darauf hin, dass jedes Mitglied eines solchen Denkkollektivs auch gleichzeitig Mitglied des größeren Kollektivs der alltäglichen Lebenswelt ist, indem es den gesunden Menschenverstand nutzt. Verschiebungen von Gedanken zwischen verschiedenen Kollektiven, also der Einbezug des gesunden Menschenverstands, verursachen Verschiebungen oder Veränderungen innerhalb des Denkstils. Der Austausch zwischen Wissenschaft und der Gesellschaft ist demnach wesentliche Bedingung für eine Flexibilisierung des Erkenntnisprozesses.

1.1.3. Diskussion des Grundlagentexts durch die Seminarteilnehmer

Allgemeine Fragen

Epistemischer Kern in der Vergangenheit?

Nowotny (1999) beschreibt den bisherigen epistemischen Kern von Wissenschaft durch die

Merkmale Suche nach Wahrheit, Objektivität, Rationalität und praktische Umsetzung der

wissenschaftlichen Methode, wenngleich die Autorin einschränkend hinzufügt, dass der

epistemische Kern in einem bestimmten Ausmaß schon immer kontextgebunden und damit

wandelbar war. Nichtsdestotrotz stellt sie heraus, dass dieser epistemische Kern bisher mehr

oder minder Bestand hatte und erst aktuell nicht mehr aufrechterhalten wird bzw. werden

kann. Ist das wirklich so oder handelt es sich dabei eher um eine „nachträgliche Verklärung“

aus heutiger Sicht?

Weitere Gültigkeit des epistemischen Kerns Ich würde die Aussage anzweifeln, dass der epistemische Kern mit den Merkmalen "Suche nach Wahrheit", "Objektivität", "Rationalität" und "praktische Umsetzung der wissenschaftlichen Methode" heute nicht mehr aufrechtzuerhalten ist. Ich denke, auch wenn anwendungsnahe Forschung betrieben wird, so sind doch Objektivität, Rationalität, der Einsatz wissenschaftlicher Methoden und auch die Suche nach Wahrheit weiterhin Maximen, die ein seriöser Forscher einzuhalten anstrebt. Wenn mich nun zum Beispiel ein Unternehmen XY, das eine bestimmte Lernsoftware entwickelt hat, beauftragt, diese Software zu evaluieren, so würde ich doch versuchen, eine Evaluationsstudie durchzuführen, die den Kriterien Rationalität, Objektivität etc. entspricht. Fraglich ist natürlich, was das Unternehmen XY mit meinen Evaluationsergebnissen macht, sollten sie zeigen, dass ihre Lernsoftware unbrauchbar ist. Ich denke, was sich tatsächlich geändert hat, sind die Verflechtungen zwischen Wissenschaft und (in diesem Fall) Wirtschaft, mit dem Effekt, dass Wissenschaftler tatsächlich Lobbyarbeit betreiben müssen, um Forschungsaufträge aus der Wirtschaft zu erhalten. Dennoch denke ich, dass ein Unternehmen, das einem Wissenschaftler einen Forschungsauftrag erteilt, sich weiterhin des epistemischen Kerns der Wissenschaft bewusst ist bzw. sein muss, d.h. dass der "eingekaufte" Forscher versuchen wird, mit seinen objektiven, rationalen Methoden nach "Wahrheit" zu suchen. Wäre dies nicht der Fall, so gäbe es keinen Grund, einen Wissenschaftler mit der Aufgabe zu betrauen, zu zeigen, dass das eigene Produkt gut ist - in diesem Fall wäre dann wohl eher ein Werbefachmann angebracht.

Epistemischer Kern zu allen Zeiten als Ideal Selbstverständlich muss der epistemische Kern der Wissenschaft auch in der Wissenschaftsgeschichte als ein Ideal betrachtet werden, dass zwar handlungsleitend war aber wohl nie vollständige Gültigkeit erlangte. Vielleicht war es in der Vergangenheit nichts desto trotz für die Wissenschaft leichter, sich größere Freiräume jenseits der Öffentlichkeit zu bewahren. Dies könnte zum Beispiel an dem insgesamt niedrigern Bildungsniveau der breiten Öffentlichkeit liegen, das einer Teilnahme am wissenschaftlichen Diskurs entgegenstand. Außerdem entsprach es auch dem von der Öffentlichkeit gestützten Selbstbild der Wissenschaften Wissenschaft ihrer selbst Willen im geschützten Raum’ (z.B. in Klöstern) zu betreiben. Grundsätzlich stimme ich zu, aber in Klöstern wurde natürlich nie Wissenschaft betrieben.

Dieser "epistemische Kern der Wissenschaft" existiert doch erst seit der Aufklärung und wurde selbst damals noch in Frage gestellt (siehe auch Annotationen Gruppe C). Mir scheint es mehr und mehr so, dass dieser Kern als Idealtyp gesehen werden sollte, der vielleicht im 19. Jahrhundert (Humboldtsche Universitätsidee) verklärt wurde - das ist dann die wirkliche "nachträgliche Verklärung". In der Zeit davor scheint es eher so zu sein, dass Öffentlichkeit und Wissenschaft sehr wohl in regem Austausch stand und sich beide gegenseitig befruchteten. Wieso sich die Wissenschaft aber im Elfenbeinturm

niedergelassen hat, ist mir immernoch nicht ganz klar (werde aber versuchen, das mal in

Dass der epistemische Kern aktuell nicht mehr

aufrechterhalten werden kann, wäre dann eine direkte Folge der Postmoderne-Diskussion, oder? Oder vielleicht Paul Feyerabends "Anything Goes"-Theorie? Die These, dass der epistemische Kern der Wissenschaft mit den Merkmalen der Suche nach Wahrheit, Objektivität und Rationalität sowie der wissenschaftlichen Methode früher in stärkerem Umfang Bestand hatte als dies heute der Fall ist, beinhaltet eine Verklärung oder zumindest unvollständige Darstellung der Wissenschaftsgeschichte. Ich stimme der Einschätzung zu, dass dem epistemischen Kern stets eher die Funktion eines handlungsleitenden Ideals zukam, ohne die wissenschaftliche Realität vollständig abzubilden. Wissenschaft war stets eingebunden in den gesellschaftlichen Kontext und den Autoritäten und Institutionen verpflichtet, die sie finanzierten, und damit nie ausschließlich auf den skizzierten epistemischen Kern ausgerichtet. So wurde eine Großzahl der Entwicklungen im Bereich der Physik im letzten Jahrhundert (z.B. Entwicklung der Computertechnologie) angestoßen und finanziert durch das Militär. Relativ jung ist allerdings der öffentliche gesellschaftliche Diskurs über die Rolle und Rechtfertigung von Wissenschaft. Zum einen steht dieser Diskurs im Zusammenhang mit der steigenden Allgemeinbildung sowie der zunehmenden Distribuierung von Wissen über Massenmedien wie Fernsehen, Zeitungen und das Internet. Die Informiertheit der Öffentlichkeit über wissenschaftliche Erkenntnisse und damit auch über die mitunter negativen Wissenschaftsfolgen bildet die Grundlage für die von Nowotny geschilderte Skepsis gegenüber Wissenschaft. Zum anderen führt die fortschreitende Liberalisierung der westlichen Demokratien dazu, dass staatliche Investitionen (und damit auch die Investition in Wissenschaft) immer stärker vor der Öffentlichkeit gerechtfertigt werden müssen. Dieser Diskurs kann sich als fruchtbar für das Selbstverständnis der Wissenschaft erweisen, da er die Chance bietet, das Verhältnis von Wissenschaft und Öffentlichkeit zu explizieren und somit zur Neuverhandlung des epistemischen Kerns der Wissenschaft beizutragen.

meinen Geschichtsbüchern zu eruieren

).

Gemeinsamer epistemischer Kern in der Wissenschaft?

Ist ein epistemischer Kern für alle Wissenschaftsbereiche gemeinsam überhaupt be-schreibbar

oder ist dies heute durch zunehmende Segmentierung nur noch spezifisch mög-lich, also

separat z.B. für anwendungsnahe Forschung, Grundlagenforschung, technisch orientierte

Forschung etc.?

Einheitliche Beschreibbarkeit des epistemischen Kerns nur als Ideal Wenn man, wie in der Annotation dieser Gruppe beschrieben den epistemischen Kern als "das Selbstverständnis darüber, wie Erkenntnis zustande kommt" bezeichnet, ist meiner Meinung nach offensichtlich, dass der epistemische Kern nicht einheitlich beschrieben werden kann. Das Verständnis darüber, wie Erkenntnis zustande kommt variiert nicht nur zwischen den Disziplinen (verschiedene Forschungsmethodiken, nur teilweise empirisch,

sondern selbst innerhalb einer Disziplin werden oft verschiedene Ansätze vertreten

(z.B. quantitative vs qualitative Methoden in der Psychologie). Des Weiteren wandelt sich

dieses Verständnis historisch und passt sich damit immer den neusten Entwicklungen an (besonders in Bezug auf technologische Neuerungen, z.B. Kernspin-Technologie in der Medizin, alle Arten der rechnergestützten Datenerhebungen nicht nur in der Psychologie oder Forschung im AI-Bereich). Allerdings sollte man meiner Meinung nach trotzdem eine Art gemeinsame Beschreibung versuchen, wenn auch nur als eine Art Ideal, an dem sich alle ausrichten können.

),

Verhältnis Wissenschaft und Öffentlichkeit

Kann es generell als positiv oder negativ klassifiziert werden, wenn Fragestellungen aus der

Öffentlichkeit an die Wissenschaft herangetragen werden bzw. wenn die Öffentlichkeit die

Forschungsprioritäten festlegt? Wenn nicht: Wie könnten sinnvolle Rahmenbedingun-gen für

den Einfluss von Öffentlichkeit auf Wissenschaft aussehen?

Unterscheidung zwischen Grundlagenforschung und Anwendungsforschung Eine grundsätzliche Bewertung, ob wissenschaftliche Fragestellungen von der Öffentlichkeit angeregt werden dürfen oder nicht, erscheint mir nicht sinnvoll. Zum einen ist es natürlich richtig, dass Öffentlichkeit oftmals von wissenschaftsfernen Interessen geleitet ist (z.B. ökonomischen Interessen), zum andern kann eine Fragestellung aber auch nicht per se zur unwissenschaftlichen degradiert werden, nur weil sie von öffentlichem Belang ist. Im Grunde spiegelen sich diese Überlegungen ja auch in der Unterscheidung zwischen grundlagen- und anwedungsorientierter Forschung wider. Einerseits bedarf es – und dem wird im Rahmen der Grundlagenforschung ja auch Rechnung getragen- wissenschaftliche Freiräume in den vorrangig nach wissenschaftlichen Prinzipien vorgegangen wird. Gleichwohl ist es aber auch hier erforderlich, Rahmenbedingungen abzustecken, die öffentliche Legitimation finden. Diese Spannungsgefüge ist z.B. durch die wissenschaftliche Selbstverwaltung (z.B DFG) und regierungsstaatliche Forschungsförderung (Bundes- und Landesministerien) institutionalisiert. Anderseits muss es aber auch als legitimes Interesse der Öffentlichkeit respektiert werden, dass Lösungen für aktuelle Problemfelder in Gesellschaft und Wirtschaft von der Wissenschaft gesucht werden, wie es ja auch in der Anwendungsforschung zu finden ist.

Bewertung im Einzelfall – Unterscheidung zwischen implizitem und explizitem Dialog Um diese Beurteilung vorzunehmen zu können, sollte man beim historischen Verhältnis von Wissenschaft und Öffentlichkeit beginnen, das auf der künstlichen Trennung von Natur und Kultur bzw. von Natur und Gesellschaft beruhte. Diese strikte Trennung wurde jedoch aufgehoben und ein Hoffnungsstrang richtete sich auf die utilitaristische- instrumentelle Verwendung von Wissenschaften (vgl. Kapitel 5), so dass heute auch die reinste Grundlagenforschung unter einer gewissen Anwendungsperspektive stattfindet. Mögliche Anwendungen richten sich dabei an eine Öffentlichkeit, da sie von dieser angewendet werden sollen (Anwendungsideen --> Öffentlichkeit), gleichzeitig kommen die Ideen für diese Anwendung aus dem In-Beziehung-Setzen oder dem Dialog mit der Öffentlichkeit (Öffentlichkeit --> Anwendungsideen). Dabei ist zu unterscheiden, ob dieses In-Beziehung-Setzen oder dieser Dialog implizit oder explizit stattfindet:

1) Eine implizite und allgemeine Erwartung der Öffentlichkeit an die Naturwissenschaft ist z.B. Therapieformen gegen Krebs zu finden. Beschäftigen sich nun also Biologen mit einer bestimmten Algensorte und züchten Chemiker eine neue Art von Molekülen, so wird Grundlagenforschung unter Anwendungsperspektive betrieben und man greift quasi implizit eine Fragestellung aus der Öffentlichkeit auf. Forschung dieser Art ist meiner Ansicht als positiv zu klassifizieren, da man weder Elfenbeinturmforschung betreibt, noch zum Spielball gewisser Interessengruppen wird und das Ergebnis gesamtgesellschaftlichen Nutzen hat. 2) Eine andere Variante ist, dass bestimmte Gruppen einer Öffentlichkeit explizit Fragestellungen an die Wissenschaft herantragen. Ein Beispiel könnte sein, dass mehrere Automobilkonzerne eine TU sponsern, jedoch verknüpft mit der Erwartung, dass über Katalysatoren geforscht wird und verbunden mit dem Anspruch nach Exklusivität hinsichtlich der Ergebnisverwertung. In diesem Fall ist der Einfluss einer Öffentlichkeitsgruppierung als negativ anzusehen, da es sich um Einflussnahme und Auftragswissenschaft handelt. Wissenschaft verliert ihre Neutralität und wird gegebenenfalls einer Wirtschaftlichkeit untergeordnet, indem für den Auftraggeber ungünstige Ergebnisse zurückgehalten werden. ==> Ein Herantragen von Fragestellungen aus der Öffentlichkeit an die Wissenschaft kann somit nicht generell als positiv oder negativ bewertet werden, sondern muss im Einzelfall geprüft werden. Deshalb sollte meiner Meinung nach die Öffentlichkeit zwar in Dialog mit den Wissenschaften treten, aber nicht alleine Forschungsprioritäten festlegen, da die Gefahr besteht Forschung und Wissenschaft dabei hauptsächlich unter einer Kosten-Nutzen-Perspektive zu betrachten. Natur- und Technowissenschaften hätten es dabei leichter einen Verwertungszusammenhang aufzuzeigen, während reine Geisteswissenschaften (z.B. Philosophie, Altlatein etc.) nicht nach diesen Kriterien beurteilt werden können. Um sinnvolle Rahmenbedingungen zu finden, müsste man den Gesellschaftsvertrag neu aushandeln (vgl. Kapitel 6). Da der Einfluss prinzipiell in beide Richtungen gehen kann (Öffentlichkeit --> Wissenschaft, Wissenschaft --> Öffentlichkeit), handelt es sich um eine Grauzone, für die es schwer ist, generelle Regeln zu finden. Eine Lösungsmöglichkeit könnte daher sein, einen offenen Dialog zu führen, in dem gegenseitige Erwartungen und Befürchtungen dargelegt werden und bei Problemen und verhärteten Positionen gegebenenfalls eine dritte, unabhängige Vermittlungsinstanz einzuschalten.

Fragen Psychologie

Verhältnis wissenschaftliches Wissen und Laienwissen in der Psychologie?

Nowotny stellt zwei gegensätzliche Annahmen zum Zusammenhang von wissenschaftli-chem

Wissen und Laienwissen vor: (1) Objektives Wissen existiert unabhängig vom Lai-enwissen

und (2) es besteht keine Trennung mehr zwischen objektivem Wissen und Lai-enwissen.

Kennzeichnend für die Psychologie als Wissenschaft ist, dass sie sich nicht so scharf von dem

Allgemeinwissen absetzen kann wie andere Disziplinen, z.B. Physik. Zentrale For-

schungsgebiete der Psychologie sind auch immer Bereiche, die Teil der Erfahrung von Laien

sind. Dadurch fühlen sich auch Laien häufig in der Lage, sich selbst als Experten für

psychologische Fragestellungen zu fühlen. Jedoch unterscheidet sich die wissenschaftliche

Psychologie durch eine sorgfältige Analyse und die dabei verwendete Methodik von der

Alltagspsychologie. In welcher Beziehung stehen im Bereich der Psychologie wissen-

schaftliches Wissen und Laienwissen zueinander?

Problematisches Verhältnis von wissenschaftlichem Wissen und Laienwissen Die Beziehung zwischen wissenschaftlichem Wissen und Laienwissen ist generell als problematisch einzustufen. Während der Laie in den Naturwissenschaften jedoch in der Lage ist, sein Wissen kritisch zu bewerten und Aussagen eines Experten wie „die Erde ist keine Kugel, sondern ein Rotationsellipsoid“ akzeptiert, ist dies bei psychologischen Themen häufig nicht der Fall und es ist für einen Psychologen schwieriger zu verdeutlichen, dass es sich bei einer zweitägigen gedrückten Stimmung nicht um eine Depression handelt. Zugleich ist man sich in den Naturwissenschaften seiner Wissenslücken bewusster, da es häufig eindeutige Lösungen gibt (z.B. Moleküle haben bestimmte Strukturformeln, eine mathematische Gleichung eine bestimmte Ableitung etc.). In den Geisteswissenschaften allgemein und in der Psychologie speziell gibt es innerhalb einer Bandbreite verschiedene Lösungsvarianten, die je nach Argumentationsstrang alle Gültigkeit haben können. Dadurch fühlt sich auch der Laie bemüßigt, aktiv an Diskussionen teilzunehmen, was prinzipiell im Sinne eines Dialogs zwischen Öffentlichkeit und Wissenschaft zu begrüßen ist. Häufig wird jedoch von beiden Seiten vergessen, dass es sich um eine Experten-Laien-Kommunikationssituation handelt und nicht selten kommt es zu Begriffsdiffusionen und Missverständnissen, da man zwar die gleichen Begriffe verwendet aber qualitativ und quantitativ unterschiedlich strukturiertes Wissen hat. Um dieses Dilemma zu lösen bedarf es somit sowohl einer Öffentlichkeits- und Aufklärungsarbeit durch die Experten (hier: Psychologen) als auch der Schärfung des Bewusstseins auf beiden Seiten für die tatsächlich vorhandenen (Wissens-) Unterschiede und damit auch der Akzeptanz der Psychologie als Wissenschaft.

Die Beziehung zwischen dem Laienwissen und wissenschaftlichen Erkenntnissen in der Psychologie ist meiner Meinung nach eher problematisch einzuschätzen. Diese Problematik erwächst aus dem Umstand, dass sich die Psychologie häufig mit Alltagsphänomenen beschäftigt. Da diese Alltagsphänomene von jedermann beobachtbar sind, werden psychologisch-wissenschaftliche Erkenntnisse häufig nicht als solche

wahrgenommen. Ein Zeichen für dieses Phänomen sind die Reaktionen von Nicht- Psychologen auf neue psychologische, methodisch-fundierte Erkenntnisse („Na, das hätte ich dir auch vorher sagen können). Im Gegensatz dazu werden neue Erkenntnisse in anderen wissenschaftlichen Disziplinen häufig von der Öffentlichkeit im Sinne eines anerkennenden Interesses rezipiert („Das ist ja interessant“ oder „Ach, das wusste ich noch gar nicht“). Diese Einstellung von Nicht-Psychologen gegenüber der psychologische Forschung drückt aus, dass der wissenschaftliche Erkenntnisgewinn, der diesen neuen Erkenntnisse innewohnt, von der Öffentlichkeit nicht wertgeschätzt wird, da nicht gesehen wird, dass es einen Unterschied gibt zwischen einer eigenen Hypothese, die durch Alltagserfahrungen bestätigt wird und eine Hypothese, die durch die Anwendung wissenschaftlicher Methoden Bestätigung findet. Wenn aber die Öffentlichkeit nicht den Erkenntniszuwachs wahrnimmt, der durch die Forschung geschaffen wird, dann läuft die psychologische Forschung Gefahr, neben anderen Disziplinen als unwichtig eingestuft zu werden. Ich stimme der Aussage zu, dass es gerade in der Psychologie eine thematische Überlappung zwischen den wissenschaftlichen Forschungsfeldern und den menschlichen Erfahrungsbereichen gibt. Aufgrund dessen trifft man bei der Diskussion mit Laien sehr oft auf die Aussage, dass sie selbst ja auch Psychologen, wenn auch Hobby-Psychologen seien und daher ohne Zweifel auch auf Expertenebene mitdiskutieren könnten. Die Psychologie ist also mit dem Problem konfrontiert, dass sich Laien selbst als psychologische Experten sehen. Es ist daher sehr schwierig, Laien vom Gegenteil zu überzeugen und ihnen die Unterschiede zwischen Laien- und Expertenwissen zu verdeutlichen. Erschwerend kommt hinzu, dass unter den Laien psychologische Fehlkonzepte weit verbreitet sind. So wird beispielsweise Schizophrenie in der Allgemeinbevölkerung meist mit multipler Persönlichkeitsstörung verwechselt oder auch Depression wird gleichgesetzt mit einer lediglich traurigen Stimmung. Die Psychologie muss daher nicht nur wissenschaftlich arbeiten, sondern dies auch den Laien verständlich kommunizieren. Daher ist gerade für den Fachbereich Psychologie die Schnittstelle zwischen Öffentlichkeit und Wissenschaft von großer Bedeutung.

1.2.

Gruppe B: Das Verhältnis zwischen Wissenschaft & Öffentlichkeit – Krisen und Entwicklungen (Kapitel 4 bis 6)

1.2.1.

Exzerpt und Annotationen

Wie ist es? Unsaubere Schnittstellen (Kapitel 4)

Zustand der Wissenschaft in den 30er Jahren

In den 30er Jahren befand sich Europa in einer Krise. Diese Krise erstreckte sich nicht

nur auf den politischen und den ökonomischen Bereich, sondern ebenfalls auf den gesamten

wissenschaftlichen Bereich.

Auslöser für die wissenschaftliche Krise waren neue Erkenntnisse im Bereich der

Physik, die dazu führten, dass das alte physikalische Weltbild ins Wanken geriet und einem

neuen weichen musste. Folgenreich war insbesondere die Erkenntnis, dass eine eindeutige Trennung zwischen einem Objekt und dessen Repräsentation nicht möglich ist.

Annotation: In den 20er und 30er Jahren des letzten Jahrhunderts wurde die Physik durch die Themen Quantenmechanik und Atomphysik beherrscht, die sich wechselseitig beeinflussten. Bahn brechend waren die neuen Erkenntnisse über den inneren Aufbau des Atoms. Zum Phänomen, dass, wie von Nowotny angesprochen, die Trennung zwischen Objekt und Repräsentation verwischt: In der Quantenmechanik ist es möglich, dass sich ein Teilchen in einem so genannten Überlagerungszustand (superposition) befindet. Betrachten wir z.B. den Ort, so kann es sein, dass sich das Teilchen an keinem bestimmten Ort befindet. Das liegt nicht an unserer Unkenntnis des Systems, sondern daran, dass sich das Teilchen „gleichzeitig“ an mehreren Orten aufhält. Im mikroskopischen Bereich von Atomen ist es also möglich, dass sich ein Atom in einem “Zwischenstadium“ von zwei Zuständen befindet, die sich eigentlich gegenseitig ausschließen. So können Atome mehrere verschiedene Anregungszustände quasi gleichzeitig besetzen, ja sie können sich sogar an zwei Orten gleichzeitig aufhalten, so lange niemand genau hinschaut! Messen wir nun allerdings den Ort eines Teilchens, so stellen wir fest, dass es sich dann nur an einem einzigen Ort aufhält. Wie kann das sein? Wie kann ein Teilchen, das sich erst in einem Überlagerungszustand befand, nach der Messung einen konkreten Ortszustand einnehmen? Ende der 20er Jahre entstand um den dänischen Wissenschaftler Niels Bohr die bis heute verbreitete Kopenhagener Deutung. Danach führt die Messung durch einen „bewussten“ Beobachter dazu, dass das Teilchen, das sich zuvor in einem Überlagerungszustand befand, abrupt in einen der möglichen Zustände springt. Es gibt also für das Elektron viele Zustandsmöglichkeiten und erst durch unsere Beobachtung muss es sich entscheiden, d.h. die Repräsentation eines Objektes stellt sich anders dar als das Objekt selbst.

Die Reaktion innerhalb der Bevölkerung auf eine die Grundlagen des Weltbildes berührende Erkenntnis war der Verlust des Glaubens in die Sicherheit, die die Naturwissenschaften bisher mit sich gebracht hatten. Dieser Vertrauensverlust betraf jedoch nicht nur die Physik, sondern auch andere wissenschaftliche Bereiche.

Zustand der Wissenschaft heute

Wie sieht es heute mit dem Verlust an Sicherheit und Anschaulichkeit aus? Eine generelle Krise der Wissenschaft besteht laut Nowotny nicht. Sie unterscheidet jedoch zwischen a) einer Krise innerhalb der Wissenschaft und b) einer Krise der Wissenschaft nach außen zur Öffentlichkeit.

a) Krise innerhalb der Wissenschaft:

Es wird davon ausgegangen, dass innerhalb der Wissenschaft keine Krise, sondern vielmehr eine Art Hochstimmung besteht, aufgrund der vielen in naher Zukunft zu erwartenden wissenschaftlichen Durchbrüche.

b) Krise der Wissenschaft nach außen Es handelt sich um eine Krise des Wissens. Sie ist dadurch gekennzeichnet, dass die Öffentlichkeit der Wissenschaft viel Pessimismus entgegenbringt. Das ist erstaunlich, weil das Bildungsniveau der Bevölkerung in den Industriestaaten heute wesentlich höher ist als je zuvor und man deshalb erwarten würde, dass die Bevölkerung wohlwollender auf wissenschaftlichen Erkenntniszuwachs reagiert. Leider nimmt jedoch momentan das Vertrauen der Bevölkerung in die Wissenschaft eher ab als zu. Es wird vermutet, dass der gestiegene Wissenstand in der Bevölkerung dazu führt, dass immer mehr Risiken und Gefahren in der Umwelt wahrgenommen werden, von denen man allerdings nicht mehr wie früher glaubt, dass sie beherrscht werden können. Diese Krise des Wissens untergräbt somit die kognitive Rationalität, für die die Wissenschaft früher unangefochten stand.

Delegation der Vermittlung von Wissenschaft in die Öffentlichkeit an spezielle Popularisatoren – die dritte Kultur

John Brockman, ein New Yorker Literaturagent, geht davon aus, dass die Quelle des gesellschaftlichen Pessimismus zurzeit von den humanwissenschaftlichen Intellektuellen ausgeht. Seine Hoffnung besteht jedoch darin, dass eine so genannte „dritte Kultur“ entsteht, in der empirisch-arbeitende Menschen diese traditionellen Intellektuellen ablösen sollen. Diese Empiristen würden in Brockmans Vorstellung die Aufgabe übernehmen, die wissenschaftliche Welt der Öffentlichkeit zu erklären und Sinnstiftung zu betreiben. Die Erklärung soll beispielsweise mit Hilfe von Fernsehprogrammen oder gut geschriebenen, allgemeinverständlichen Büchern geschehen.

Annotation: Brockman war ein New Yorker Literaturagent, der vor ca. 10 Jahren die „fröhliche Wissenschaft“ für alle, die sog. Popscience, forderte. Sie sollte jenseits von naturwissenschaftlichem Fachchinesisch und den intellektuellen Stammesdünkeln sein. In ihr sollte angesichts von Gentechnik und Computerwissenschaften, Minirobotern und Künstlicher Intelligenz nach neuen Antworten auf die großen, alten Fragen gesucht werden. Brockmann hoffte, dass die dritte Kultur von Menschen geprägt würde, „die durch empirische Arbeiten in den Naturwissenschaften, aber auch in anderen Gebieten – wie Feminismus, Architektur etc. – das Denken darüber verändern, wer und was wir sind.“ Von den klassischen Intellektuellen hingegen erwartete er sich keine Hilfe. Bei der Beantwortung dieser alten Fragen sind nach Brockmann die Nutzung naturwissenschaftlicher Methoden ebenso erlaubt wie beherzte Spekulationen.

Seine Kritik, aus der der Wunsch nach der dritten Kultur erwuchs, gilt den amerikanischen Verhältnissen. Dort gibt es trotz einer „New York Times“ keine breiten publizistischen Foren für die populäre Vermittlung naturwissenschaftlicher Entwicklungen. Brockmanns dritte Kultur will diese Lücke schließen. Die dritte Kultur hat inzwischen auch Deutschland erreicht. Die FAZ forciert in ihrem Feuilleton-Teil seit einem Jahr die Naturwissenschaft als Thema. Die treibende Kraft dahinter ist Frank Schirrmacher, der das FAZ-Feuilleton auf Wissenschaftskurs gebracht hat, weil er nicht will, dass die europäische Intelligenz die atemberaubenden Umwälzungen in der Bio-, Nano- und Computertechnologie verschläft. Andere Zeitungen kritisieren das Vorgehen zwar, ziehen aber nach. :

Eine gute Erklärung der Wissenschaft in der Öffentlichkeit ist Brockman deshalb so wichtig, weil er glaubt, dass allein die Wissenschaft dazu in der Lage ist, wirklich Neues zu schaffen. Selbst Technologien seien nichts Neues, wenn man die dazugehörige Wissenschaft kenne, denn schließlich basiere die Technologie auf Erkenntnissen, die zuvor durch die Wissenschaft entdeckt wurden. Somit stellen die Technologien nur spezielle Ausprägungen bzw. Weiterentwicklungen der grundlegenden wissenschaftlichen Erkenntnisse dar.

Unabhängig davon, wer die Vertreter dieser dritten Kultur sind und wo sie wirken (in Europa oder in den USA) zeigt die Idee deutlich, dass der Wunsch besteht, die Sinnstiftung

von Wissenschaft in der Öffentlichkeit an eine neue Gruppe wissenschaftlicher Popularisatoren zu delegieren.

Darstellung der Krise früher – heute: Suche nach wissenschaftlichen Weltbildern vs. Suche nach übergreifend relevanten Kategorien

Früher lag das Problem der Wissenschaft darin, dass die vermeintlich sicheren, wissenschaftlichen Grundlagen erschüttert wurden. Das ist heute nicht mehr das Problem. Inzwischen haben wir die Idee verinnerlicht, dass „die Welt nicht statisch oder ewig“ ist, sondern sich ständig verändert. Heute beschäftigt man sich weniger mit wissenschaftlichen Weltbildern und Erklärungsmodellen. Man sucht vielmehr nach übergreifenden Kategorien, die auf ganz unterschiedliche Bereiche wie Gesellschaft, Natur und Kunst bezogen werden können. Als Beispiel für die Kategorien werden Ordnung, Kontrolle und Vorhersehbarkeit genannt.

Verlust des Glaubens an die Vorhersehbarkeit und Kontrolle der Wissenschaft und Gesellschaft

Nowotny diskutiert den lange Zeit vorherrschenden Glauben an die Vorhersehbarkeit und Kontrolle von Naturwissenschaft und Gesellschaft, der so stark war, dass erste Zeichen der Schwäche ignoriert wurden. Erst die folgenden Krisen führten dazu, dass dieser Glaube bröckelte:

Die Ölkrise: Sie machte die Verwundbarkeit einer hoch spezialisierten, technisierten Zivilisation deutlich. Die Erschöpfbarkeit natürlicher Ressourcen wurde bewusst.

Die Atomenergie/Tschernobyl: Zeigte die Wirkungslosigkeit nationaler Grenzen auf. Folge war die Forderung der Bevölkerung auf Mitspracherecht bei Entscheidungen über wissenschaftlich-technische Entwicklungen.

Die Chaostheorie: Sie wurde als Bestätigung für die tief sitzenden Vorbehalte gegenüber der wissenschaftlichen Vorhersagekraft genommen. Folge war, dass die bis dahin vermeintlich robuste Verbindung zwischen Determinismus und Vorhersagefähigkeit gelöst werden musste.

Annotation: Die Chaostheorie beschäftigt sich damit, in scheinbar völlig unregelmäßigen Mustern doch etwas Gesetzmäßiges zu entdecken.

Die Theorie untersucht Systeme, die, obwohl sie einfachsten Gesetzen folgen (beim Planetensystem das Gesetz der Schwerkraft oder im Beispiel des Poolbillards die Stoßgesetze), ungeheuer sensibel auf winzig geänderte Anfangsbedingungen reagieren. Kleinste Schwankungen können große Wirkungen nach sich ziehen. Im Einzelnen sind bei solchen Systemen künftige Systemzustände nicht mehr vorhersagbar. Vorhersagbar ist wohl aber die Tatsache, dass sich das System chaotisch verhalten wird. Solche Systeme unterliegen dem "deterministischen" Chaos. Deterministisch bedeutet, dass hinter dem scheinbaren Chaos nach wie vor die Ordnungen der Physik bestehen - wenn auch im Verborgenen. Wegen dieser zugrunde liegenden Ordnung sind zukünftige Phänomene rein theoretisch berechenbar. Aufgrund der Abhängigkeit von winzigen Faktoren, ist die tatsächliche Berechnung des Zustandes des Systems unmöglich. Das deterministische Chaos zeigt somit die Grenzen der Vorhersagbarkeit auf.

Hinzu kam, dass der Staat sein Monopol in verschiedenen Bereich verlor: Die Globalisierung der Wirtschaft führte zu einer Dezentralisierung. Konsumenten wurden zu aktiven Entscheidungsträger aufgewertet.

Auch die Wissensproduktion blieb nicht das Monopol einer kleinen Anzahl hoch industrialisierter Länder, sondern andere Länder beteiligten sich ebenfalls.

Uneinheitlichkeit der Wissenschaften

Heute besteht die Krise der Wissenschaft nicht mehr darin, dass wissenschaftliche Grundlagen oder gesamte Weltbilder angezweifelt werden (Vgl. Darstellung der Krise früher – heute). Die Gesellschaft ist weder Willens, noch in der Lage dazu, ein wissenschaftliches Weltbild als Ganzes zu übernehmen. Die Krise der Wissenschaft bezieht sich vielmehr auf ihre vermeintlichen Ränder oder anders gesagt, auf ihre unsauberen Schnittstellen zwischen Wissenschaft und Öffentlichkeit.

Inzwischen ist sich die Gesellschaft der „Uneinheitlichkeit der Wissenschaften“ bewusst geworden, welche daraus resultiert, dass Wissenschaft in vielfältigen historischen und politischen Kontexten betrieben und diskutiert wird. Dass heute die „lokale Entstehung“ und „kulturelle, politische und ökonomische Einbettung“ des Wissens von der sozialwissenschaftlichen Wissenschaftsforschung betont wird, entspringt primär der Überzeugung, dass Pluralität einen demokratischen Wert darstellt und liegt nicht daran, dass nicht mehr versucht würde, der Wissenschaft den Mantel der Einheitlichkeit überzustreifen.

Man muss sich auch darüber im Klaren sein, dass jeglicher Aspekt der Wissensproduktion und –kommunikation zusätzlich von sozialen Mechanismen abhängt: von der Sprache über visuelle Techniken der Repräsentation bis hin zu Mechanismen der sozialen Zuschreibung, derer es bedarf, um eine Entdeckung überhaupt erst zu einer solchen zu machen.

Das Zitat „Es ist so- doch es könnte auch anders sein“ spielt auf diese Kontextabhängigkeit und damit auch auf die Relativität des Wissens an. Durch dieses Bewusstsein wird der Blick geschärft für eben die Fragen, die nicht gestellt werden und die Methoden, die nicht verwendet werden.

Wandel der ideologischen Anforderungen an die Wissenschaft

Auch die ideologischen Anforderungen an die Wissenschaft haben sich geändert. Früher sollte die Wissenschaft politisch möglichst neutral sein. Das führte dazu, dass sie zum Streitobjekt politischer und gesellschaftlich unterschiedlicher Interessen wurde.

Heute will die Öffentlichkeit sicherstellen, dass neben den Interessen von Wissenschaft und Forschung, auch die Interessen und Befürchtungen der Bevölkerung nicht zu kurz kommen. Trotzdem soll die Diskussion wissenschaftlicher Themen möglichst wissenschaftlich sein. An diesem Phänomen zeigt sich, dass Wissenschaft heutzutage vor allem benutzt und bestritten wird.

Die Autorität der Wissenschaft hat abgenommen

An den Schnittstellen zwischen Wissenschaft und Öffentlichkeit hat sich eine eigene Dynamik etabliert, die durch Widersprüche angetrieben wird. Das Problem sind die sich laufend potenzierenden Möglichkeiten des Eingreifens, Umgestaltens und Manipulierens, die sich aus den neuen wissenschaftlichen Erkenntnissen ergeben. Dieser Zustand macht Ängste und Risiken bewusst, welche außerdem öffentlich diskutiert werden. Die Autorität der

Wissenschaft ist jedoch inzwischen nicht mehr dazu in der Lage, eine einzige Interpretation von Wirklichkeit zu definieren und somit den Ängsten entgegenzuwirken. Was ihre Definitionsmacht reduziert, sind nicht die weiter oben beschriebenen möglichen Gefahren und Risiken, die mit neuen Erkenntnissen in den Technowissenschaften einhergehen. Es ist die Einbettung der Produktion von wissenschaftlichem Wissen und ihre Anwendung in vielen unterschiedlichen Kontexten, die dazu führt, dass die Wissenschaft begonnen hat, sich anderen gesellschaftlichen Institutionen anzugleichen. Diese Angleichung hatte logischerweise zur Folge, dass der privilegierte Status der Wissenschaft verloren ging.

Es hätte anders kommen können (Kapitel 5)

Erzeugt die Anwendung der wissenschaftlichen Methode am Ende des 20. Jahrhunderts bei Entscheidungen, im Rahmen derer wissenschaftliches Wissen in Form einer Expertise in den gesellschaftlichen und politischen Kontext eingebettet werden muss, statt Konsens eher Dissens?

Innerhalb der Wissenschaften funktioniert der Mechanismus der Konsensfindung zwar noch und darf nicht unterschätzt werden. Er weist jedoch Defizite auf, die auf die Spaltung zwischen der natürlichen und sozialen Ordnung (d.h. Natur und Gesellschaft) zurückgehen und auch mit dem Wandel des Wissenschaftsbildes zusammenhängen.

Annotation: Vergleiche an dieser Stelle Kapitel 4 „Zustand der Wissenschaften“: Innerhalb der Wissenschaften gibt es dabei keine Krise und der Mechanismus der Konsensfindung funktioniert deshalb auch. Die hier erwähnten Defizite in der Konsensfindung hängen mit der Krise der Wissenschaft nach außen und dem Wandel der ideologischen Anforderungen an die Wissenschaft zusammen. Die künstliche Trennung von Natur und Gesellschaft und die postulierte Wertefreiheit haben sich als illusionär herausgestellt und der wissenschaftliche Mechanismus der Konsensfindung kann somit im Schnittpunkt von Natur und Gesellschaft nicht funktionieren. Die Defizite gründen auf falschen Prämissen. Es kann daher nicht mehr um die Durchsetzung von wissenschaftlicher Rationalität gehen, sondern um Interessenausgleich (siehe Kapitel 5 im Folgenden).

Muss man daher die Prämisse der Trennbarkeit von Natur und Gesellschaft nicht neu überdenken, da bei Entscheidungsmechanismen wissenschaftliches Wissen und Expertise zu sehr verknüpft sind?

Zwei Erwartungen wurden immer wieder an die Wissenschaft herangetragen und betreffen die Fähigkeit der Wissenschaften, auch in der sozialen Ordnung Einigkeit herzustellen, indem man sich auf die natürliche Ordnung beruft.

1. Hoffnungsstrang: Utilitaristische-instrumentelle Verwendung von Wissenschaften,

d.h. sie sollten vor allem nützliche Verwendung haben.

Diese Erwartung wurde (vorerst 1 ) erfolgreich erfüllt, da sich die modernen Naturwissenschaften gegenüber einer nützlichen Verwendung sehr offen zeigten und die Technowissenschaft zum entscheidenden Einflussfaktor bezüglich technischer Innovation und Wettbewerbsfähigkeit wurde.

2. Hoffnungsstrang: Verallgemeinerte Nutzung der wissenschaftlichen Rationalität,

d.h. der innerhalb der scientific community entwickelte Mechanismus Konsens zu erzielen,

sollte auch außerhalb zu nutzen sein und übte in Ermangelung einer allgemein anerkannten Autorität (z.B. in Kirche oder Staat) besondere Faszination aus.

Die wissenschaftliche Rationalität wurde dabei als eine Art universelle, sich selbst ausbreitende Wirkungskraft gesehen, die den Fortschrittsglauben (in wissenschaftlich- technischer, gesellschaftlicher und menschlicher Hinsicht) maßgeblich beeinflusste und somit als ein Prozessmotor des Modernisierungsprozesses wirkte bis der Glaube an den Fortschritt in der zweiten Hälfte des 20. Jahrhunderts stark erschüttert wurde.

Wodurch wurde die Fortschrittsidee erschüttert?

Der Offenheit gegenüber einer nützlichen Verwendung von Wissenschaft stand ein Beharren auf Wertefreiheit der Wissenschaft gegenüber und damit die Weigerung der Wissenschaft eine Führungsposition in der Gesellschaft zu übernehmen, obwohl die wissenschaftlich-technische Entwicklung eng mit der Gesellschaft verknüpft war und grundlegende und irreversible Auswirkungen auf sie hatte.

1 Gegen Ende des Kapitels wird diese Aussage wieder eingeschränkt, indem darauf hingewiesen wird, dass heutzutage technischer Fortschritt nicht nur hinsichtlich seiner nützlichen Verwendung beurteilt wird, sondern auch bezüglich seiner „potentiellen Risiken und Nebenwirkungen“.

Annotation: Als Beispiel für die Auswirkungen der wissenschaftlich-technischen Entwicklung auf die gesellschaftlichen Bedingungen könnte die Erfindung der Dampfmaschine gelten, welche das Zeitalter der Industrialisierung – verbunden mit zunehmender Arbeitsteilung und Massenproduktion – einläutete und die Gesellschaft nicht nur wirtschaftlich stark veränderte, sondern auch großen Einfluss auf die sozialen Lebensbedingungen hatte, indem es z.B. zur Verstädterung und damit verbunden zu neuen sozialen Problemen kam.

Durch die Institutionalisierung der Wissenschaft wurde zwar ein gewisser wertefreier Raum geschaffen, der jedoch für gesellschaftliche Werte durchlässiger war als erwartet wurde. Dies führte in der zweiten Hälfte des 19. Jahrhunderts zur Ausdifferenzierung des Wissenschaftssystems und zur Unterscheidung in reine und angewandte Wissenschaften.

Dieser Wandel setzt sich bis heute fort, so dass auch die reinste Grundlagenforschung unter einer Anwendungsperspektive stattfindet.

Dem zweiten Hoffnungsstrang stellten sich jedoch noch weitere Hindernisse in den Weg, die am Beispiel der Kontroverse zwischen J.B.S. Haldane und Bertrand Russell in den 1920-igern erklärt wird.

Haldane hielt in Cambridge vor dem Club der Häretiker einen Vortrag mit dem Titel Daedalus oder die Wissenschaft der Zukunft (1923). Er nimmt darin eine optimistische Perspektive über die Zukunft der Wissenschaft ein und zieht den Schluss, dass die Menschheit in Zukunft ihre Moral an die von der Wissenschaft gebotenen Lösungsmöglichkeiten anpassen sollte und muss, da sich manche Entwicklungen (z.B. innerhalb der Biologie wie Geburtenkontrolle, Manipulation des Erbgutes, in vitro Befruchtung etc.) nicht mit sozialen Missständen und Übeln vertragen würden.

Russell hingegen warnt in seinem Aufsatz Ikarus oder die Zukunft der Wissenschaft vor zu viel Optimismus mit der Begründung, dass ein Mehr an Wissen, die Menschen weder vernünftiger noch selbstkontrollierter macht und so durch zuviel Übermut das Schicksal des Ikarus droht.

Yaron Ezrahi analysiert die Beziehung zwischen Wissenschaft und Politik und erklärt das Scheitern des Haldaneschen Ansatzes mit zwei Punkten:

Die Auswirkungen der Wissenschaft auf die Gesellschaft müssen nicht immer positiv bewertet werden.

Menschen können sich nicht einigen, was gut für sie ist und verfolgen somit auch keine gemeinsame Ziele und leiten daraus ein öffentliches Mandat ab.

Der zweite Punkt steht somit auch im Widerspruch zum Funktionieren einer Demokratie, in der der Prozess des Interessenausgleiches gewährleistet sein muss und auch widersprüchliche Interessen der Beteiligten integriert werden müssen. Wissenschaftlich- technisches Wissen kann daher nicht nur aufgrund rational-wissenschaftlicher Kriterien auf die Gesellschaft übertragen werden. Daher haben Wissenschaft und Demokratie auch unterschiedliche Mechanismen der Konsensfindung und Konfliktlösung entwickelt und beibehalten und das Scheitern des zweiten Hoffnungsstranges kann damit erklärt werden.

Merke: Das Scheitern des zweiten Hoffnungsstranges – der verallgemeinerten Nutzung der wissenschaftlichen Rationalität – beruht auf zwei Gründen:

Dem Beharren der Wissenschaften auf Wertefreiheit und der damit verbundenen Weigerung in gesellschaftlichen Angelegenheiten eine Führungsrolle zu übernehmen

Dem Vorhandensein einer Demokratie als Staatsform, da es in einer Demokratie um Interessenausgleich geht und nicht um die Übernahme von Zielen, die ausschließlich an der wissenschaftlichen Rationalität orientiert sind.

Doch auch der utilitaristische-instrumentelle Hoffnungsstrang steht heute neuen Hindernissen gegenüber: Der Fortschrittsglaube ist stark erschüttert und wissenschaftlich- technische Risiken werden neu wahrgenommen. Deshalb werden Fortschritte nicht nur bezüglich ihrer Innovationsmöglichkeiten wahrgenommen, sondern auch in ihrer Problemhaftigkeit.

Beispiele:

Durch eine gestiegene Lebenserwartung werden die Thematiken wie Probleme im hohen Lebensalter oder chronischer Krankheit relevant.

Durch die Möglichkeiten der Gentechnologie rücken Diskussionen zu ethischen Dilemmata in den Fokus.

Durch Computersimulation und neue Messtechniken erhält man Einsicht in problematische Zusammenhänge wie z.B. das Ozonloch oder die globale Erwärmung.

Durch

die

bisherigen

Erfolge

der

Wissenschaft

wird

problembehaftete Aussichten erst möglich.

ein

Verständnis

für

Andererseits sind die Möglichkeiten der Wissenschaft bisher noch nicht artikulierte Dienstleistungen zu befriedigen noch lange nicht erschöpft. Luhmann nennt dies die Resonanzfähigkeit der Wissenschaft, d.h. die Forschung erfährt auf der einen Seite ihre Grenzen, auf der anderen Seite stehen jedoch die nahezu unendliche Innovationsfähigkeit und Möglichkeitsräume.

„Die Wissenschaft produziert eine gläserne Welt, die, wo immer sie sich verdichtet, sich in sich spiegelt und die Durchsichtigkeit in Sicht verwandelt. Die Phantasie wird beflügelt, neuartige Kombinationen sind denkbar, sei es als technische Artefakte, sei es als deren ungewollte, vielleicht katastrophale Nebenwirkungen. Alles, was sein kann, und alles was ist, ist Selektion.“ (Luhmann, 1986, S. 164 zitiert in Nowotny, 1999). 2

Diese Selektion kann nicht mehr mit Hilfe der üblichen rationalen Selektionskriterien erfolgen, weil

die Fülle der Optionen für den bisherigen Referenzrahmen zu klein ist

und sich die Autorität der Wissenschaft selbst verändert, da die Grenze zwischen natürlich und künstlich verschwimmt.

Durch die Eingriffe in die Natur wandelt sich ihr Status und sie wird wie die Wirklichkeit von den Menschen gemacht oder instrumentalisiert, um bestehende Theorien zu bestätigen. Dadurch verändert sich auch ihre Autorität als letzte Entscheidungs- und Appelationsinstanz. Die der wissenschaftlich-technischen Sachkenntnis zugrunde liegenden Selektionskriterien sind einer situativ definierten Rationalität angepasst, so dass letztendlich die Autorität der Wissenschaft und ihre Rationalität auch nicht mehr aus der Natur abgeleitet werden können.

Aufgabe der Zukunft: Die Wissenschaft muss sich eine neue Autorität und Legitimationsbasis verschaffen und die dabei verwendeten Selektionskriterien verhandeln. Dabei müssen alle beteiligt werden, die an der Herstellung der Wirklichkeit beteiligt sind.

Anders für wen – anders mit wem? (Kapitel 6)

Viele Forschungsbereiche (z.B. Informatik oder Materialwissenschaften) erhielten in der Vergangenheit Anstöße und Entfaltungsmöglichkeiten durch das Militär.

2 Luhmann, Niklas (1986). Ökologische Kommunikation. Kann die moderne Gesellschaft sich auf ökologische Gefährdungen einstellen? Opladen.

Die militärischen Ziele wurden nun durch andere Ziele, wie etwa die Stärkung der internationalen wirtschaftlichen Wettbewerbsfähigkeit, ersetzt. Diese Änderung hat Konsequenzen für die Wissenschaft(sforschung).

Der Gesellschaftsvertrag:

Der Gesellschaftsvertrag, der in den westlichen Industriestaaten zwischen Wissenschaftssystem und politischen Repräsentanten in der Nachkriegszeit geschlossen wurde, legt fest, welche Leistung die Wissenschaft erbringen muss und was sie als Gegenleistung dafür bekommt (nämlich Autonomie).

Dieser Gesellschaftsvertrag ist aus zwei Gründen brüchig geworden:

Es gab von den Wissenschaften nicht nur Leistungen, sondern auch „Bürden“, die nun nach Adjustierung verlangen

Annotation: Was sind Bürden? Unter Bürden werden die negativen, unbeabsichtigten Folgen bzw. Konsequenzen, die mit der Forschung einhergehen, verstanden. Forschung hat als Nebeneffekt Risiken und Gefahren (vergleiche auch Nowotny, S. 45).

Die Vertragspartner haben sich „multipliziert, dezentralisiert, pluralisiert und emanzipiert“, d.h. Öffentlichkeit/Gesellschaft ist nicht mehr gleichzusetzen mit ihren politischen Repräsentanten.

Der Triade der Nachkriegszeit (Wissenschaftler, Regierung, Industrie) steht heute eine Vielfalt von Interessen und Kompetenzen gegenüber.

Öffentlichkeit ist heute charakterisiert durch „prinzipielle Offenheit, d.h. alle gehören dazu, jedoch kann sich jeder jederzeit abkehren. Die Konsequenz ist Unvorhersehbarkeit dahingehend, wer gerade dazu gehört und aufmerksam das wissenschaftliche Geschehen verfolgt.

Annotation: Eine sehr gute Ergänzung stellt der Artikel der Zeitschrift „Nature“ vom 02.12.1999 dar, der neben weiteren lesenswerten Informationen „social contract“ zwischen Wissenschaft und Gesellschaft definiert als “…an arrangement built on trust which sets out the expectations of the one held by the other, and which — in principle — includes appropriate sanctions if these expectations are not met… This social contract has been made up of several individual elements, reflecting broader contracts between government and society, between industry and society, and between higher education and society.” Es wurden zudem Gründe genannt, warum der „social contract“ durch einen neuen ersetzt werden muss und welcher Art dieser sein muss. Im Artikel wird dies wie folgt zusammengefasst: „To summarize, I have argued in this paper that the prevailing contract between science and society was set up to sustain the production of 'reliable knowledge'; a new one must ensure the production of 'socially robust knowledge'. The prevailing contract is governed by the rules of bureaucratic rationality, with society linked to 'people' primarily through representative institutions. A new contract will require more open, socially distributed, self-organizing systems of knowledge production that generate their own accountability and audit systems. Under the prevailing contract, science was left to make discoveries and then make them available to society. A new contract will be based upon the joint production of knowledge by society and science. A new social contract will therefore involve a dynamic process in which the authority of science will need to be legitimated again and again. To maintain this, science must enter the agora and participate fully in the production of socially robust knowledge.” (siehe http://www.nature.com/cgi- taf/DynaPage.taf?file=/nature/ journal/v402/n6761supp/full/402c81a0_r.html)

Ein Artikel aus der Zeit vom 14.09.2000 zeigt ebenfalls Gründe auf, warum der Gesellschaftsvertrag ersetzt werden muss: http://www.palais-jalta.de/texte/Simon.rtf

Albert Hirschman (1970): Exit, Voice, and Loyality beschreibt in seinem Essay drei Reaktionsmöglichkeiten der Mitglieder der Öffentlichkeit gegenüber der Wissenschaft:

Exit: sie wenden sich ab

Voice: sie verlangen Mitsprache und protestieren

Loyality:

sie

bleiben

treu,

Motivation) nichts

d.h.

es

verändert

sich

(aus

Unkenntnis

oder

fehlender

Problematische Sichtweise der Wissenschaftler:

sie wollen Öffentlichkeit aufklären (=Wissensvermittlung)

und erwarten als Gegenleistung Loyalität und Unterstützung

sie übersehen dabei, dass ihre Forderung nach Teilnahme der gesamten Menschheit an ihrem Wissen völlig unrealistisch ist!

Autoritätsabnahme der Wissenschaft:

dies verursacht erschüttertes Verhältnis zwischen Wissenschaft und Gesellschaft

bisheriges Monopol der Wissenschaft als Definierer der Wirklichkeit ist aufgelöst

Gründe für den Autoritätsverlust: Die heutige Öffentlichkeit

sieht die Wissenschaft von „ökonomischen und anderen Interessen“ geleitet

Annotation: Früher war Wissenschaft völlig wertfrei und hatte den Anspruch, politisch neutral zu sein (Vergleiche auch Nowotny, S. 44 und S.49!)

hält Handeln aus Gemeinnützigkeit als obsolet

sieht Wissenschaft als Lobby

Von diesem Autoritätsverlust sind betroffen:

Wissenschaftler

die konsensstiftende Funktion der Wissenschaft

Annotation: Wissenschaft definiert die Welt und ihre Einzelheiten, die dann für alle Gültigkeit besitzen. Sie bringt Beweise, die die Welt erklären und erzeugen damit Konsens, dass das so ist. (Vergleiche auch Nowotny, S. 47-48!)

Nach Yaron Ezrahi (1990) beruht der Modernisierungsprozess, der von Technik und Wissenschaft ausgelöst wird, auf dieser konsensstiftenden Funktion der Wissenschaft, d.h. ohne Konsens ist keine Modernisierung möglich. Dieser Modernisierungsprozess wird durch eine Maschinenmetapher veranschaulicht. Mit ihr soll das Bild einer effizient arbeitenden Maschine hervorgerufen werden, weshalb sie mit „Transparenz, Überprüfbarkeit, Vorhersagbarkeit und Kontrolle“ in Verbindung gebracht wird. Mit dieser

Maschinenmetapher konnte daher „Industrialisierung, Modernisierung und Demokratisierung“ legitimiert werden.

Dilemma der Beherrschbarkeit der wissenschaftlich-technischen Entwicklung und deren Folgen:

Ursache des Dilemmas: keine strikte Trennung mehr zwischen Natur und Kultur bzw. zwischen Natürlichem und Artifiziellem

Beispiel: Früher zielten die Biophysik, die Biochemie und die Genetik auf Isolierbarkeit und Analysierbarkeit zellulärer Strukturen und metabolischer Prozesse. Seit den 70ern ist durch die DNA-Technik auch künstliche Synthese möglich.

Konsequenz: Die Grenze zwischen objektiver Natur und deren subjektiven Repräsentation, d.h. zwischen Fakten und Werten, verwischt. In der Folge kann Wissenschaft kein objektives Bild von der Wirklichkeit mehr liefern, da Werte, Moral oder Politik auf das wissenschaftliche Geschehen Einfluss nehmen. Wissenschaft ist dann nicht mehr wissenschaftlich!

Wenn die Grenzen zwischen Wissenschaft und Gesellschaft verwischen oder sich verschieben stellen sich auch neue Fragen, die nach Beantwortung verlangen, wie beispielsweise die Frage danach, wer wann unter welchen Bedingungen zum Wissensproduzenten wird!

1.2.2. Diskussion des Grundlagentexts durch die Seminarteilnehmer

Allgemeine Fragen

Zu Kapitel 4: Trifft das beschriebene Phänomen der Krise der Wissenschaft die Psychologie genauso hart wie die „traditionelle Wissenschaft“ wie Physik oder Chemie? Schließlich wurde/ wird diese in der Öffentlichkeit häufig gar nicht zur „richtigen“ Wissenschaft gezählt.

Zusammenfassung der Diskussion: Zum Einfluss der beschriebenen Krise auf die Psychologie wurden unterschiedliche Meinungen vertreten:

1. Die Naturwissenschaften sind aufgrund ihrer bisherigen Sonderrolle stärker betroffen, während die Psychologie, die häufig nicht als Wissenschaft

wahrgenommen wird/ wurde, weniger unter diesem Autoritätsverlust zu leiden

hat.

2. Ein direkter Vergleich bezüglich der Krise zwischen Psychologie und

Naturwissenschaften ist aufgrund der Zwischenstellung der Psychologie

zwischen Sozial- und Naturwissenschaften nicht möglich.

Die Antworten im Einzelnen:

Aus meiner Sicht liegt es in der Natur der Dinge, dass originär naturwissenschaftliche Disziplinen von der beschrieben Krise härter betroffen sind, als die Geisteswissenschaften. Die Naturwissenschaften wurde nämlich bisher wegen ihres epistemischen Kerns in weit größerem Maße eine Sonderrolle seitens der Öffentlichkeit zugesprochen als den Geisteswissenschaften. Damit liegt es auf der Hand, dass eine öffentliche Einflussnahme auf die Naturwissenschaft stärker beklagt wird als auf die Geisteswissenschaften.

Aus meiner Sicht leidet die Psychologie weniger unter einem Verlust ihrer Autorität wie die klassischen Naturwissenschaften, sondern sieht sich als Wissenschaft seit jeher dem Problem gegenüber nicht als solche wahrgenommen zu werden

Die Krise in dem Verhältnis der Wissenschaft zur Öffentlichkeit ist sicher bezüglich der Psychologie, die seit ihrer Gründung als eigenständige wissenschaftliche Disziplin eine große methodische Vielfalt zeigt und eine Zwischenstellung zwischen Sozial- und Naturwissenschaften einnimmt, anders zu bewerten, als für die klassisch naturwissenschaftlichen Fächer.

Psychologie und ihr Bild in der Öffentlichkeit (Meinungen)

der

Öffentlichkeit eher als „weiche“ Wissenschaft betrachtet. Dies gründet u.a. in der

zweigeteilten Wahrnehmung der Psychologie:

Zusammenfassung

der

Diskussion:

Insgesamt

wird

die

Psychologie

in

1. Psychologie als Anwendungsfach: Die (vor allem klinische) Anwendungsseite

(z.B. Psychotherapie) ist der Öffentlichkeit bekannt. Psychologen wird daher

auch praxisrelevantes Know-How zugeschrieben und sie werden in Medien als

Experten herangezogen

2. Psychologie als Wissenschaft: Über die wissenschaftliche Seite der Psychologie

mit ihrer Vielfalt an Forschungsbereichen und Methoden ist in der Öffentlichkeit

häufig wenig bekannt bzw. es ist nur undifferenziertes Wissen vorhanden. Die

Psychologie wird somit vielfach auch nicht als empirische Wissenschaft, die

nach strengen Qualitätsstandards operiert, wahrgenommen.

Einerseits könnte man durch das Kommunizieren der Methoden(vielfalt) versuchen, das

wissenschaftliche Image der Psychologie zu stärken und ihren Forschungserkenntnissen damit

größere Anerkennung verschaffen. Andererseits gilt es aufzupassen nicht ausschließlich „rein

naturwissenschaftliche“ Methoden zu verwenden, sondern „psychologische“ damit man der

Komplexität des Gegenstandes der Psychologie – dem Menschen – gerecht werden kann.

Die Antworten im Einzelnen:

Dies trifft auch auf die Psychologie zu, die aus Sicht der Öffentlichkeit eher den „weichen Wissenschaften“ zugerechnet wird. Während sich der Berufsstand der Psychologen in den letzten Jahren steigender Medienpräsenz erfreut und Psychologen häufig als Experten befragt und präsentiert werden (man unterstellt ihnen also durchaus ein gewisses praxisrelevantes Know-How mindestens im klinischen Bereich), ist das Bild der Wissenschaft Psychologie in der Öffentlichkeit äußerst undifferenziert, und man weiß wenig über die verschiedenen Forschungsdisziplinen und -inhalte und fast nichts über die eingesetzten Methoden. Die Autorität der Wissenschaft aber basiert ja u.a. gerade auf bestimmten Zertifizierungsroutinen, die dafür sorgen, dass das Zustandekommen neuen Wissens durch Methoden und Theorien kontrolliert wird. Qualitätsmanagement als Vokabel ist heute in aller (Praktiker) Munde, in Industrie wie auch in Dienstleistungsbetrieben. Die Psychologie möchte, wie Gruppe C in ihren Thesen bemerkt, als empirische Wissenschaft, die nach strengen Qualitätsstandards operiert, wahrgenommen werden. Ihre wissenschaftlichen Zertifizierungs- und Kontrollmechanismen werden allerdings einer breiten Öffentlichkeit häufig nicht kommuniziert und so von dieser auch nicht wahrgenommen oder verstanden und somit auch nicht der Wert, den das produzierte Wissen hat. Infolge werden psychologische Erkenntnisse bezüglich Phänomenen, die von jedermann im Alltag beobachtbar sind, in der Öffentlichkeit teilweise belächelt („das war doch klar“, „dazu muss man doch nicht forschen“). Insofern könnte eine stärkere Betonung des Qualitätsmanagements der Wissenschaft Psychologie und eine entsprechende Darstellung nach außen ihr Image stärken.

Zumal „die Psychologie“ auch heute aus Sicht der Öffentlichkeit in zwei sehr getrennte Bereiche zerfällt: dem der Anwendung z.B. in Psychotherapie und dem der Forschung an den Universitäten. Die Vielfalt und die Beteiligung von „wissenschaftlicher Psychologie“ an bestimmten Forschungsbereichen sind der Öffentlichkeit nicht bekannt und auch der Zugang zum Selbstverständnis der forschenden Psychologen bleibt der Öffentlichkeit bisher noch weitgehend verschlossen. Würde sich das Bild der Psychologie als Forschungsdisziplin in den Augen der Öffentlichkeit stärker in Richtung Naturwissenschaft wandeln, käme allerdings vermutlich nicht nur die beschriebene Krise zum tragen, sondern auch der Vorwurf, unzureichende Methoden zur Erfassung des menschlichen Erlebens und Verhaltens zu verwenden. An dieser Stelle spielen religiöse Vorstellungen von der Seele des Menschen sowie das alltägliche Erleben der Komplexität von Verhalten und Gefühlen eine große Rolle.

Zu Kapitel 5: Wie könnten diese neuen Selektionskriterien aussehen, um der

Wissenschaft neue Autorität und Legitimation zu verschaffen? Wer müsste daran

beteiligt werden?

Versuchen Sie ein geeignetes Beispiel zu finden, an dem Sie erläutern, welche

Selektionskriterien zum Zuge kommen könnten und wer die Interessengruppen sein könnten.

Die Antworten im Einzelnen:

Generell erscheint es mir wichtig, unterschiedliche Selektionskriterien anzulegen in Abhängigkeit davon, ob es um allgemeine Rahmenbedingungen wie etwa die Prioritätensetzung in der Forschung oder um konkrete Entscheidungen beispielsweise über Annahme oder Ablehnung eines wissenschaftlichen Artikels in einer bestimmten Zeitschrift geht. Konkrete Entscheidungen müssen meiner Meinung nach im Rahmen wissenschaftlicher Selbstverwaltung der Wissenschaft selbst überlassen sein, wobei eine stärker institutionalisierte wissenschaftsinterne Diskussion über die Kriterien von Zeit zu Zeit mit Sicherheit sinnvoll wäre (an Stelle „ungeschriebener Regeln“). Dies ist allerdings auch nur wissenschaftsintern bzw. sogar fach- oder communityintern möglich, da es zwischen Fächern und Forschungsgebieten zu Recht beachtliche Unterschiede gibt, z.B. in Bezug auf für sinnvoll gehaltene Methodik. Die Festlegung allgemeiner Rahmenbedingungen aber bedarf durchaus eines breiteren Diskurses, wodurch eine Legitimation der Wissenschaft erreicht werden kann. Ein Beispiel hierfür ist etwa im Nationalen Ethikrat zu sehen, dessen Diskussionen zur Stammzellenforschung in Deutschland im Austausch mit der Öffentlichkeit geführt wurden und dessen Entscheidungen breite Zustimmung fanden. Die hierbei zum Tragen kommenden Kriterien können nicht aus der Wissenschaft stammen, sondern müssen von Seiten der Öffentlichkeit definiert werden. Entsprechend ist auch die Beteiligung jeweils relevanter öffentlicher Gruppierungen erforderlich, wobei die Zusammensetzung nicht generell, sondern ausschließlich unter Berücksichtigung der jeweiligen Fragestellung bestimmt werden kann.

Zu Kapitel 6: Der Titel des Kapitels „Anders für wen – anders mit wem?“ verdeutlicht

diese „prinzipielle Öffentlichkeit“ zu der jeder gehören kann, aber nicht muss.

Wie können die Wissenschaftler mit dieser neuen Art der Unvorhersehbarkeit, wer zu

welchem Zeitpunkt zur Öffentlichkeit gehört und damit seine Aufmerksamkeit der

Wissenschaft und ihrer Resultate schenkt, sinnvoll umgehen?

Die Antworten im Einzelnen:

Zunächst einmal bin ich der Überzeugung, dass der Raum, den im aktuellen Wissenschaftleralltag die Kommunikation mit der (wie auch immer zusammengesetzten) Öffentlichkeit einnimmt, für das Gros der Wissenschaftler noch immer denkbar gering ist. Die Außendarstellung der eigenen Arbeit konzentriert sich gemeinhin stark auf die eigene scientific community in Form von Kongressbeiträgen oder Workshops. Dieser nicht unbedingt zu begrüßende Umstand führt auch dazu, dass wir es nicht gewohnt sind,

Inhalte, Methoden und Ziele unserer Arbeit in laienverständliche Worte zu kleiden. Die Kommunikation mit der Öffentlichkeit – ob nun privat auf einer Party, im universitätseigenen Wissenschaftsjournal oder über das Internet – dürfte häufig suboptimal verlaufen. Der Weg aus diesem Misstand erfordert meiner Meinung nach zweierlei: Zum einen muss die universitäre Lehre unbedingt das wissenschaftliche Schreiben sowie das Schreiben über Wissenschaft zu ihrem Gegenstand machen, um junge Wissenschaftler mit dem entsprechenden Rüstzeug auszustatten. Andererseits verdeutlich das Problem sich ständig neu zusammensetzender Öffentlichkeiten, dass man das Gelingen der Kommunikation nicht allein als Aufgabe der Experten konzeptualisieren kann. Als Paradebeispiel mag hier das Internet fungieren: Es ist nicht in meiner Kontrolle als Autor, wer mit welchem Vorwissen und welchem Erkenntnisinteresse Informationen über mein Forschungsgebiet über das Internet aufruft. Folglich gilt es auch für Laien, über Kompetenzen zu verfügen, die ihnen helfen, sich innerhalb fachlicher Informationen erfolgreich zurecht zu finden und zu informieren. Hier ist wiederum die Schule gefordert, eine solche Art von „informiertem Lesen“ zum Gegenstand der schulischen Ausbildung zu machen.

Weitere Beiträge

Denkanstoss zum Gesellschaftsvertrag zwischen Wissenschaft und Gesellschaft

Glaubt ihr, dass das tatsächliche Formulieren eines Vertrags zwischen Wissenschaft und Gesellschaft den Autoritätsverlust der Wissenschaft kompensiert könnte und zwar derart, dass die Bilder von der Wissenschaft dadurch mit den realen Forschungspraktiken wieder in Einklang gebracht werden könnten? Oder führte dies eher zum endgültigen Zusammenbruch von Autorität und Sonderstatus, da eine breite öffentliche Diskussion über das Verhältnis von Wissenschaft und Gesellschaft auch den letzten Rest des bisherigen epistemischen Kerns zerstören würde?

1.3.

Gruppe C: Zwei Modi – Verschleierung und Produktion von Wissen? (Kapitel 7 & Epilog)

1.3.1.

Exzerpt

Es könnte auch anders sein: Wissensproduktion nach Modus II (S. 66 - 78)

Es gibt zwei Modi der Wissensproduktion. In Modus I bestimmt die wissenschaftliche Elite

der jeweiligen Disziplin, was als Forschungsproblem zu sehen ist, und überwacht die strengen

disziplinären Qualitätsstandards, wie beispielsweise Objektivität, Reinheit und

Distanziertheit. Das so gewonnene Wissen ist daher im allgemeinen homogen. Ziel dieser Art

der Wissensproduktion ist häufig die Suche nach allgemeingültigen Erklärungsprinzipien. Sie

wird teilweise als die einzige "reine" Wissenschaft angesehen. Dem gegenüber steht die

Wissensproduktion nach Modus II, bei dem die Problemstellungen nicht vorgegeben, sondern

durch das jeweilige temporär zusammengesetzte, transdisziplinäre Forschungsteam anhand

der heterogenen, praktischen Ansprüche kontextspezifisch definiert werden. Das so gewonnene Wissen ist jeweils nach Maß hergestellt, dadurch allerdings relativ temporär und heterogen, es ist eher eine Art "Anwendungswissen".

Frau Nowotny argumentiert überzeugend, dass sich die Wissensproduktion immer mehr von Modus I nach Modus II verschiebt. Dies zeigt sie vor allem für die Sozial- und Humanwissenschaften, indem sie Beispiele für Wissensproduktion nach Modus II nennt, die es früher nicht in dem Maße gab. Hier einige ihrer Argumente: Als Antwort auf den gesellschaftlichen Problemdruck in verschiedenen Bereichen werden transdisziplinäre Forschungsgruppen gebildet. Diese Transdisziplinarität zeigt sich u.a. auch in der gesteigerten Anzahl wissenschaftlicher Publikationen mit Autoren aus verschiedenen Institutionen. Des Weiteren gibt es eine Expansion auf dem höheren Bildungssektor, die dazu führt dass sich Wissensträger verschiedener Disziplinen über viele Institutionen und sozialen Räume verteilen und sich dort potentiell zu heterogenen Forschergruppen zusammen finden können. Außerdem hat wissenschaftliches Wissen inzwischen den Stellenwert eines marktfähigen Produktes gewonnen und wird daher von Angebot und Nachfrage der Öffentlichkeit (mit-) bestimmt. Auch eine ausgeweitete Bücher- und Kulturindustrie und moderne Informations- und Kommunikationstechnologien erleichtern zum einen die Verteilung des Wissens auch außerhalb der klassisch zuständigen Institutionen und zum anderen die transdisziplinäre Zusammenarbeit.

Eine (Gegen-) These zu der hier beschriebenen Verbreitung von Modus II ist der vor allem von Pestre (1996) vorgebrachte Einwand, dass es Modus II schon immer gegeben habe. Er sei lediglich verschwiegen worden, da er nicht zur ,,reinen" Wissenschaft gehörte. Nähme man diesen Einwand ernst, müsste man schlussendlich die Wissenschaftsgeschichte umschreiben, denn es könnte auch ganz anders als dargestellt gewesen sein. Man könnte sogar noch weiter gehen und Modus I als nicht existent, sondern vielmehr als rhetorischen Schutz oder moralisches Ideal bezeichnen, der nur dazu dient, die Allgegenwärtigkeit von Modus II zu verschleiern. Nowotny kommt daher zu dem Schluss, dass Modus II nicht nur für eine aktuelle Gegenwartsdiagnose steht, sondern auch die Vergangenheit in einem anderen Licht erscheinen lässt. Akzeptieren wir, dass eine Umschreibung der Geschichte notwendig wäre, sollte es uns auch leichter fallen, uns der Öffentlichkeit gegenüber zu öffnen. Durch diesen Schritt könnten wir ein Paradox den steigende Bedarf an wissenschaftlichem Wissen einerseits und die öffentliche Abwertung andererseits aufheben.

Wie könnte es anders sein? (S. 79 - 83)

In dem Epilog wird der Frage nachgegangen, wie die Wissenschaft Wissensproduktion nach beiden Modi haben kann und ob dies überhaupt möglich ist. Die Argumentation lässt sich weitestgehend wie folgt zusammenfassen: Modus I wird es auch weiterhin geben, selbst wenn nur als Idealbild (s. Verweis auf die quinta essentia), an dem sich die Suche und Neuverhandlung des epistemischen Kerns des wissenschaftlichen Wissens immer wieder ausrichtet kann und sollte. Auch Modus II ist und war schon immer allgegenwärtig und eignet sich besser für die Neuverhandlung des epistemischen Kerns, da er nicht davon ausgeht, dass dieser unantastbar, unwandelbar oder irrelevant ist. Wie kann es uns aber möglich sein, wissenschaftliches Wissen als legitim zu akzeptieren, wenn wir über die sozialen, kulturellen, politischen und ökonomischen Bedingungen seiner Entstehung und über mögliche Mythenbildung Bescheid wissen? Eine mögliche Antwort sollte darin bestehen, dass wir lernen müssen, mit Widersprüchen und Paradoxien in einer komplexen und unordentlichen Welt zu leben, in der die ,,reine" Wissenschaft (s. Modus I) nur ein Ideal sein kann, an dem wir uns ausrichten.

1.3.2. Annotationen

(siehe Glossar: Historisch-Kritische Annotationen)

1.3.3. Diskussion des Grundlagentexts durch die Seminarteilnehmer

Modus I vs. Modus II oder Modus I und Modus II? Nowotny stellt die Wissensproduktion nach zwei Modi und die Ausbreitung von Modus II in unserer Gesellschaft relativ ausführlich dar. Auch wenn beide Modi durch Beispiele beschrieben werden, finden wir, dass diese Konzepte noch zu abstrakt sind. Daher unsere Frage: Welche Merkmale von Modus I und Modus II gibt es in eurer Forschung (Dissertation) oder der Forschung eures Instituts? Begründet damit die Zuordnung eurer Forschung zu einem der beiden Modi.

Modus I vs. Modus II Während das generelle Forschungsgebiet „Wissenserwerb und –austausch mit neuen Medien“ aus meiner Sicht eindeutig der Forschung nach Modus II zuzuordnen ist

würde ich mein eigenes

Forschungsprojekt („Aktives Integrieren von Text und Bild“) dem Modus I zuordnen. Aus folgenden Gründen:

- Es handelt sich um eine Fragestellung, die der Grundlagenforschung zuzuordnen ist. - Es wird nach allgemeinen Lernprinzipien gesucht.

- Die Frage ist aus keiner konkreten praktischen Fragestellung erwachsen, sondern hat ihren Ausgangspunkt in theoretischen Überlegungen.

- Während der Durchführung der Studie werden keine interdisziplinären Bemühungen

(interdisziplinäre Kooperationen, häufig anwendungsbezogen

),

unternommen.

- Die Einhaltung der „klassischen, wissenschaftlichen Kriterien“ hat gegenüber der Praxisnähe der Forschung Priorität.

Modus I und Modus II Ich denke, dass in vielen heutigen Forschungsprojekten eine strikte Trennung zwischen Modus I und Modus II nicht vollzogen werden kann, sondern dass es eine Art Vermischung zwischen den beiden Modi gibt. Auch im Rahmen meines Dissertationsprojekts sind beide Modi untrennbar verknüpft: Das Projekt ist insofern dem Modus II zuzuordnen, da die Forschungsfragen nicht ohne Interdisziplinarität beantwortet werden könnten. Ohne die Programmierarbeiten von Informatikern beispielsweise, stünden mir keine Informationsvisualisierungen zur Verfügung, anhand derer ich meine Forschungsfragen überprüfen könnte. Darüber hinaus fließen die Ergebnisse der Studien direkt in einen Anwendungskontext (der Informatiker) ein, da sie zur Lösung der Frage dienen, wie Informationsvisualisierungen, welche zur Informationsdarbietung im Rahmen mobiler Endgeräte benötigt werden, zu gestalten sind, damit mit ihnen effizient gearbeitet werden kann. Aber auch Modus I ist im Dissertationsprojekt enthalten, nämlich durch die Methodik. Diese strebt danach, den Kriterien des Modus I Objektivität, Reinheit und Distanziertheit gerecht zu werden. So wurden die Forschungsfragen nicht nur theoretisch abgeleitet, sie werden auch auf Basis des experimentellen Paradigmas beantwortet. Ich finde es wichtig, dass Forschung nach Modus II danach strebt, den Kriterien des Modus I zu genügen.

Warum klar unterscheiden? Glaubt ihr, dass tatsächlich immer klar zwischen nach Modus I und nach Modus II produziertes Wissen unterschieden werden kann? Nowotny kommt zu dem Ergebnis, dass Wissensproduktion nach Modus I wohl eher als nicht erreichtes, aber anzustrebendes Ideal zu bezeichnen ist. Dies scheint mir auch grundsätzlich auf diese Unterscheidung zuzutreffen, wobei ich mir nicht sicher bin, ob man diese anstreben sollte. Eine solche Unterteilung birgt meiner Meinung nach auch die Gefahr, künstlich unterschiedliche Kriterien für die Wissensproduktion zu erzeugen bzw. eventuell bestehende Tendenzen zu verstärken. Resultat wäre nicht die Wissensproduktion nach Modus I und II, sondern eine Wissensproduktion 1. und 2. Klasse.

Verschleierung in der Psychologie?

Wissen nach Modus I wird u.a. als „rhetorischer Schutz“ (S. 73) oder als „diskursive Maske“

(S. 77) bezeichnet, um die Allgegenwärtigkeit von Modus II zu verschleiern.

Unsere These hierzu: Besonders in der Psychologie gibt es diese Art der Verschleierung, da

wir häufig darauf bedacht sind, als empirische Wissenschaft, die nach strengen

Qualitätsstandards operiert (s. Merkmale von Modus I), wahrgenommen zu werden.

Situative Verschleierung Die Position, die die Psychologie und ihre wissenschaftlichen Vertreter in der Modus I / Modus II-Diskussion einnimmt ist m.E. zwiegespalten. Einerseits stimme ich der von Euch aufgestellten These, dass die Betonung von Charakteristika, die Modus I zuzurechnen sind, in der Psychologie stark verbreitet ist, zu. Mit dieser Strategie – so meine Erfahrung – wird nicht nur versucht, die Anerkennung der „strengen“, empirischen Wissenschaften zu erhalten, vielmehr dient die Berufung auf das empirische Methodenarsenal der Psychologie auch häufig der Abgrenzug gegenüber „nahen Verwandten“ wie der Pädagogik oder den Kommunikationswissenschaften. Gleichzeitig werden Wissenschaftler aus der Psychologie im Diskurs mit Laien und Novizen (z.B. Seminarteilnehmern) immer wieder aufgefordert, den Anwendungsbezug ihres speziellen Teilgebiets zu verdeutlichen. Die resultierenden Erklärungen laufen dann auf Aspekte von Modus II heraus – interdisziplinäre Projekte werden geschildert und Kooperationsprojekte mit Wirtschaftsunternehmen oder Schulen betont. Auf den Punkt gebracht: Die Betonung von Modus I oder Modus II scheint mir – auch und gerade in der Psychologie – massiv von situativen Merkmalen abhängig.

Theoretische Verschleierung Zu dieser These möchte ich zwei Anmerkungen machen:

1. Meiner Meinung nach muss es ein wie auch immer geartetes Methodenrepertoire in

jeder Wissenschaft geben, die sich empirisch mit bestimmten Phänomenen auseinandersetzt. Ob dies jedoch stets ein Mittel der Verschleierung von Modus II sein muss, wage ich zu bezweifeln. Vielmehr würde ich dafür plädieren, dass sich die

Verwendung von Methodologien, die Modus I entsprechen, und die "kontextspezifische Definition von Forschungsfragen durch temporär zusammengesetzte, transdisziplinäre Forschungsteams", was eurem Exzerpt zufolge ein Indikator für Modus II ist, einander nicht widersprechen müssen. Selbst in solchen kontextspezifischen Bereichen und transdisziplinären Teams kann meines Erachtens Forschung nach Modus I ablaufen. Dies ist zum Beispiel dann der Fall, wenn aufgrund bisheriger Forschung deutlich geworden

ist, dass die Theoriegebäude einer Disziplin nicht ausreichend sind, um ein bestimmtes Phänomen auf der Grundlage empirischer Daten hinreichend zu erklären und deshalb theoretische Anstöße aus anderen Disziplinen mit einbezogen werden.

2. Zur Frage, ob die Psychologie besonders gefährdet sei, Modus II mit Modus I zu

verschleiern, bzw. ob in der Psychologie eine besonders starke Durchmischung der beiden Modi vorliegt, würde ich sagen, dass es beträchtliche Unterschiede zwischen und innerhalb der einzelnen Subdisziplinen der Psychologie gibt. So würde ich argumentieren, dass z. B. in der Sozialpsychologie oft eher grundlagenorientiert und auf der Basis

spezifischer Hypothesen geforscht wird (also nach Modus I) als dies etwa in der pädagogischen Psychologie der Fall ist. Dennoch tritt auch in der pädagogischen Psychologie eine gewisse Varianz auf in dem Sinne, dass auch hier ab und an grundlagenorientierte Forschung betrieben wird, aber häufig betont wird, dass der Gegenstand der pädagogischen Psychologie so breit sei, dass ein Theorien- und Methodeneklektizismus dringend erforderlich sei, will man die behandelten Phänomene tatsächlich verstehen. Dies würde die Einrichtung transdisziplinärer Forscherteams, die ihre Problemstellung selbst definieren, quasi unerlässlich machen.

Wissensproduktion in der Psychologie?

ist die Verbreitung einer neuen Art der Wissensproduktion nach

Modus II unübersehbar.", S. 68), dass sich Modus II der Wissensproduktion immer mehr

ausbreitet.

Unsere Frage: Ist dies auch in der Psychologie der Fall? Woran könnten wir das erkennen?

Es wird behauptet ("

Anwendungsbezug In psychologischen Grundlagenfächern habe ich häufig den Eindruck, dass man bestrebt ist, weniger die Existenz von Modus II Forschung zu verschleiern, als vielmehr Anwendungsbezüge der Forschung herauszustellen um sie somit nach außen zu legitimieren und darüber hinaus auch für Studenten attraktiv zu machen, die nach dem Studium nicht in der Wissenschaft bleiben möchten und nach Praxisbezügen im Studium suchen. Hinter psychologischen Anwendungsfächern wie beispielsweise der Arbeits-, Betriebs- und Organisationspsychologie steht dagegen schon immer ein starkes Verwertungsinteresse hinsichtlich der Ergebnisse. Meist unterliegt die Forschung in diesem Bereich erheblichen methodologischen Einschränkungen, da Betriebe und Organisationen als Untersuchungsfeld viele Rahmenbedingungen vorgeben. Man versucht, den verbleibenden Spielraum so gut wie möglich zu nutzen und den Möglichkeiten entsprechend methodisch sauber zu arbeiten. Häufig ist man auch bestrebt, die methodologischen Einschränkungen klar zu kommunizieren und die eingeschränkte Gültigikeit der erworbenen Erkenntnisse deutlich zu machen. Allerdings besteht die Gefahr, dass die Öffentlichkeit, die die Ergebnisse erreicht, diese Einschränkungen nicht wahrnimmt und dass unzulässige Verallgemeinerungen vorgenommen werden. Hier stellt sich dann wieder die Frage, ob nicht starke Nutzungsinteressen zwangsläufig die epistemischen Werte untergraben, auf denen die Zuverlässigkeit und Tragweite wissenschaftlichen Wissens beruhen.

Interdisziplinarität Von der DFG werden inter- oder transdisziplinäre Projektanträge explizit erwünscht, wie auch auf der Website betont wird: „Die Deutsche Forschungsgemeinschaft fördert Forschungsvorhaben in allen Wissenschaftsgebieten. Wissenschaftliche Exzellenz, Förderung der wissenschaftlichen Nachwuchses, Interdisziplinarität und Internationalität

gehören zu den Eckpunkten der Förderung.“ Dies bezieht sich natürlich auf alle Disziplinen. Auch in der Psychologie ist interdisziplinäre Forschung erwünscht und wird immer mehr praktiziert. Es bestanden z.B. allein in unserer Abteilung in jüngster Zeit Forschungskooperationen mit Ethnologie, Informatik sowie Geographie. Die stärkere Ausrichtung der Forschung an Fragen, die in interdisziplinären Teams entwickelt werden im Gegensatz zu explizit von den „Eliten“ der einzelnen Disziplinen bestimmten Problemen, zeigt sich auch in der Entstehung von Scientific communities, die sich nicht über die Zugehörigkeit zu einer Disziplin, als viel mehr über den gemeinsamen Beitrag zur Generierung von Wissen in einem Bereich definieren. Als Beispiel hierfür sei die CSCL-Community benannt.

Interdisziplinär und anwendungsbezogen In den meisten Fällen lässt sich nicht trennscharf zwischen den beiden Modi der Wissensproduktion unterscheiden. Vielmehr beinhalten die meisten Forschungsprojekte

meist Aspekte beider Modi. Ähnlich wie der von Nowotny formulierte traditionelle epistemische Kern der Wissenschaft stellt Modus I eine Art wissenschaftsinternes Ideal dar.

Zur

Frage, ob sich auch in der Psychologie ein Trend zur Wissensproduktion nach Modus

II

zeigt: In vielen Forschungsfeldern der Psychologie lassen sich verstärkt

interdisziplinäre Ansätze beobachten. Das gilt insbesondere für die „Neuen Medien“ als Forschungsgegenstand. So war eine Vielzahl der BMBF-Projekte „Neue Medien in der Bildung“ interdisziplinär ausgerichtet. Da eine solche interdisziplinäre Herangehensweise laut Nowotny einen Indikator für Modus II darstellt, stützt diese Beobachtung die These einer entsprechenden Verschiebung innerhalb der Psychologie. Allerdings hat die Beschreibung von Modus II bei Nowotny und in eurem Exzerpt die negative Konnotation einer „unreinen“ Anwendungsforschung, die vom Forschungsideal Modus I weit entfernt

ist. Meiner Meinung nach ist die stärkere Betonung der Interdisziplinarität bei der Erforschung zahlreicher Phänomene schlicht erforderlich, um durch Bündelung der Expertise verschiedener Forschungsdisziplinen zu einem Erkenntnisgewinn zu gelangen. Darüber hinaus finde ich die von Nowotny aufgestellte Gegenthese, dass es Wissensproduktion nach Modus II immer schon gegeben habe, sehr gut nachvollziehbar. Gerade für die Psychologie als relativ junge Wissenschaft lässt sich zeigen, dass durch

Einflüsse von außen neue Subdisziplinen überhaupt erst entstanden sind. Beispielsweise erhielten die Intelligenzforschung und die psychologische Diagnostik wesentliche Impulse durch den Bedarf an geeigneten Instrumenten zur Diagnose der Schuleignung (Binet) oder

der Eignung zum Wehrdienst (Army Alpha Test). Dieses Beispiel stützt die von Nowotny

aufgestellte These, dass Wissensproduktion nach Modus II besser als Modus I dazu geeignet ist, zur Weiterentwicklung des epistemischen Kerns einer Wissenschaft beizutragen. Insofern wäre ein Trend in Richtung Modus II, so es ihn denn gibt, durchaus wünschenswert.

2.

Kritik des gesunden Menschenverstandes

Ernst

Peter

Fischer

(2002)

Hindernislauf zur Erkenntnis

Kritik

des

gesunden

Menschenverstandes.

Unser

Wissenschaft & Öffentlichkeit Glossar Literatur
Wissenschaft & Öffentlichkeit
Glossar
Literatur

Es ist so. Es könnte auch anders sein.

Glossar Literatur Es ist so. Es könnte auch anders sein. Untersuchte Fehlkonzepte in naturwissenschaftlichen Domänen

Untersuchte Fehlkonzepte in naturwissenschaftlichen Domänen (S. 9 34)

Kritik des gesunden Menschenverstandes

Unanschaulichkeiten in der Psychologie (S. 77-128)
Unanschaulichkeiten in
der Psychologie (S.
77-128)

2.1. Gruppe D: Untersuchte Fehlkonzepte in naturwissenschaftlichen Domänen (S. 9 – 34)

Zum Thema Fehlkonzeptionen hat die psychologische Forschung mittlerweile zahlreiche empirische Untersuchungen sowie eine Anzahl an Theorieartikeln hervorgebracht. Insbesondere die in der Seminarlektüre bereits vorgestellten Untersuchungen von Michael McCloskey zu Fehlkonzepten in Bezug auf die Newton’sche Bewegungslehre legten den Grundstein für eine kaum zu überschauende Anzahl weiterer Untersuchungen, deren Zielsetzung darin bestand, Fehlkonzepte aufzudecken, diese möglichst exakt zu beschreiben, theoretische Erklärungen für deren Auftreten zu diskutieren und nicht zuletzt instruktionale Maßnahmen zu erproben, mit Hilfe derer Lerner Fehlkonzepte durch angemessene Konzepte ersetzen sollen. Die Band-breite der untersuchten Domänen wurde dabei in der Folge deutlich erweitert. So liegen mittlerweile Untersuchungen zu Fehlkonzepten in Physik (z.B. McElwee, 1991), Mathematik/ Statistik (z.B. Griffiths & Thompson, 1993), Chemie (z.B. Schmidt, 1995), Geowissenschaften (z.B. Brody, 1996; Marques & Thompson, 1997) oder Medizin (z.B. Chamot, 2001) vor. Gleichwohl bleibt festzuhalten, dass sich das Gros der Untersuchungen nach wie vor Fehlkonzepten im Bereich der Naturwissenschaften widmet. Mit der Erweiterung der untersuchten Domänen ging auch eine Ausweitung der untersuchten Stichproben einher: Während sich diese im vorliegenden Forschungsbereich traditionell aus SchülerInnen oder Studierenden zusammensetzen, standen in neueren Experimenten u.a. die

Fehlkonzepte von Lehrenden (Sciutto et al., 2000) oder der Allgemeinbevölkerung (z.B. Swift & Wilson, 2001) im Fokus.

In unserem Seminarbeitrag schildern wir eine Auswahl der untersuchten Fehlkonzepte, sparen dabei aber bewusst jene Untersuchungen aus, die sich mit Fehlkonzepten in Bezug auf die Psychologie beschäftigen, da diese Gegenstand des Seminarbeitrags der Arbeitsgruppe E im folgenden Abschnitt sind.

2.1.1. Beispiele für untersuchte Fehlkonzepte

Umwelt & Biologie

Im Zuge der wachsenden Bedrohung durch Umweltgefahren, wie z.B. der Zerstörung der Ozonschicht, erlangt das Wissen um diese Phänomene, ihre Ursachen und ihre Auswirkungen auf unseren Alltag immer größere Relevanz. Nicht zuletzt weil in Bezug auf die reelle Gefährdung durch Klimawandel, Ozonloch etc. auch in der Fachwelt verschiedene, teils gegensätzliche Meinungen verbreitet sind, ist ein grundlegendes Verständnis der Zusammenhänge für ein informiertes Handeln im Alltag notwendig.

Um die Kenntnisse griechischer Schülerinnen und Schüler über die Ozonschicht zu erheben, setzten Boyes, Stanisstreet & Spiliotopoulou Papantoniou (1999) einen Fragebogen ein, den 1161 SchülerInnen im Alter von 11 bis 16 Jahren ausfüllten. Das Inventar umfasst 36 Aussagen, die sich den Teilgebieten Eigenschaften und Funktion der Ozonschicht, Ursachen der Zerstörung und Folgen einer beschädigten Ozonschicht zuordnen lassen. Aufgabe der SchülerInnen ist es, für jede der Aussage zu bestimmen, ob diese wahr oder falsch ist.

Die Ergebnisse zeigen, dass die SchülerInnen im Allgemeinen recht gut über Position und Funktion der Ozonschicht Bescheid wissen. Trotzdem glauben 35% aller SchülerInnen, dass die Ozonschicht die Erde wärmt (die Prozentzahl der SchülerInnen, die dieser Auffassung sind nimmt aber mit steigendem Alter ab). Wiederum ca. 35% aller Befragten geben an, dass die Ozonschicht die Erde vor saurem Regen schütze.

Des Weiteren ist den SchülerInnen bewusst, dass die Ozonschicht gefährdet ist. Für diese Gefährdung machen sie eine Reihe von Ursachen verantwortlich, von denen jedoch nicht alle wirklich im Zusammenhang mit der Beschädigung der Ozonschicht stehen. So glauben über 80% der Befragten, dass sowohl Rauch aus Fabrikschloten als auch Autoabgase zur Zerstörung der Ozonschicht beitragen. Weiterhin sind mehr als 70% der SchülerInnen der Annnahme, Radioaktivität schädige die Ozonschicht – diese Annahme ist sogar unter den

älteren SchülerInnen weiter verbreitet als bei den Jüngeren. Als weitere Schadensquellen werden von den SchülerInnen die Abholzung des Regenwaldes, der Treibhauseffekt, die Meeresverschmutzung und saurer Regen angesehen.

Bezüglich der unmittelbaren Folgen einer zerstörten Ozonschicht kennen sich die SchülerInnen recht gut aus: Nahezu allen älteren SchülerInnen ist bekannt, dass durch die Zerstörung der Ozonschicht mehr UV-Strahlen die Erde erreichen und Hautkrebs verursachen. 70% aller SchülerInnen wissen, dass aus erhöhter UV-Einstrahlung auch Augenprobleme resultieren können. Trotzdem sind auch in diesem Bereich fehlerhafte Annahmen unter den SchülerInnen verbreitet. Z.B. glauben 40% der Befragten, dass durch die zerstörte Ozonschicht Fische vergiftet werden und dass das Trinken von (Leitungs-) Wasser nicht mehr unbedenklich ist. Über die Hälfte aller SchülerInnen ist weiterhin der Annahme, die Zahl der Herzinfarkte steige infolge der beschädigten Ozonschicht.

Der Vergleich mit Daten, die mit demselben Instrument an N = 1700 britischen SchülerInnen gewonnen wurden, ergibt nur geringfügige Unterschiede auf Itemebene. Zum Beispiel nehmen weniger britische SchülerInnen an, dass radioaktive Strahlen die Ozonschicht schädigen, griechische SchülerInnen wiederum wissen besser Bescheid über die Gefahr für die Augen, die von einer erhöhten Belastung mit UV-Strahlen ausgehen. Die Autoren erklären diese Differenzen mit den unterschiedlichen soziokulturellen Hintergründen der Schüler: Während die Nutzung von Atomkraft und damit auch die Diskussion über ihre Risiken und Chancen in Großbritannien weiter verbreitet ist als in Griechenland, ist UV- Schutz eher im sonnenverwöhnten Griechenland ein von den Medien häufig aufgegriffenes Thema.

Physik

Das Ziel der Untersuchung von Kikas (2003) bestand darin, die Verbreitung von Fehlkonzepten bezüglich dreier verschiedener physikalischer Phänomene unter estnischen Studierenden zu dokumentieren. Bei den untersuchten Phänomenen handelte es sich um die Bewegung von Objekten, die Entstehung der Jahreszeiten und Wechsel von Aggregatzuständen. Weil Fehlkonzepte aus dem Bereich der Mechanik in der Seminarlektüre von Fischer bereits detailliert beschrieben wurden, konzentrieren wir uns hier auf die Vorstellung der Ergebnisse zu letzteren beiden Themen.

Kikas verwendete in ihrer Untersuchung so genannte ‚evaluation-tasks’ und ‚problem- tasks’. In den evaluation-tasks wurden je 4 Erklärungen für ein zuvor beschriebenes Phänomen angeboten.

Eine der Erklärungen entsprach der wissenschaftlich korrekten Erklärung, zwei weitere enthielten gängige Fehlkonzepte und eine weitere war eine einfache Beschreibung des Phänomens. Die Aufgabe der 132 (M = 18.8 Jahre) Studierenden aus den Bereichen Humanwissenschaften, Naturwissenschaften und Angewandte Naturwissenschaften bestand nun darin, auf einer 4-stufigen Skala jede der vier Erklärungen hinsichtlich ihrer Adäquatheit als aktuelle wissenschaftliche Erklärung zu bewerten. Außerdem galt es zu jedem der drei Unterthemen eine Problemlöseaufgabe schriftlich zu beantworten.

Die Ergebnisse der ‚evaluation-tasks’ zeigen, dass für alle drei Phänomene die korrekten wissenschaftlichen Erklärungen die höchsten Ratings von den Probanden erhalten. Die einfachen Erklärungen werden als am wenigsten der aktuellen wissenschaftlichen Erklärung entsprechend angesehen, dazwischen liegen die Antworten mit Fehlkonzepten. Dieser Trend gilt für alle untersuchten Studentengruppen. Dass jedoch auch bezüglich der hier untersuchten Phänomene Fehlkonzepte unter den Studierenden verbreitet sind, zeigen die Antworten auf die ‚problem-tasks’: Nur 16% aller Studierenden gaben eine korrekte Antwort auf die folgende Frage:

„In Estland ist es im Sommer warm und im Winter kalt, im Frühjahr und Herbst liegt die Temperatur dazwischen. Was müsste anders an der Erde sein, damit in allen 4 Jahreszeiten das Klima gleich ist?“

Die richtige Antwort ist, dass die Erdachse im rechten Winkel zur Umlaufbahn der Erde um die Sonne stehen müsste. In 13% der Studierendenantworten zeigt jedoch sich eine fehlerhafte Auffassung, die als Distanztheorie bezeichnet wird. In dieser werden Temperaturunterschiede zwischen Sommer und Winter an einem bestimmten Punkt auf der Erde durch unterschiedliche Entfernungen zwischen diesem Punkt und der Sonne erklärt.

Eine weitere Problemlöseaufgabe bezog sich auf den Wechsel von Aggregatzuständen:

Was passiert mit den Atomen, wenn Eisen bis zum Schmelzpunkt erhitzt wird? Sie (a) dehnen sich aus (b) ziehen sich zusammen (c) verändern ihre Größe nicht. 31% der Studierenden glauben, dass die Atome sich ausdehnen. Ihr fehlerhaftes Konzept besteht darin, dass sie Atome offen-sichtlich als materielle Partikel sehen, denen sie makroskopische Eigenschaften zuschreiben. Mikro- und makroskopische Welt werde – bis auf den verkleinerten Maßstab - gleichgesetzt. Die schriftlichen Ausführungen zu den Antworten unterstützen diese Erklärung. 65% der Studierenden, die Antwort (a) wählten, begründeten ihre Wahl damit, dass Materie sich beim Erhitzen ausdehnt - folglich tun dies auch die darin enthaltenen Atome. Interessanter Weise fanden sich hier keine Unterschiede in den Antworten der Studierenden

aus unterschiedlichen Studienfächern. Basierend auf diesen Ergebnissen kommt die Autorin zu dem Schluss, dass Phänomene immer dann besonders schwer zu begreifen sind, wenn sich die Prozesse auf der sichtbaren phänomenologischen Ebene von dem, was auf der mikroskopischen Ebene wirklich geschieht - wie in diesem Fall – grundlegend unterscheiden.

Ein andere Studie, die sich ebenfalls mit Fehlkonzepten beim Erhitzen von Stoffen beschäftigt, ist eine Studie von McElwee (1991). McElwee (1991) untersuchte 37 amerikanische Schüler hinsichtlich ihrer Fehlkonzepte bezüglich des Kochens von Flüssigkeiten. Den Schülern wurden in Interviews Fragen darüber gestellt, wie sie sich bestimmte Phänomene erklären. Vor allem wurde gefragt, wie sich die Blasen erklären lassen, die während des Kochvorgangs aus dem Wasser aufsteigen. Ca. 50% der Probanden gaben an, dass es sich bei den Blasen um Luft bzw. Sauerstoff oder Wasserstoff handelt. Als Begründung wird angeführt, dass es kein Dampf sein kann, da sich Wasser erst bei 100° Grad Celsius in Dampf verwandelt. Bei diesen Schülern hat sich ein synthetisches Modell gebildet, das zum einen aus der Erfahrung stammt (wenn Wasser kocht, steigen Luftblasen auf) und zum anderen in der Schule erlernt wurde (Wasser ändert seinen Aggregatzustand bei 100° Grad Celsius von flüssig in gasförmig).

Wissenschaftliches Arbeiten

In einer Reihe von Untersuchungen konnte gezeigt werden, dass Schüler eigene Ideen und Konstrukte über wissenschaftliche Phänomene entwickeln, lange bevor ihnen wissenschaftliche Erklärungskonstrukte angeboten werden. Aus konstruktionspsychologischer Sicht kann argumentiert werden, dass jede neue Information im Lichte dieser bereits vorliegenden Konzepte interpretiert, modifiziert und revidiert wird. In vielen Studien zeigte sich, dass zwischen diesen wissenschaftlichen und nicht-wissenschaftlichen Konzepten häufig große Diskrepanzen bestehen, deren Identifikation und Überwindung Ziel instruktionspsychologischer Forschung ist. Dabei wird oftmals bemängelt, dass insbesondere das methodische Vorgehen bei der Identifikation von Fehlkonzepten problematisch ist (Pfundt & Duit, 1991).

Palmer (1998) diskutiert in seiner Studie die Verbindung zwischen wissenschaftlichen Konzepten mit bereits vorliegenden alternativen Erklärungskonzepten. Untersuchungsdomäne ist in dieser Studie das Konzept der „biologischen Rolle oder der biologischen Nische“. Dazu wurden 100 Schüler zwischen 10- und 15 Jahren in Einzelinterviews Itemlisten vorgelegt, welche einen hinreichend großen Range an Lebewesen abdeckten (z.B. Baum, Wurm, Grass, Fisch.). Die Probanden wurden aufgefordert, zu jedem Item die spezifische Rolle des

Lebewesens anzugeben. Dabei zeigte sich, dass ein Großteil der Probanden sowohl

wissenschaftliche Konzepte als auch alternative Konzepte zur Erklärung der biologischen Rolle von Lebewesen heranzogen. Diese unterschiedlichen Erklärungskonzepte wurden meist

mit „wenn

ein Wurm? Antwort: Keine, Würmer kriechen nur rum und tun nichts. Frage: Nach welchem Kriterium entscheidest du, ob etwas eine biologische Rolle übernimmt? Antwort: Wenn es etwas tut oder hat, das wichtig oder hilfreich ist, dann übernimmt es eine biologische Rolle.)

Palmer betont in seiner Studie, dass die von ihm angewandte Interviewmethode, sehr hilfreich sei, um mit den eingesetzten Itemlisten Wissensfragmente der Probanden zu erheben. Dadurch können sowohl vorliegende Fehlkonzepte als auch deren Verknüpfungen mit wissenschaftlichen Konzepten erfasst werden. Dadurch kann eine entsprechende Instruktion, die Probanden vor Fehlkonzepten bewahren oder bereits bestehende auflösen soll, gezielt eingesetzt werden.

dann“ Konstruktionen verknüpft. (Beispiel: Frage: Welche biologische Rolle hat

Der Einfluss von Tradition und Kultur auf Erwerb und Modifikation wissenschaftlicher Konzepte ist Thema vieler Studien (vgl. Ogawa, 1997). Im Mittelpunkt dieser Studien steht meist die Frage, ob und wie kulturelle Aspekte –die sich z.B. in der Sprache niederschlagen - den Erwerb wissenschaftlicher Konzepte beeinflussen.

Die hier skizzierte Studie von Lubben et al. (1998) untersucht Probanden, die auf Grund ihrer kulturellen Prägung die Begriffe „heiß und kalt“ als Metapher zur Charakterisierung alltäglicher Situationen benutzten und vergleicht, ob sich deren Konzept der Erwärmung von Probanden ohne metaphorische Nutzung der Begriffe unterscheidet. Die Untersuchung wurde an Studenten der afrikanischen Kultur Sotho durchgeführt. Die Sprache der Sotho verwendet den Begriff „heiß“ im Sinne von „disharmonisch, abseits der Norm“ und den Begriff „kalt“ als „harmonisch, völlig normal“. Im ersten Teil der Studie klassifizierten 100 Studenten der Sotho Kultur ein Aussagenset, welches verschiedenen Alltagssituationen beschrieb hinsichtlich der Ausprägungen „heiß“, „kalt“ und „weder noch“. Alle Probanden wurden aufgefordert, ihre Codierung zu begründen. Auf Basis dieses Ratings wurden die Probanden in einer zweiten Studie in so genannte „metaphoric reasoners“ und „nonmetaphoric reasoners“ eingeteilt, deren Aufgabe es war, das Konzept der Teilchenerwärmung zu erklären. Dieses wurde ihnen in einer anschließenden Trainingsphase erklärt. In einer letzten Untersuchung wurde das Konzept der Erwärmung erneut getestet.

Im Ergebnis zeigte sich, dass etwa ein Drittel aller Teilnehmer als „metaphoric

zur

reasoners“

einzustufen

waren,

also

die

Begriffe

„heiß“

und

„kalt“

als

Metapher

Beschreibung alltäglicher Situationen gebrauchten. Entscheidend zur Klassifikation war in

erster Linie das Ausmaß der Bewegung in den beschriebenen Situationen. „bewegt sein“

wurde als Kriterium zur Klassifikation „heiß“ verstanden, „Starre“ zur Klassifikation „kalt“.

Im Gegensatz zu einer Reihe früherer Untersuchungen von Hewson und Hamlyn (1984)

konnte sich in dieser Untersuchung keine Überlegenheit der „metaphoric reasoners“ im

Erwerb des Konzeptes der Erwärmung zeigen. Die Vorstellung, dass „kalt“ gleichzeitig

„starr“ und „heiß“ „beweglich“ bedeutet, wurde in der erwähnten Studie als Vorteil für

metaphoric reasoners interpretiert, da diese metaphorische Nutzung der Begriff das

wissenschaftliche Konzept der Erwärmung bereits umschreibt. Lubben et al. konnten

hingegen keinen Performanzunterschied zwischen metaphoric und nonmetaphoric reasoners

feststellen. Aus ihrer Sicht nehmen Studenten bei der Bearbeitung von wissenschaftlichen

Fragestellungen einen „conceptual change“ vor und ignorieren offensichtlich ihre kulturelle

Prägung.

Im Gegensatz zu kulturellen Perspektive Ogawa (1997) oder Lubben und Kollegen

(1998), untersuchten Griffiths und Thompson (1993) ohne deren Berücksichtung kanadische

Jugendliche. Griffiths, A. K. & Thompson, J. (1993) interviewten 32 Teilnehmer von

Wissenschaftswettbewerben in Kanada im Alter zwischen 13 und 16 zum Thema

„wissenschaftliches Arbeiten“. In den Interviews wurden u.a. die Fragen gestellt „Was ist eine

unabhängige Variable?“ und „Ist eine unabhängige Variable das gleiche wie eine

Kontrollvariable?“. Jeweils nur ca. ein Drittel der Schüler konnte jedoch die richtige Antwort

geben. So gaben die restlichen Probanden an, eine unabhängige Variable sei vom restlichen

Experiment abgetrennt bzw. das sich diese Variable selbst kontrolliert oder steuert. Auf die

Frage, ob unabhängige und kontrollierte Variablen das gleiche sind, antworten zwei Drittel

mit ja. Diese Antwort wurde z.B. wie folgt begründet: „Man kontrolliert die unabhängige

Variable; man kontrolliert was passiert und das ist das gleiche wie eine unabhängige

Variable.“. Aber auch die Teilnehmer, die mit nein geantwortet hatten, begründeten ihre

Antwort zumeist nicht richtig („Nun, eine unabhängige Variable kann nicht kontrolliert

werden, da sie sich selbst kontrolliert. Eine Kontrollvariable kann jedoch kontrolliert

werden.“).

2.1.2. Diskussion des Grundlagentexts durch die Seminarteilnehmer

Fragen zu Fehlkonzepten und Ihrer Bedeutung in der (pädagogischen) Psychologie

Sind Fehlkonzepte grundsätzlich negativ?

Im Schulunterricht werden gezielt Fehlkonzepte eingesetzt (z.B. das Licht als Strahl), nur

werden sie hier als Vereinfachung zur Reduzierung der Komplexität verwendet.

Zusammenfassung der Diskussion: In der Online-Diskussion wurde der These, das

Fehlkonzepte grundsätzlich negativ sind, deutlich widersprochen. Als Gegenthese wurde vor

allem hervorgehoben, dass es sich bei Fehlkonzepten um vereinfachte Modelle handelt, die in

der Lage sind, einen Teil der Wirklichkeit konsistent und Vorwissenskonform abzubilden.

Damit werden vor allem Fehlkonzepte angesprochen, die vor allem der

Komplexitätsreduktion dienen. Neben dieser Perspektive der „Wissensvermittlung durch

Fehlkonzepte“, wurde auch die Bedeutung von Fehlkonzepten in der Wissenschaft diskutiert.

Vor allem wurde darauf hingewiesen, dass die „richtigen“ Konzepte von heute die

Fehlkonzepte von morgen sein könnten, wie es bei einigen Theorien schon geschehen ist (z.B.

„Die Erde ist eine Scheibe“, „Der Weltraum ist gefüllt mit Äther“).

Im Folgenden werden die Diskussionsbeiträge der Seminarteilnehmer zu dieser Frage

präsentiert:

Fehlkonzepte im Sinne einer vereinfachten Darstellung von Sachverhalten, wie sie im Unterricht häufig angewendet werden, sind sicherlich nicht grundsätzlich negativ. Durch die vollzogene Komplexitätsreduktion werden bestimmte Themenbereiche für Schüler mit eingeschränktem Vorwissen leichter zugänglich und der Einstieg in manche Fächer wird erleichtert. Ein Beispiel hierfür ist der Chemieunterricht, in dem verschiedene Bindungsformen zwischen Atomen bzw. Molekülen zunächst stark vereinfacht, später jedoch differenzierter dargestellt werden. Das langsame Heranführen an komplexe Zusammenhänge in der Schule ist als didaktisches Element ebenso sinnvoll wie es auch die Verwendung von vereinfachten Konzepten im Alltag (wie in Frage zwei angesprochen) ist. Allerdings finde ich es jeweils wichtig, von vornherein klarzustellen, dass es sich bei der Darstellung um eine Vereinfachung handelt, da es häufig als Bevormundung empfunden wird, wenn man im Nachhinein erfährt, dass Konzepte, mit denen man lange gearbeitet hat, eigentlich falsch sind.

Wie in Frage 1 bereits angemerkt, müssen Fehlkonzepte durchaus nicht immer negativ sein. Da sich Wissenserwerb immer an vorhandenem Vorwissen orientiert, und nur durch Vorwissen möglich gemacht wird, müssen komplizierte Phänomene in unterschiedlich vereinfachter Form dargestellt werden können. Interessant ist dabei meiner Meinung nach der Moment, in dem einem Schüler/ Lernenden die Diskrepanz zwischen den eigenen (Fehl-) Konzepten und den wissenschaftlichen Erklärungen bewusst wird. Diese Diskrepanz wird in der Regel Erstaunen hervorrufen, kann Neugierde anregen und einen Lernanreiz darstellen.

Ich finde, es gibt mehrere Argumente, die [gegen] eine generell negative Bewertung von Fehlkonzepten sprechen:

In der wissenschaftlichen Forschung werden Fehlkonzepte meist nach und nach widerlegt

und durch neuere, eher der Empirie entsprechende Konzepte ersetzt (z.B. "die Erde ist eine Scheibe"). Diese Annährung an die "Wahrheit" kann sich zyklisch mehrmals wiederholen. Erst widersprüchliche Erfahrungen helfen, Fehlkonzepte aufzudecken. Hinzu kommt, dass Fehlkonzepte ihren Inhabern zunächst nicht bewußt sind. Meiner Meinung nach sollte man in der wissenschaftlichen Forschung dem entsprechend (fast) jedes Faktum und jede Hypothese als ein potentielles Fehlkonzept betrachten und systematisch nach widersprüchlichen Informationen suchen. Nur so ist Fortschritt möglich. Aus diesem Grund haben Fehlkonzepte in der Forschung einen großen heuristischen Stellenwert. Aber auch bei jeglicher Art der Bildung spielen Fehlkonzepte eine große Rolle. Zum einen dienen sie der Komplexitätsreduktion bei der Vermittlung komplexer Inhalte und zeigen die Wissenschaftsgeschichte bestimmter Domänen auf. Zum anderen - und das ist meiner Meinung nach eine ebenso wichtige Funktion - weisen sie auf die Relativität von Wissen hin. Nur dadurch kann eine Einstellung entstehen, die der wissenschaftlichen Forschung zuträglich ist: nämlich, dass es potentiell viele Fehlkonzepte gibt und es wichtig ist, diese systematisch zu widerlegen (s.o.). Auch die individuellen Fehlkonzepte bieten in der Lehre eine fruchtbare Chance: Durch explizite Besprechung und Widerlegung können sie korrigiert werden. Leider habe ich diese Art der Lehre in meiner Schullaufbahn selten genießen dürfen Meine Schlussfolgerung ist: Es wird immer Fehlkonzepte geben (nicht nur in der Forschung, sondern besonders auch in der Allgemeinheit, die schließlich nicht in allen Domänen auf dem neusten Stand sein kann). Daher ist es wichtig, sie nicht negativ zu bewerten, sondern produktiv (in Lehre und Forschung) mit ihnen umzugehen.

Die Vereinfachung komplexer Sachverhalte ist insbesondere für Lerner mit geringem Vorwissen in einer Domäne sinnvoll und didaktisch erforderlich. Ein prominentes Beispiel für dieses Vorgehen stellt die Verwendung des Planetenmodells für den Aufbau von Atomen dar. Für ein grundlegendes Verständnis des Atomaufbaus und die daraus resultierenden Bindungseigenschaften der chemischen Elemente ist das vereinfachte Planetenmodell hervorragend geeignet. Aus der aktuell in der wissenschaftlichen Physik vorherrschenden quantentheoretischen Perspektive handelt es sich allerdings um ein Fehlkonzept. Hierzu lässt sich zum einen anmerken, dass ein komplexes Verständnis der Quantenmechanik nicht zu den Lernzielen des Chemie-Unterrichts, die Komplexitätsreduktion also lernzielangemessen ist. Zum anderen ist zu fragen, ob die Quantenmechanik ohne das Wissen um das fehlerhafte Planetenmodell überhaupt erfolgreich vermittelt werden kann. Eine schrittweise Anhebung der Komplexität in der Wissensvermittlung unter bewusster Inkaufnahme von Fehlkonzepten stellt möglicherweise eine geeignete Methode zum didaktischen Umgang mit dem Lernparadox dar (Lernparadox: die Aneignung von Wissen setzt bereits Wissen voraus, das aber eigentlich erworben werden soll). Eine grundsätzliche Klassifikation von Fehlkonzepten als positiv oder negativ halte ich für wenig sinnvoll. Obwohl der Begriff „Fehlkonzept“ zumeist negativ konnotiert ist, stellen doch Fehlkonzepte und naive Theorien subjektive Erklärungsversuche dar, die sich im alttäglichen Leben als durchaus adaptiv erweisen können. Im Lehr-Lern-Kontext hingegen ist das Aufdecken und Modifizieren von Fehlkonzepten von Lernern wie Lehrenden eine wesentliche Vorraussetzung für den Wissenserwerb.

Meiner Ansicht nach gilt es bei Fehlkonzepten zu differenzieren: Werden bei Schülern vorhandene Fehlkonzepte zur Schaffung eines Common Grounds aufgegriffen und anschließend differenziert bzw. berichtigt, können sie ein adäquates didaktisches Mittel darstellen. Ebenso legitim kann ein Fehlkonzept im Sinne eines vereinfachenden Modells sein, das zu einem späteren Zeitpunkt verfeinert wird. Ein Beispiel könnte das Lernen von Vergangenheitszeiten beim Sprachlernen darstellen: Zuerst beschäftigt man sich mit einer einfach zu bildenden Zeit, verwendet diese in Gesprächen/ Aufsätzen pauschal für jegliche Art von Vergangenheit und lernt anschließend differenziertere Anwendungsregeln der verschiedenen Zeiten. Allerdings wird an diesem Beispiel auch schon eine potentielle Gefahr von Fehlkonzepten deutlich. Sie können sehr änderungsresistent sein, zu Fehlern führen oder Transfer verhindern. Ein weiteres Problem kann die Bildung oder Unterstützung falscher epistemologischer Überzeugungen sein, die durch eine „fehlkonzeptionelle“ Vereinfachung entstehen oder aufrechterhalten werden. So vertreten Schüler im Mathematikunterricht häufig die Meinung, dass es für die Lösung einer Aufgabe nur eine einzige Lösungsmöglichkeit gibt – eine Überzeugung, die durch das Präsentieren nur eines Lösungsweges (= Vereinfachung durch Komplexitätsreduktion) vielleicht noch fälschlicherweise gestützt wird. Aufgrund dieser Nachteile gibt es auch Ansätze, die diese Übervereinfachungen gerade vermeiden wollen und Komplexität bzw. Irregularität in den Lernprozess einbeziehen wollen (vgl. Cognitive Flexibility Theory, Spiro et al., 1987).

Fehlkonzepte sind somit weder grundsätzlich als positiv oder negativ einzustufen, vielmehr gilt es im Einzelfall den Einsatz zu überprüfen. Bei der Verwendung von Fehlkonzepten im Unterricht sollte man daher explizit darauf aufmerksam machen, dass diese den Charakter einer Vereinfachung haben bzw. ein vorläufiges Konzept darstellen, um erwähnte Nachteile zu vermeiden.

Als grundsätzlich negativ würde auch ich Fehlkonzepte nicht einstufen. Neben der von euch genannten Funktion der Komplexitätsreduzierung, können Fehlkonzepte auch einen weiteren Vorteil aufweisen:

Es ist offensichtlich nicht einfach, Fehlkonzepte aufzudecken und durch angemessene Konzepte zu ersetzen, weil sie oftmals tief verhaftet sind. Aber gerade dieser Prozess des Ersetzens von tief verwurzelten Fehlkonzepten durch angemessene Konzepte führt meiner Meinung nach dazu, dass sich diese neuen, korrekten Konzepte sehr einprägen. Diese so genannten Aha-Effekte können sehr wirksam sein.

Ist es sinnvoll, Fehlkonzepte rein objektiv zu definieren?

Welche Rolle spielt es im Alltag, dass die Zeit keine Konstante ist? Das Konzept einer immer

und überall gleich schnell ablaufenden Zeit ist funktional und wesentlich geeigneter, meine

erfahrbare Welt zu erklären, als die Relativitätstheorie.

Zusammenfassung der Diskussion: Die drei Beträge zu dieser Frage waren sehr

heterogen. Sie behandeln die Frage aus einer wissenschaftlichen, gesellschaftlichen und einer

eher individuellen Perspektive. Allen gemeinsam ist der Versuch, eine Grenze zwischen

„guten“ und „schlechten“ Fehlkonzepten zu definieren.

Im Folgenden werden die Diskussionsbeiträge der Seminarteilnehmer zu dieser Frage

präsentiert:

Ich denke, dass Fehlkonzepte im Alltag durchaus funktional sein und den Umgang mit den betreffenden Phänomenen erleichtern können. Wenn sie das nicht könnten, würden sie wohl auch nicht existieren. Kritisch wird es dann erst, wenn man mit diesem Fehlkonzept mal so richtig "an die Wand fährt". Erst dann ist - und das bestätigt meines Wissens auch die Conceptual-Change-Literatur - eine hohe Wahrscheinlichkeit gegeben, dass die fehlerhaften Alltagskonzepte durch wissenschaftliche Konzeptualisierungen ersetzt werden. Dennoch denke ich aus einer normativen Perspektive heraus, dass es einige Fehlkonzepte gibt, die gravierender sind als andere und deren Veränderungen daher eher Gegenstand instruktionaler Interventionen sein sollten als andere. Zum Beispiel gibt es Studien, in denen gezeigt wurde, dass die Überzeugungen von Schülern darüber, wie wissenschaftliche Erklärungen aussehen sollen, häufig nicht den Einbezug von Evidenzen oder das Aufstellen von kausalen Beziehungen zwischen einzelnen Faktoren beinhalten (Sadoval, in Druck). Meines Erachtens handelt es sich hierbei um ein Fehlkonzept, das zwar auf einer anderen Ebene als die in Eurem Überblick enthaltenen meist naturwissenschaftlichen Fehlkonzepte liegt. Dennoch würde ich vermuten, dass ein derartiges Fehlkonzept häufig die Quelle für das Entstehen von neuen Fehlkonzepten auf einer stärker phänomenologischen Ebene sein kann - werden etwa Befunde zur Frage der Reichweite von Lichtstrahlen nicht adäquat im Sinne von Ursache-Wirkungs- Zusammenhängen diskutiert, steigt auch die Wahrscheinlichkeit, am Ende einem Fehlkonzept aufzusitzen. Kurz gesagt: ich bin der Ansicht, dass Fehlkonzepte "höherer Ordnung" (etwa wie die beschriebene Überzeugung, wissenschaftliche Erklärungen müssten keine Evidenzen und keine Ursache-Wirkungs-Aussagen beinhalten) gravierender sind und dringender instruktionaler Interventionen bedürfen als viele Fehlkonzepte auf einer phänomenologischen Ebene. Literatur:

Sandoval, W. A. (in press). Conceptual and epistemic aspects of students' scientific explanations. Journal of the Learning Sciences.

Ein anderer Aspekt von Fehlkonzepten, der auch in Frage 2 mitschwingt, betrifft die Frage danach, ob sie in der nichtwissenschaftlichen Öffentlichkeit unbedingt aufgeklärt oder verhindert werden müssen. Dies hängt mit Sicherheit von dem Bereich ab, für den Fehlkonzepte bestehen. Die in den Annotationen beschriebenen Fehlkonzepte unter griechischen und britischen Schülern über die Ozonschicht beinhalten auch falsche Vorstellungen darüber, wodurch sie zerstört wird. Um im eigenen Verhalten aber nicht zu der Zerstörung der Ozonschicht beizutragen, sollte man die Auslöser kennen. In diesem Fall wäre eine Aufklärung über die Fehlkonzepte und eine Aneignung der wissenschaftlichen Konzepte durchaus sinnvoll und wichtig. Ich stimme Gruppe D allerdings zu, dass es mich in meinem Alltag nicht beeinträchtigt, Fehlkonzepte über die Zeit zu besitzen und im Gegenteil eher nützlich für ein Zurechtfinden in der Welt ist. So

hängt die Notwendigkeit der Abkehr von Fehlkonzepten bedeutend von ihrer Rolle für den menschlichen Alltag ab.

Ich denke, dass es eine Frage der Funktionalität ist und bleibt. Denn welche Fehlkonzepte uns in unserem Alltag und auch bei unserer Arbeit anleiten, ist uns gar nicht zugänglich. Ich möchte in diesem Zusammenhang auf die Persuasionsforschung verweisen und eine Parallele ziehen zwischen heuristischer und systematischer Verarbeitung von Informationen. Heuristiken sind (analog zu Fehlkonzeptionen), stark vereinfachte Schemata mit denen wir einen großen Teil an Information verarbeiten und für uns funktional einordnen können. Kommen wir jedoch an einen Punkt, an dem sich eine hohe persönliche Relevanz, Diskrepanzen zwischen den verfügbaren Informationen oder andere Hinweisreize verdichten, verwenden wir mehr Aufmerksamkeit und Recherchieren genauer um uns ein Urteil zu bilden. Ich denke diese Theorie lässt sich auch auf einen Umgang mit Fehlkonzepten übertragen. Sobald wir feststellen, dass bestimmte Konzeptionen die wir verwenden, unter Umständen Fehlkonzeptionen sind, und uns daher nicht weiterhelfen, uns fehlleiten oder aber wir beginnen uns für etwas genauer zu interessieren, sollte eine Überprüfung der leitenden Konzepte und das Hinterfragen derselben beginnen.

Weitere Beiträge

Sind Euch im Rahmen eurer Literaturrecherche besondere methodische

Vorgehensweisen zur Erfassung von Fehlkonzepten aufgefallen?

Eine besondere Vorgehensweise im Sinne von einzigartig oder besonders innovativ ist uns nicht aufgefallen. Vielmehr gibt es das typische Vorgehen: Man nehme sich Schüler (es werden fast immer Schüler untersucht; mit Vorliebe im Grundschulalter) und konfrontiere sie mit physikalischen Phänomenen (entweder real oder durch Beschreibungen). Die Probanden sollen dann diese Phänomene erklären. Diese Erklärung der Phänomene findet überlicherweise in einem semi-strukturierten Interview statt, d.h. der Interviewer klappert einzelene Themenbereiche ab, bietet auch schon mal Analogien zum erklären an und hakt gezielt nach. Diese Interviews werden dann bezüglich der Fehlkonzepte kategorisiert.

Dozentenrückmeldung und -ergänzung

Aufbauend auf der sehr differenziert geführten Diskussion zum Wert und Unwert von

Fehlkonzepten möchte ich nur noch einige kleinere Punkte ergänzen. Ich glaube, das wichtigste didaktische Ziel für die „Lernenden“ ist, zu verstehen, dass alle Vorstellungen, die wir uns von den Dingen und Abläufen machen, nur Annäherungen an die Wirklichkeit sind. Das gilt nicht nur für unsere Alltagsvorstellungen sondern auch für ihre wissenschaftlichen Erklärungen. Damit ist aber nicht einem „Anything goes.“ das Wort geredet, sondern eher „Nothing is perfect.“ Für die Lehrenden ist entscheidend

(a) bewerten zu können, in welchen Aspekten das „Fehlkonzept“, ich würde lieber von

Modell sprechen, die Wirklichkeit korrekt wiedergibt, und in welchen das Modell nicht

weiterhilft oder sogar zu falschen Vorhersagen führt.

(b) ein korrektes Modell des Modell des Lernenden zu haben, um die Instruktion gezielt

darauf auszurichten, welches Modell des Lernenden durch ein besseres, wissenschaftlicheres, ersetzt werden soll. Hier wird es auch für die Psychologie interessant. Während die Entwicklung der Modelle erster Ordnung – das sind die Modelle über die Wirklichkeit – Gegenstand der verschiedenen Disziplinen, wie Physik, Chemie usw. ist, ist die Analyse der Modelle in den Köpfen, also der mentalen Modelle Gegenstand der Psychologie und Pädagogik/Didaktik. Das Schönste wären korrekte Modelle der mentalen Modelle, die selbst immer bessere

Modelle der Wirklichkeit sein sollten.

2.2. Gruppe E: Unanschaulichkeiten in der Psychologie (S. 77 - 128)

Auf den Seiten 77 bis 128 des Buchs „Kritik des gesunden Menschenverstandes – Unser

Hindernislauf zur Erkenntnis“ präsentiert der Autor Ernst Peter Fischer einige

wissenschaftshistorisch interessante Probleme bei dem Versuch, naturwissenschaftliches

Wissen anschaulich zu machen. Zum Beispiel wurde in der Atomphysik versucht, die

Atomstruktur mittels eines Planetenmodells zu repräsentieren, obwohl dieses Modell letztlich

falsch und damit unanschaulich war. Aufgabe der Gruppe E war es, Beispiele für ähnliche

Unanschaulichkeiten innerhalb der Psychologie zu finden und auf der Grundlage dieser

Beispiele drei Fragen bzw. Thesen zu entwickeln, die aus dem genannten Kapitel von Fischer

abgeleitet werden können.

Dieses Kapitel beinhaltet demzufolge zwei Teile. Zum ersten werden Beispiele für

Unanschaulichkeiten innerhalb der Psychologie geordnet nach Themen bzw. Subdisziplinen

präsentiert. Im Anschluss daran werden die von Gruppe E (auf)gestellten drei Fragen/Thesen

sowie die Antworten der Seminarteilnehmer aufgeführt.

2.2.1.

Beispiele für Unanschaulichkeiten innerhalb der Psychologie

Fischer beschreibt eine wissenschaftliche Erfahrung als eine Erfahrung, die dem Erwarteten, also von dem, was wir uns mittels des gesunden Menschenverstandes herleiten können, widerspricht. Wissenschaftliche Erkenntnis ist dieser Auffassung nach meist unanschaulich. Zur Verdeutlichung solcher Unanschaulichkeiten innerhalb der Psychologie haben wir einige verbreitete Beispiele für Fehlkonzepte und Unanschaulichkeiten der Psychologie zusammengetragen. Diese Zusammenstellung stützt sich zum einen auf Befunde aus der Literatur, zum anderen auf eigene Erfahrungen im Studium, Prüfungen und Lehrveranstaltungen. Im Gegensatz zu naturwissenschaftlichen Fehlkonzepten sind Fehlkonzepte innerhalb der Psychologie bisher nur sehr vereinzelt erforscht worden.

Genetische Einflüsse in der Psychologie

Die Wirkweise von Genen auf Verhalten und Erleben von Menschen ist in hohem Maße unanschaulich. So werden z.B. genetische Einflüsse auf die Vererbung psychischer Störungen oder Persönlichkeitseigenschaften häufig im Sinne eines genetischen Determinismus missverstanden (vgl. Plomin & Walker, 2003). Eine kausale Determiniertheit liegt aber bestenfalls bei monogenetischen Vererbungsgängen vor. Bei weitem die meisten genetischen Einflüsse auf die menschliche Persönlichkeit sind allerdings von multiplen Genen beeinflusst. Genetische Einflüsse stehen dabei stets im Wechselspiel mit Umwelteinflüssen. Selbst für monogenetisch vererbte Störungen wie PKU (eine Stoffwechselstörung, die zu mentalen Retardierungen führen kann) können Umwelteinflüsse nachgewiesen werden.

Ein weiteres Fehlkonzept aus dem Bereich Genetik bezieht sich auf die in der Entwicklungspsychologie gängige Methode der Zwillings- und Adoptionsstudien. Mittels dieser Methoden lassen bestimmte Anteile der Populationsvarianz psychologischer Variablen auf genetische oder umweltbedingte Unterschiede zurückführen. Diese Varianzanteile werden häufig als Anteile von Eigenschaften missverstanden, die genetisch oder durch Umwelteinflüsse verursacht sind (Sternberg & Grigorenko, 1999). Ferner führt die verbreitete Verwendung von Erblichkeitskoeffizienten zu der Fehleinschätzung, es gebe einen wahren Wert der Erblichkeit einer Eigenschaft. Da der Erblichkeitskoeffizient allerdings Ergebnis der Abschätzung von genetisch und umweltbedingten Varianzanteilen ist, verändert er sich in Abhängigkeit der vorhandenen Umweltvarianz. Es gibt folglich keinen wahren Erblichkeitsanteil. Erblichkeitskoeffizienten sind daher stets nur innerhalb einer Population

mit einer bestimmten Umweltvarianz interpretierbar. Eine Extrapolation auf andere Populationen oder gar das Heranziehen von Erblichkeitskoeffizienten zur Erklärung von Unterschieden zwischen Populationen ist somit nicht zulässig. Es spricht für die generelle Unanschaulichkeit der verwendeten Forschungsmethodologie, dass Fehlkonzepte und Fehlinterpretationen hinsichtlich der Erblichkeit von Persönlichkeitseigenschaften dennoch so weit verbreitet sind. Ein prominentes Beispiel ist die Kontroverse um Unterschiede zwischen den Intelligenztestresultaten verschiedener ethnischer Gruppen. So zeugt der Rückschluss von dem geringeren Durchschnitts-IQs schwarzer Amerikaner im Vergleich zu weißen auf genetisch bedingte Unterschiede zwischen diesen ethnischen Gruppen (z. B. Jensen) von einer grundlegenden Fehlinterpretation des für Intelligenz ermittelten Erblichkeitskoeffizienten.

Darüber hinaus legt die Methodologie der Anlage-Umwelt-Forschung den Fehlschluss nahe, Anlage- und Umwelteinflüsse seien vollständig separierbar. Beobachtbar ist allerdings stets nur das Ergebnis einer Interaktion zwischen genetischen und umweltbedingten Faktoren (vgl. Scarrs drei Typen der Genotyp-Umwelt-Interaktion „passiv“, „reaktiv“, „aktiv“).

Schon an diesen wenigen Beispielen wird deutlich, dass die Anlage-Umwelt-Forschung ein gutes Feld zur Verdeutlichung von Unanschaulichkeiten innerhalb der Psychologie darstellt. Bei Sternberg und Grigorenko (1999) werden weitere Mythen im Rahmen der Anlage-Umwelt-Debatte aufgeführt.

Fehlkonzepte aus dem Bereich Entwicklungspsychologie

Neben den oben aufgeführten Beispielen aus der Anlage-Umwelt-Debatte gibt es in der Entwicklungspsychologie zahlreiche historische Fehlkonzepte hinsichtlich der kindlichen Entwicklung, z. B. die Sicht des Kindes als „kleiner Erwachsener“ oder die Unterschätzung kindlicher Operationen vor Piaget. Die Einschätzung der Entwicklung kognitiver Funktionen im Alter unterliegt ebenfalls Fehlkonzeptionen (vgl. Thornton, 2003). So herrscht in der öffentlichen Diskussion zumeist eine reine Abbau-Hypothese vor, während sich in der wissenschaftlichen Betrachtung das Konzept des lebenslangen Lernens und die Auffassung einer (zumindest bedingten) Kompensierbarkeit von Abbauprozessen im Bereich der fluiden Intelligenzleistung durch kristallines Wissen durchgesetzt hat.

Fehlkonzepte bzgl. des Operanten Konditionierens

Es kommt häufig zur Verwechslung von negativer Verstärkung und Bestrafung im Paradigma des Operanten Konditionierens (Shields & Gredler, 2003). Dies mag mit dem kontraintuitiven Gebrauch des Wortes „negativ“ zusammenhängen. Die Unterscheidung „positiv“ vs. „negativ“ bezieht sich im Paradigma des Operanten Konditionierens lediglich auf die Darbietung (pos.) oder den Entzug (neg.) von Reizen. Damit wird – anders als im alltagssprachlichen Gebrauch – nichts über die Valenz der Reize selbst ausgesagt.

Ein kleines Beispiel hierzu aus einem Forum für Hundeerziehung: In der Anfrage werden negative Verstärkung und Bestrafung gleichgesetzt, es wird allgemein von negativem vs. positivem Konditionieren gesprochen. http://www.versatiledogs.com/ask/ret43.html

Eine Inhaltsanalyse von Psychologie-Lehrbüchern von Sheldon (2002) gibt erste Hinweise darauf, dass missverständliche oder unvollständige Lehrtexte maßgeblichen Anteil an Fehlkonzepten über das Operante Konditionieren haben könnten.

Fehlkonzepte über die Wirkweise von Affekt / Emotion

Affekt und Emotion werden häufig als Gegenpole kognitiver Prozesse missverstanden. So besteht z.B. das Fehlkonzept, dass jedwede Art von Affekt Denkprozesse verzerrt oder unterbricht. Emotion im Ganzen wird häufig als irrational und dysfunktional aufgefasst (Zhu & Thagard, 2002). Das wissenschaftliche Konzept der Emotion als komplexes Reaktionsmuster bestehend aus kognitiven, behavioralen, physiologischen und affektiven Komponenten ist hingegen im Alltagswissen wenig verbreitet. Es ist zu vermuten, dass Untersuchungsbefunde, die den Einfluss kognitiver (z.B. Schachter-Singer-Experiment, Schachter & Singer, 1962) oder behavioraler Komponenten (z.B. facial feedback Hypothese) auf das affektive Erleben belegen, bei den meisten Nicht-Psychologen zunächst Überraschung hervorrufen.

Fehlkonzepte über die Unkontrollierbarkeit und Stabilität von Emotionen stellen zudem einen wesentlichen aufrechterhaltenden Faktor bei einer Vielzahl psychischer Störungen dar. So ist die Vermittlung des Zusammenhangs zwischen Emotion und der kognitiven Bewertung potenzieller Auslösesituationen Bestandteil der meisten kognitiv-behavioralen Therapieansätze (vgl. Wilken, 1998).

Kontraintuitive Befunde aus der Sozialpsychologie

Ross (1977) führte den Begriff des „fundamentalen Attributionsfehlers“ in die Sozialpsychologie ein, dem zufolge Menschen dazu neigen, eher sich selbst als Ursache von Ereignissen wahrzunehmen als sie umgebende situative Verhaltensdeterminanten (d.h. eher internal als external zu attribuieren), selbst wenn „objektiv“ ein externaler Faktor das Ereignis verursacht hatte.

Aus der Theorie der kognitiven Dissonanz ist der so genannte „fait accompli“-Effekt bekannt.

Im Mittelpunkt dieses Effekts steht, welchen Einfluss auf die Zufriedenheit mit einer eigenen Entscheidung plötzlich und unerwartet auftretende negative Konsequenzen dieser Entscheidung haben. Brehm (1959) hat dazu festgestellt, dass sich bei unerwartet auftretenden negativen Konsequenzen einer Entscheidung die Attraktivität dieser Alternative erhöht, sofern sich die Personen für die negativen Konsequenzen verantwortlich fühlen. Dagegen führen negative Konsequenzen, die zufällig auftreten oder die Personen external attribuieren können, zu keiner Änderung der Attraktivität der Entscheidung oder Handlung. Frey und Gaska (1993) bezeichnen dies als „paradoxes, aber durch die Dissonanztheorie vorhersagbares Ergebnis“ (S. 287), was demnach als ein Beispiel für einen dem „gesunden Menschenverstand“ entgegenstehenden Befund gewertet werden kann.

Ein weiterer kontraintuitiver oder zumindest verblüffender Effekt aus der Sozialpsychologie stammt aus der Theorie der sozialen Vergleichsprozesse: der autokinetische Effekt. In einer Untersuchung von Rohrer, Baron, Hoffmann und Swander (1954) trainierten die Probanden zunächst in Einzelsitzungen ihre Fähigkeit, die Bewegungen eines Lichtpunkts auf einer Wand mit Hilfe eines relevanten Bezugssystems zu beurteilen. Während der folgenden Gruppenuntersuchung, in der die anderen Gruppenmitglieder Verbündete des Versuchsleiters waren und sich absichtlich verschätzten, stand dieses Bezugssystem (objektives Kriterium) jedoch nicht mehr zur Verfügung. Trotz des Trainings konnte nachgewiesen werden, dass sich der Konformitätsdruck (soziales Kriterium) auf die Urteile auswirkte. Den Effekt des Konformitätsdrucks konnte man sogar ein Jahr später noch nachweisen, was auf eine stabile Meinungsänderung hindeutet (vgl. Frey, Dauenheimer, Parge & Haisch., 1993).

Im Rahmen der Forschung zum Elaboration Likelihood Modell von Petty und Cacioppo (1986) wurden einige Befunde zum biased information processing erbracht, die nicht nur

psychologische Laien erstaunen. Beispielsweise konnten Petty, Wells, Heesacker, Brock und Cacioppo (1983) nachweisen, dass Personen, die liegen, zu einer tieferen Verarbeitung von Botschaften neigen als Personen, die sitzen oder stehen. Ferner ging in einer Studie von Cacioppo (1979) eine hohe Herzschlagfrequenz mit einer intensiveren Informationsverarbeitung einher.

Fehlkonzepte zum Intelligenzbegriff

Schlinger (2003) vertritt die Position, dass die Spearmansche Konzeption von general intelligence logische Fehler beinhalte und somit ein Mythos sei. Durch den sog. g-Faktor (für „general intelligence“) wird Intelligenz als eine qualitativ einzigartige Fähigkeit mit einer relativ festen Quantität gesehen, die Individuen besitzen und die mit konventionellen Intelligenztests getestet werden kann. Schlinger wirft dieser und ähnlichen Konzeptionen von Intelligenz einen sog. Essentialismus vor, der vor allen Dingen zwei logische Fehler begeht:

zum einen wird dadurch das Konstrukt „Intelligenz“ unzulässig verdinglicht (reification error), zum anderen wird bei der Konzeptualisierung und Messung des Konstrukts ein Zirkelschluss begangen, der so aussieht, dass die einzige Evidenz für die Erklärung eines Phänomens das Phänomen selbst ist. Im Falle Spearman’s bestand die einzige Evidenz für g aus den positiven Korrelationen zwischen Leistungen seiner Probanden in unterschiedlichen Aufgaben – dadurch sei g nicht mehr als ein „statistisches Extrakt“ oder ein „Konstrukt, das individuelle Unterschiede bzgl. der Leistungen auf multiplen kognitiven Maßen repräsentiert“. Somit seien die positiven Interkorrelationen der Faktorenanalysen ihrer Testscores ihrerseits weit entfernt vom Verhalten eines Individuums in der Testsituation und noch mehr in jedem anderen möglichen Kontext.

Zwei schöne Zitate hierzu:

Zur Frage, wie der Mythos „Intelligenz“ sich so lange aufrecht erhielt:

„Whereas the other sciences have developed technical vocabularies distinct from the primitive ones used by early philosophers, the vocabulary of psychology, with some exceptions, is still mired in early animistic-like philosophies that place many of the causes of human behaviour inside the individual in terms of mind, will, and so forth.” (Schlinger, 2003, p.28)

Dazu ein Zitat von Howe (1990; zit. nach Schlinger, 2003, S. 29):

“Psychology is a difficult scientific discipline for the unusual reason that we come to it already furnished with firm habits of thought that have been acquired from daily exposure to folklore and the unscientific (and sometimes illogical) “commonsense” psychological thinking that permeates everyday life” (p.490)

Fehlkonzepte über die Aussagekraft statistischer Methoden

Gliner, Leech und Morgan (2002) thematisieren zwei gängige Fehlkonzepte im Zusammenhang mit statistischen Signifikanztests. Sowohl Forscher als auch Studenten tendieren dazu, eine geringe Irrtumswahrscheinlichkeit im Sinne eines großen Effektes zu interpretieren. Ein verwandtes Fehlkonzept besteht in der Gleichsetzung von statistischer Signifikanz mit praktischer Relevanz. Eine weitere Studie dazu lieferten Haller und Krauss (2002), welche hier abrufbar ist:

Der Fehlschluss von korrelativen Daten auf kausale Zusammenhänge stellt ebenfalls eine weit verbreitete Fehlkonzeption im Bereich Statistik dar (zur Interpretation korrelativer Daten vgl. Cliff, 1983).

Fehlkonzepte aus dem Bereich Wahrnehmung

Menschliche Wahrnehmung wird meist fälschlich als Abbildung von Realität aufgefasst. Der Einfluss von Top-Down- und Rekonstruktionsprozessen wird von psychologischen Laien oft vernachlässigt. Nicht zuletzt deshalb ruft die Demonstration dieser Einflüsse sei es in Vorlesungen oder im Bekanntenkreis großes Interesse und z. T. Verblüffung hervor. Recht beeindruckend ist z. B., dass die Ponzo-Täuschung oder die Horizontal-Vertikal-Täuschung selbst bei Psychologen, die um den Effekt wissen, zu Verschätzungen führen. Offensichtlich sind die Top-Down-Einflüsse in der Wahrnehmung so stark, dass wir zur Auflösung optischer Täuschungen auf externe Hilfsmittel wie das Lineal angewiesen sind. Verzerrungen in der menschlichen Wahrnehmung scheinen zutiefst unanschaulich zu sein, da wir unsere Wahrnehmungen meist mit der Realität gleichsetzen. Fischer unterscheidet in diesem Zusammenhang zwischen Wirklichkeit (wahrgenommene Realität) und Realität (tatsächliche Realität).

Wer sich selbst einmal verschätzen möchte, tut dies hier und zwar unter dem Punkt optische Täuschungen.

Historische Fehlkonzepte

Ähnlich wie von Fischer für die Wissenschaftsentwicklung in der Physik beschrieben, zeigen sich auch in der Geschichte der Psychologie einige (mehr oder weniger spektakuläre) Fehlkonzepte. Ein in der psychologischen Diagnostik prominentes Beispiel stellt hier die

Phrenologie Galls dar (vgl. Jäger & Petermann, 1999), der in seiner Lehre die Diagnostik von

Persönlichkeitseigenschaften anhand der Schädelform propagierte. In eine ähnliche Richtung

gehen die Typologien Kretschmers und Sheldons. Der Grundgedanke, dass

Persönlichkeitsmerkmale an der äußeren Erscheinung von Personen abzulesen sind, liegt auch

dem Ansatz Galtons zum typischen Kriminellen zugrunde. Galton glaubte, durch das

Übereinanderprojizieren zahlreicher Porträtfotos von Kriminellen ein Abbild des typischen

Kriminellen erstellen zu können, das in der polizeilichen Ermittlungsarbeit eingesetzt werden

könnte (vgl. Bruce & Young, 1998).

Als weitere historische Fehlkonzeption sei die Annahme der vollständigen

Determiniertheit menschlichen Verhaltens und menschlicher Entwicklung durch externe

Reize im radikalen Behaviorismus genannt (vgl. z.B. Watsons berühmtes Zitat: „Gebt mir ein

Dutzend gesunde, gut gebaute Kinder und meine eigene spezifizierte Welt, um sie darin

großzuziehen, und ich garantiere, dass ich irgendeines aufs Geratewohl herausnehme und es

so erziehe, dass es irgendein beliebiger Spezialist wird, zu dem ich es erwählen könnte – Arzt,

Jurist, Künstler, Kaufmann, ja sogar Bettler und Dieb, ungeachtet seiner Talente, Neigungen,

Absichten, Fähigkeiten und Herkunft seiner Vorfahren.“).

Analogien und Metaphern bei der Beschreibung von psychologischen Sachverhalten

Die Verwendung von Forschungsmetaphern birgt häufig die Gefahr einer zu stark

vereinfachten Rezeption durch die Öffentlichkeit wie auch durch die entsprechende

wissenschaftliche Community. Fischer führt hierzu das Dampfkessel-Modell der

psychoanalytischen Persönlichkeitstheorie oder die Metapher von planetenähnlichen

Elektronen, die um einen Atomkern kreisen, an. Ein weiteres Beispiel aus der Psychologie ist

die Verwendung der Computer-Metapher als Modell menschlicher Kognition.

Verbreitung und Veränderbarkeit von Fehlkonzepten und Mythen

Abschließend sei noch ein Ergebnis zur Verbreitung von Fehlkonzepten und Mythen in

der Psychologie erwähnt. Standing und Huber (1999) untersuchten College-Studenten

hinsichtlich ihres Glaubens an Mythen aus dem Bereich Psychologie. Obwohl alle Teilnehmer

mindestens einen Psychologie-Kurs besucht hatten und die Mehrheit Psychologie im

Hauptfach studierte, lag die Zustimmungsrate zu den aufgeführten Mythen bei 71%. Der

verwendete Fragebogen gibt einen guten Überblick über verbreitete Mythen und

Fehlkonzepte innerhalb der Psychologie. Hier nur eine kleine Auswahl:

Menschen nutzen nur 10 % ihrer Hirnkapazität

Eine homosexuelle Person kann durch Psychotherapie heterosexuell gemacht werden

Bei Vollmond begehen Menschen häufiger Verbrechen und verhalten sich generell abnormaler als sonst.

Es gibt Menschen, die per Geisteskraft beeinflussen können, welche Zahl sie würfeln werden.

Wenn zwei Sachen hoch korrelieren, heißt das dass das eine das andere verursacht

Der vollständige Fragebogen findet sich im Anhang der Studie unter

Es zeigte sich, dass die Zustimmung zu psychologischen Mythen mit steigender Anzahl von Psychologiekursen, mit steigendem Lebensalter und höheren Abschlüssen abnahm. Zudem zeigten Hauptfachstudierende und Teilnehmer eines fortgeschrittenen Methodenkurses geringere Zustimmungsraten. Die Autoren ziehen den Schluss, dass Universitätskurse methodologischen Skeptizismus fördern und auf diese Weise zur Ablehnung der Mythen beitragen.

Abschließende Bemerkungen

Die vorgestellten Beispiele für Unanschaulichkeiten aus der Psychologie adressieren u. E. mindestens drei Themenbereiche, die eine tiefer gehende Diskussion lohnen könnten. Zum ersten scheint die Psychologie in einem größeren Ausmaß als die Naturwissenschaften dazu zu tendieren, abstrakte und konstrukthafte Erklärungen für die von ihr untersuchten Phänomene zu generieren. Dies könnte möglicherweise mit der Tatsache zusammenhängen, dass diese Phänomene selbst häufig abstrakter (d.h. nicht ohne Weiteres beobachtbarer) Natur sind und somit schwerlich so zu beschreiben und zu messen sind, dass dies dem „gesunden Menschenverstand“ angemessen ist. Als Beispiel hierfür seien die oben genannten Probleme genannt, die Individuen beim Verstehen der Wirkweise von Emotion und Kognition häufig haben.

Zweitens werden in der Psychologie häufig Analogien zu alltagsweltlichen Sachverhalten gezogen, um das Verständnis komplexer psychologischer Zusammenhänge leichter fassbar zu machen. Häufig geschieht dies auch subtiler, indem auf kulturell vorhandenem und weitgehend geteiltem (und eben auch häufig falschem) Wissen und Vokabular aufgebaut wird, um Phänomene vermeintlich wissenschaftlich zu erklären. Dies ist zum Beispiel bei dem beschriebenen Ansatz Galtons der Fall, der versucht hatte, durch das

Übereinanderprojizieren zahlreicher Porträtfotos von Kriminellen ein Abbild des typischen Kriminellen erstellen zu können. Eine solche Konzeption scheint sich nicht zuletzt auch deswegen entwickelt zu haben, weil in der Kultur ein gewisser Konsens darüber vorzuliegen schien (und vielleicht auch immer noch vorliegt), einen Verbrecher könne man „an der Nase erkennen“.

Der dritte Punkt, den es zu diskutieren lohnt, stellt in gewisser Weise einen Kontrapunkt zu dem zuletzt genannten Aspekt dar: Wie eingangs erwähnt, vertritt Fischer die Auffassung, dass sich wissenschaftliche Erfahrung dadurch auszeichne, dass sie der alltagsweltlichen Erfahrung entgegenstehe. In diesem Sinne wäre ein zu starker Rückgriff auf alltagsweltliche Erfahrungen und Begrifflichkeiten (wie dies im Ansatz Galtons, aber auch in der Diskussion um genetische Einflüsse in der Psychologie der Fall ist) im Kern als ein Hindernis auf dem Weg zu wissenschaftlicher Erkenntnis zu bewerten. Auf der anderen Seite kann jedoch argumentiert werden, dass eine vollkommene Abhebung wissenschaftlicher Erkenntnis und wissenschaftlichen Vokabulars von alltagsweltlichen Diskussionsnormen ein Hindernis für das Verstehen wissenschaftlicher Erkenntnisse sein könnte. Es ist daher zu diskutieren, (a) ob die Definition wissenschaftlicher Erfahrung, wie Fischer sie vorschlägt, zu halten ist und (b) wenn ja, inwiefern eine solche Auffassung wissenschaftlicher Erfahrung die Konsequenz hätte, wiederum Unanschaulichkeiten in der Psychologie zu produzieren.

2.2.2.

Diskussion des Grundlagentexts durch die Seminarteilnehmer

These: „Die Psychologie hat per se einen indirekteren Zugang zu den von ihr untersuchten Phänomenen. Zum Beispiel sind kognitive Prozesse einer direkten Beobachtung unzugänglich. Stattdessen müssen Messinstrumente entwickelt werden, deren Design wiederum auf theoretischen Konstrukten beruht, die die postulierten kognitiven Prozesse nicht notwendigerweise so abbilden, wie sie „tatsächlich“ ablaufen. Daher sind psychologische Theorien grundsätzlich abstrakter und konstrukthafter als dies zum Beispiel bei naturwissenschaftlichen Theorien der Fall ist.“

Gegenthese: „Es besteht kein grundlegender Unterschied zwischen psychologischen und naturwissenschaftlichen Theorien. In der Psychologie wie in den Naturwissenschaften ist wissenschaftliche Erkenntnis in gleicher Weise gebunden an die vorherrschenden Paradigmen, Theorien und Messmethoden. Ein gutes Beispiel zur Verdeutlichung des vorläufigen und konstrukthaften Charakters naturwissenschaftlicher Theorien stellt der Paradigmenwechsel vom Newton'schen Weltbild zur Quantenphysik dar. Diese Abkehr von Newtons Paradigma erfolgte trotz augenscheinlich elaborierter Messmethoden, die das Paradigma stützten, und trotz eines hohen Ausmaßes an Beobachtbarkeit der zu erklärenden Phänomene.“

Zusammenfassung der Diskussion: In der Diskussion zu diesem Thesenpaar wurde im Allgemeinen eher die „Gegenthese“ favorisiert: Es wurde angezweifelt, dass es einen grundlegenden Unterschied zwischen der Psychologie und den Naturwissenschaften im Hinblick auf die Theorie- und Methodenabhängigkeit von vorherrschenden Paradigmen gebe. Es wurde angesprochen, dass es in der Psychologie eine gewisse Variabilität in der Direktheit des Zugangs zu verschiedenen Phänomenen gibt, sodass einige Phänomene direkter beobachtbar sein als andere und daher andere Methoden erforderlich machen. Ferner wurde diskutiert, dass ein wesentlicher Unterschied zwischen Psychologie und den „traditionellen“ Naturwissenschaften wie der Physik das Problem Selbstreferentialität in der Psychologie sei:

Die Psychologie habe deswegen eine Sonderstellung inne, weil sie dieselben Prozesse benötigt, die sie beschreiben und erklären will.

Im Folgenden werden die Diskussionsbeiträge der Seminarteilnehmer zu diesem

Thesenpaar präsentiert:

Das (die erste These) hört sich im ersten Moment sehr plausibel an, hält aber der Überprüfung nicht stand. Ich glaube, ein (Quanten-)Physiker würde diese These genau mit umgekehrten Vorzeichen formulieren. Wer die Berichte über die Positionsbestimmungen von Elektronen oder Quarks kennt (wen es interessiert, z.B.:

http://www.desy.de/f/hera/germ/), wird feststellen, dass dort auch nur von indirekten Messungen gesprochen wird und die Messungen in einer, für psychologische Verhältnisse schon inakzeptable Weise, die Ergebnisse beeinflussen. Im Gegensatz dazu hat auch die Psychologie einige Phänomene zu bieten, die mit einem "N=1" untersucht werden können (man denke nur an Wahrnehmungspsychologie; Optische Täuschungen). Wie man vielleicht gemerkt hat, stehe ich auf der Seite der Gegenthese! ;-)

Newell (1982) (The knowledge level, Artificial Intelligence, 18, 87-127) trifft eine Unterscheidung von mehreren Ebenen, auf die sich Aussagen zur Informationsverarbeitung beziehen können, die für Frage 1 von Interesse ist. Er unterscheidet bei KI Programmen, auch solchen der kognitiven Modellierung, eine Wissensebene, eine Programmebene (die Softwareebene) und eine physikalische Ebene (die Hardwareebenen). Je nachdem, auf welcher Ebene man sich bewegt, hat man einen unterschiedlich direkten Zugang zu den Phänomenen und andere Möglichkeiten, interessierende Fragen zu beantworten. In ähnlicher Weise kann man den Gegenstand der Psychologie auf unterschiedlichen Ebenen ansiedeln, einer untersten, der Neurowissenschaftlichen, einer auf der mentale Repräsentationen betrachtet werden usw. Von der Ebene hängt die Direktheit des Beobachtbaren ab, aber auch die Brauchbarkeit der Erklärung und Prognose von Vorgängen. So wie die Hardwareebene nicht die beste Ebene ist, um logische Abläufe zu beschreiben, muss die biologische Ebene nicht die Beste sein, um Kognitionen und Emotionen zu beschreiben.

Meiner Meinung nach besteht der grundlegendste Unterschied zwischen psychologischen und naturwissenschaftlichen Theorien darin, dass in der Psychologie der Mensch selbst Gegenstand der Forschung ist. Mit dem eigenen Verstand, den eigenen Emotionen etc. sollen eben diese erforscht werden. Dies stellt in viel höherem Maße Anforderungen an die Forschung und Theorienbildung als bei Naturwissenschaften. Natürlich besteht die Problematik der Verzerrung durch Beobachtung, also durch die Involvierung des Menschen selbst, ebenfalls bei naturwissenschaftlicher Forschung. So war z.B. im Mittelalter die Beschäftigung mit der Astronomie Anlass für den arabischen Naturwissenschaftler Alhazen, menschliche Wahrnehmung zu untersuchen. Er entdeckte dabei eine Reihe von visuellen Wahrnehmungsphänomenen, die bei der Sternenbeobachtung zu Verzerrungen führen können (vgl. Howard, 1996). Jedoch liegt der fundamentale Unterschied zwischen der Psychologie und den Naturwissenschaften darin, dass in der Regel bei letzteren zwischen dem Menschen als Beobachter und dem Gegenstand der Untersuchung klarer getrennt werden kann. Dass psychologische Theorien häufig abstrakter sind, ist mit bedingt durch die „Vermengung“ von Messinstrument und Gegenstand.

Wenn davon ausgegangen wird, dass sich die Psychologie mit der Erforschung von „Gedanken und Empfindungen“ des Menschens beschäftigt, würde ich der These zustimmen, dass die Psychologie im Vergleich zu anderen Naturwissenschaften lediglich einen indirekten Zugang zu den relevanten Phänomenen hat. Im Vergleich dazu beschäftigt sich beispielsweise die Physik überwiegend mit „dinglichen“ Forschungsobjekten. Sicherlich gibt es in den genannten Wissenschaften auch Ausnahmen. So untersucht die Psychologie mitunter Phänomene, die direkt beobachtbar sind wie z.B. die menschliche Interaktion. Auf der anderen Seite gibt es aber auch in den „dinglichen“ Forschungsgebieten anderer Wissenschaften Bereiche, deren Prozesse nicht so dargestellt werden können, wie sie tatsächlich ablaufen (siehe Quantenphysik). Diese Ausnahmen ändern jedoch nichts an den grundlegenden Unterschieden zwischen der Psychologie und anderen Naturwissenschaften. Was jedoch die Frage der Vorläufigkeit der wissenschaftlichen Erkenntnisse angeht sowie die Gebundenheit der Erkenntnisse an die vorherrschenden Paradigmen und Messtheorien, so denke ich, dass dieses Phänomen nicht nur für die Psychologie zutrifft. Dies gilt genauso für andere Naturwissenschaften sowie die Wissenschaft generell.

Frage/These 2:

„Die Verwendung von Analogien und Metaphern zur Erklärung und Veranschaulichung

psychologischer Sachverhalte verfolgt offensichtlich den Zweck, die bestimmten

Phänomenen zugrunde liegenden Mechanismen leichter verständlich und anschaulicher zu

machen. Inwiefern glaubt ihr, dass Analogien und Metaphern diesen Zweck tatsächlich

erfüllen? Gibt es auch Beispiele dafür, in denen diese Analogienbildung eher die Gefahr birgt,

Fehlkonzeptionen auf Seiten der Rezipienten psychologischer Erkenntnisse zu verursachen,

die auf der Anpassung der Analogien an den "gesunden Menschenverstand" beruhen?"

Zusammenfassung der Diskussion: In der Diskussion zu dieser Frage wurden auf

vielfältige Weise die Vor- und Nachteile einer Nutzung von Analogien zur Erklärung

psychologischer Phänomene diskutiert. Dabei wurde die Auffassung vertreten, dass die

Verwendung von Analogien zwar ein sinnvolles Mittel sein kann, um komplizierte

Sachverhalte anschaulich und mit dem Vorwissen der Lernenden kompatibel zu machen,

andererseits aber auch zum Aufbau fehlerhafter mentaler Modelle beitragen kann, wenn die

Analogien das Phänomen nicht angemessen abbilden. Zudem wurde einige Beispiele aus der

psychologischen Forschung und Theorie genannt, in denen die Verwendung von Analogien

zur Veranschaulichung psychologischer Phänomene sich nach und nach als unangemessen

erwies (z. B. Dampfkesselmodell in der Psychoanalyse).

Die Kommentare im Einzelnen:

Metaphern und Analogien sind durch das Anknüpfen an das Vorwissen der Rezipienten ein mächtiges Mittel zur Verdeutlichung von Mechanismen. Da die Analogien häufig aus

Alltagserfahrung entlehnt werden, können damit vor allem heterogene Gruppen "gegroundet" werden. Für diese Zwecke sind Analogien und Metaphern also bestens geeignet. Leider fällt mir ad hoc kein Beispiel ein, bei dem ich sagen könnte, dass die Fehlkonzeptionen "auf der Anpassung der Analogien an den 'gesunden Menschenverstand' beruhen". Aber im Allgemeinen scheint bei Analogien die Gefahr zu bestehen, dass die Rezipienten durch antizipierendes Schließen auch Teile der Analogie auf die Psychologie übertragen, die nicht mehr übertragbar sind.

Ich denke, dass Metaphern und Analogien durch das Anknüpfen an das Vorwissen der Rezipienten wichtige Möglichkeiten zur Verdeutlichung von schwierigen Sachverhalten sind. Metaphern und Analogien tragen immer auch implizit Informationen die über das reine Erklären hinausgehen (z.B. Vorerfahrungen, Stimmungen, Bezüge etc). Genau dies ist jedoch nicht unproblematisch. Es kann passieren, dass gerade die implizit (und individuell verschieden) wahrgenommen Informationen zwar Verständnis bewirken, jedoch vielleicht nicht das beabsichtigte oder ein zu stark vereinfachtes. Da derjenige, der die Metapher auswählt, dieses Bild mit seinem (Experten-)Fokus ausgewählt hat, während der eines Laien vielleicht eine andere Komponente darin zu erkennen glaubt. Folgendes Beispiel ist mir eingefallen (darin aktiviert eine Metapher/Analogie ein bestimmtes Wissenschaftsbild und unterstützt möglicherweise nicht den Erkenntnisgewinn): Das "Information Sampling Model" wird Laien häufig in Analogie zu einem Computer erklärt. Dies bewirkt unter Umständen bei Laien nicht die Verdeutlichung dieses theoretischen Modells (als hilfreiche Möglichkeit weitere Hypothesen zum Sammeln von Erkenntnissen über den Vorgang der Informationsverarbeitung beim Menschen zu generieren), sondern vermittelt ein mechanistisches Verständnis vom Menschen. Laien (die sich dann vielleicht selbst mit einem Computer vergleichen) nehmen in dieser Analogie mit ihrem "gesunden Menschenverstand" hauptsächlich das Bild vom Menschen als PC wahr, und erkennen darin hauptsächlich eine zu stark reduktionistische Sichtweise der wissenschafltichen Psychologie, anstatt daraus Erkenntnisse zu gewinnen.

Gerade weil Phänomene, die mit Hilfe von Analogien und Metaphern erklärt werden, so anschaulich erscheinen, bergen sie meines Erachtens die große Gefahr, dass Plausibilität an die Stelle einer systematischen und kritischen Auseinandersetzung rückt. Dass dieser Gefahr sowohl Laien als auch Wissenschaftler ausgesetzt sind, sollen die beiden folgenden Beispiele zeigen: Der Mensch als Dampfkessel: In der Psychoanalyse spielte das Dampfkesselmodell eine zentrale Rolle. Auftretende Triebe, Bedürfnisse und Emotionen drängen permanent nach Ausdruck und Befriedigung. Werden nicht genügend Ventile geöffnet, staut sich der "Dampf" bis es schließlich unweigerlich zum völlig unkontrollierten Ausbruch kommt. Eine aus diesem anschaulichen Modell resultierende Empfehlung bestünde darin, Emotionen wie Ärger oder Traurigkeit nicht zu unterdrücken, sondern "herauszulassen", konsequent auszuleben. Bisher jedoch gibt es keinen wissenschaftlichen Beleg für die vermeintlich entlastende Wirkung von Tränen oder Wutausbrüchen. Vielmehr konnte in verschiedenen Studien das Gegenteil gezeigt werden:

Wutanfälle führen eher noch zu einer Steigerung der Wut, Tränen verstärken das Auftreten depressiver Symptome (Mallick & Candless, 1966; Travis, 1989). Extramissionists: Bisweilen mögen auch anschauliche alltagssprachliche Wendungen an der Entwicklung fehlerhafter Konzepte beteiligt sein. Diese Möglichkeit diskutiert Winer

et al. (2003), der sich in verschiedenen Studien dem Phänomen der "extramissionists"

widmete. Unter diesem Begriff beschreibt er Leute, die der fehlerhaften Auffassung sind, dass beim Vorgang des Sehens Strahlen die Augen verlassen, die wir auf umliegende Objekte richten, um diese sehen zu können. Sprachliche Wendungen wie "den Blick auf etwas richten" oder "ein Auge auf etwas werfen" suggerieren eine Konzeptualisierung des Sehens, als ein aktiver, nach außen gerichteter Prozess. Darüber, welchen Anteil derartige sprachliche Wendungen wirklich an der Entwicklung von Fehlkonzepten haben, lässt sich jedoch aktuell nur spekulieren. (Kontrollierte Studien sind schwer vorstellbar, müssten aber wohl auf interkulturelle Vergleiche herauslaufen).

Selbstverständlich ist es für die Psychologie verlockend, anschauliche Bilder und Analogien zur Erklärung von Befunden und Formulierung von Theorien heranzuziehen, die oftmals komplexitätsreduzierend wirken. Als Beispiel einer solchen vereinfachenden und gleichzeitig verzerrenden Analogie, die immer im historischen Kontext zu betrachten ist, mag die Dampfmaschinenmetapher, mit der Freud menschliches Triebverhalten erklärte, gelten. Auch der mit der kognitiven Wende verbundene Paradigmenwechsel vom bahavioristischen zum kognitivistischen Menschenbild illustriert diesen Sachverhalt. Verstanden die Behavioristen das kognitive System des Menschen noch als black box, so wird seither dafür oftmals die Metapher des informationsverarbeitenden Systems herangezogen. Diese Sicht ist zum einen komplexitätsreduzierend, da sie das kognitive System beschreibbar macht, zum anderen ist sie aber auch verzerrend, da sie wichtige Komponenten wie Emotionen und Motivationen ausgrenzt.

Meiner Meinung nach können Analogien oder Metaphern nur dann sinnvoll eingesetzt werden, wenn sie den jeweiligen Inhaltsbereich 1:1 abbilden, also korrekt sind. Das ist meist nur für einen Teilbereich des jeweiligen Phänomens gegeben. Problematisch ist, dass teilweise auf den genauen Geltungsbereich einer Metapher oder Analogie nicht explizit hingewiesen wird. Dann können Metaphern zu Fehlkonzepten führen. Dem entsprechend liegt meiner Meinung nach das Problem nicht in der bloßen Verwendung von Metaphern und Analogien, sondern vielmehr in ihrer Auswahl und der expliziten Formulierung ihrer Grenzen. Der Einfluss von Metaphern wird klar, wenn man zu einem Themenbereich unterschiedliche Metaphern wählt und untersucht, in wie weit diese Metaphern beispielsweise das Lernverhalten beeinflussen: Ein Hypertext gleicht einem "Buch" vs. einem "Netzwerk"; Lernen erfolgt durch die "Übernahme der Lehrbuchinhalte in das Gedächtnis" oder durch "aktive Verarbeitung und Umstrukturierung"; das kognitive System gleicht einer "black box" vs. einem "Computer"…

Zur Frage 2 möchte ich an das anknüpfen, was ich zu den Fehlkonzepten bei der Gruppe

D geschrieben habe. Entscheidend beim Einsatz von Analogien und Metaphern ist, dass

dem, der sie nutzt, bewusst ist, in welchen Aspekten sie das, was beschrieben werden soll,

korrekt repräsentieren, und in welchen eine Analogie oder Metapher in die Irre führt. Ich glaube auch, dass Analogien und Metaphern weniger wichtig in der Kommunikation zwischen Experten sind – da würde ich exaktere Theorieformulierungen und Modellierungen bevorzugen, als im Gespräch zwischen Experten und Novizen, um anknüpfend an das, was der Novize weiß, einen brauchbaren Common Ground für die Kommunikation zu haben.

Frage/These 3:

„Inwiefern kann die von Fischer angeführte Auffassung Bachelards, wonach sich

wissenschaftliche Erfahrung eben dadurch auszeichnet, dass sie alltagsweltlicher Erfahrung

entgegen steht (S. 79 unten), gehalten werden? Würde eine totale Abkehr von

alltagsweltlichem Wissen und alltagsrelevanten Begrifflichkeiten nicht dazu führen, dass die

Psychologie noch mehr Unanschaulichkeiten produziert?“

Zusammenfassung der Diskussion: Frage 3 wurde im Vergleich zu den anderen beiden

Themenkomplexen nur wenig diskutiert. Dabei wurde deutlich, dass die Auffassung

Bachelards im Allgemeinen auf Ablehnung stößt.

Die Kommentare im Einzelnen:

Die Aussage kann schon allein deswegen nicht gehalten werden, da sie absolutistisch formuliert ist. Würde man dieser Ansicht bis in die letzte Konsequenz folgen, könnte man alltagsweltlich-konforme Erfahrungen nicht zur Bildungen von Theorien heranziehen. Z.B. Die Alltagserfahrung "Wer länger lernt, lernt mehr" hätte keinen Platz in wissenschaftlichen Theorien zum Lernen. Wissenschaft zeichnet sich eher dadurch aus, das Erfahrungen nicht übergeneralisiert werden und genauer definiert wird, wann/wie/wo etwas zutrifft bzw. nicht zutrifft.

Zur Frage 3 stimme ich mit dem völlig überein, was dazu in dieser Diskussion gesagt wurde. Die Auffassung von Bachelards bietet einen interessanten Denkanstoß, ist aber zu Ende gedacht unsinnig. Trotzdem ist die psychologische Forschung gut beraten, auch danach zu forschen, was alltagsweltlicher Erfahrung entgegensteht, um für Jeden erkennbar zu machen, dass ihre Erkenntnisse über das hinausgehen, was auch die „Oma“ schon wusste.

3.

Glossar

John B.S: Haldane John Burdon Sanderson Haldane (1892-1964) war Genforscher und ein Mitbegründer der Populationsgenetik und trug zur Popularisierung der Wissenschaften bei. Er war mit Aldous Huxley befreundet, dessen Buch „Brave new world“, von seinen Visionen mitbeinflusst war.

new world“, von seinen Visionen mitbein f lusst war. S i e h e z .

B

S

Daedalus

oder

die

Wissenschaft

der

Zukunft

siehe

unter

Zurück in den Text

Bertrand Russell

Zurück in den Text Bertrand Russell Bertrand Russell (1872-1970) war Mathematiker, Logiker und

Bertrand Russell (1872-1970) war Mathematiker, Logiker und Philosoph. Neben seinen mathematischen Studien veröffentlichte er noch viele weitere gesellschaftskritische und philosophische Schriften u.a. zum Frauenwahlrecht. Im Jahre 1950 erhielt er den Literaturnobelpreis.

Ikarus

unter

oder

die

Zukunft

der

Wissenschaft

siehe

Zurück in den Text

Häretiker:

Häresie bedeutet "Heterodoxie" (Andersglaube) im Gegensatz zu "Orthodoxie" (Rechtgläubigkeit). Als solches kann eine Lehre im Prinzip nur von ihren orthodoxen Gegnern als häretisch bezeichnet werden. Eine modernere Bezeichnung dieses Begriffes ist z.B. Abweichler oder Dissident. Häresie bezeichnet somit auch den Vorgang der Abspaltung von der Majorität selbst. Des Weiteren hat sich der Begriff Häretiker als allgemein verwendete Überbezeichnung für bestimmte christliche Bewegungen des Mittelalters durchgesetzt

Zurück in den Text

Daedalus:

Griechischer Künstler und Baumeister aus Athen, Vater des Ikarus. Im Auftrag des Minos erbaute er das Labyrinth für den Minotauros auf Kreta. Dort wurde er zusammen mit seinem Sohn von Minos eingesperrt, weil er Ariadne zu dem Wollknäuel für Theseus geraten hatte. Aus Wachs und Federn fertigte er Flügel, mit denen sie aus dem Labyrinth entfliehen konnten. Sein Sohn stürzte jedoch ab (vgl. unten), während Daedalus bis nach Sizilien kam.

Zurück in den Text

Ikarus:

Daedalus baute sich und seinem Sohn Ikarus aus Federn und Wachs Flügel, um dem Gefängnis zu entfliehen. Er warnte seinen Sohn, nicht zu nah an die Sonne oder das Wasser heranzufliegen, da die Flügel Feuer fangen könnten oder durch das Wasser zu schwer werden würden. Er solle den Mittelweg wählen. Und so flogen sie los, Daedalus vorne und Ikarus hinterher. Plötzlich packte den jungen Ikarus der Übermut: Er flog zu weit zur Sonne, das Wachs seiner Flügel schmolz dahin. Noch ehe sein Vater das Unglück bemerkte, war Ikarus ins Meer gestürzt

Zurück in den Text

Yaron Ezrahi ist Professor für Politikwissenschaften an der Hebrew Universität von Jerusalem (Siehe unter

oder

Zurück in den Text (Kapt. 5) Zurück in den Text (Kapt. 6)

Niklas Luhmann (1927-1998) war Jurist und Soziologe und gilt als Begründer der Systemtheorie.(Siehe unter

Albert O. Hirschman ist Ökonom und als Vertreter der Theorie des "ungleichgewichtigen Wachstums" und als kritischer Beobachter von Entwicklungsprojekten bekannt geworden. Später hat er als "Grenzüberschreiter" in Richtung Politikwissenschaft, Soziologie und Geschichte mit den Begriffspaaren "Exit - Voice" und "Passions - Interests" bahnbrechende Beiträge zur Analyse der raum-zeitlichen Einbettung von wirtschaftlichen Prozessen in die gesellschaftlichen Bedingungen geleistet. Weitere Informationen zu

Hirschmann finden sich unter http://www.dse.de/zeitschr/ez100-7.htm Zurück in den Text

Historisch-Kritische Annotationen (Pieschl / Ründal)

Helga Nowotny:

emeritierte Professorin für Wissenschaftsphilosophie und Wissenschaftsforschung; seit

2002 Leiterin des Collegium Helveticum an der ETH Zürich; in Wien geboren,

studierte an der Universität Wien mit Abschluss Dr. iur., an der Columbia University,

N.Y., mit einem Ph.D. In Soziologie; Lehr- und Forschungsaufenthalte in Wien,

Cambridge, Berlin, Paris, Bielefeld und Zürich.

Es könnte auch anders sein (S. 66-83):

Seite 72:

Obwohl sie im Schatten des werdenden Nationalstaates aufgewachsen sind und von diesem sowohl beschützt als auch bevormundet wurden, haben die Sozial- und Humanwissenschaften die relative Gewichtsverlagerung vom Staat zum Markt hin erstaunlich schnell mitvollzogen.

1. Der werdende Nationalstaat

Der Nationalstaat ist ein sozio-kulturelles Konstrukt des Bürgertums. Die

großbürgerlich-romantische Idee der Nation (gemeinsame Abstammung, Wohngebiet,

Sprache, Kultur, Geschichte, Religion, Recht, etc.) wurde mit den politischen Grundsätzen der

Volkssouveränität und der Selbstbestimmung - Überbleibsel der Französischen Revolution -

verbunden und zum Nationalstaatsprinzip erhoben. Der Staat war somit nicht mehr das

Ergebnis einer (absolutistischen) Territorialpolitik, sondern er wurde durch die sich in ihm

organisierende Nation legitimiert. Dieses Prinzip ist seit dem frühen 19. Jahrhundert ein

wirkungsvolles politisches Postulat, das auch als Rechtfertigung für die Gründung neuer

Staaten (z.B. Italien, BRD, aber auch die Wiederherstellung Polens) diente.

Literatur:

Eric J. Hobsbawm, Nations and Nationalism since 1780 (Cambridge University Press 1990).

2. Sozial- und Humanwissenschaften

Der Begriff Humanwissenschaften bezeichnet im eigentlichen Sinne die Gesamtheit der

wissenschaftlichen Disziplinen, die sich mit dem Menschen beschäftigen, vor allem

Psychologie, Soziologie, Pädagogik sowie unter anderem auch Anthropologie,

Humanbiologie und Humanmedizin (vgl. auch Brockhaus oder Meyer). Die Formulierung

Sozial- und Humanwissenschaften wird im deutschsprachigen Raum - vor allem in Österreich

und in der Schweiz - erst seit gut einem Jahrzehnt benutzt und ist aus dem anglo-

amerikanischen Sprachgebrauch, Social Sciences and Humanities, entlehnt. Hier bezeichnet

Humanities allerdings das, was bei uns als Geisteswissenschaften beziehungsweise auch als

Geistes- und Kulturwissenschaften fungiert(e). Eine Google-Suche nach Sozial- und

Humanwissenschaften brachte diese Woche (im Januar 2004) etwas weniger als 500, nach

Geistes-, Kultur- und Sozialwissenschaften (GKS) etwas mehr als 10.000 Ergebnisse.

3. Geschichte der Geistes-, Kultur- und Sozialwissenschaften

In der Soziologie ist es allgemein üblich, die Entstehung des eigenen Faches von drei historischen Faktoren abhängig zu sehen: 1. der Aufklärung, 2. der Französische Revolution und 3. der Industrialisierung. Eine eigenständige wissenschaftliche Disziplin wurde die Soziologie aber erst Ende des 19. Jahrhunderts, auch wenn schon Auguste Comte in seinen Vorlesungen ab 1837 von Soziologie als Wissenschaft spricht, die sich "auf das positive Studium der sämtlichen, den sozialen Erscheinungen zugrunde liegenden Gesetze bezieht". Im Jahre 1887 wurde für Emile Durkheim in Bordeaux der erste soziologische Lehrstuhl eingerichtet; eigene, disziplinäre Fachbereiche gibt es allerdings erst seit den 1950er Jahren. Auch die Psychologie war bis ins 19. Jahrhundert ein Teilgebiet der Philosophie. Philosophie und Geschichtswissenschaft sehen sich als Wissenschaften seit den "Alten Griechen"; die Politikwissenschaft wurde hingegen erst nach dem Zweiten Weltkrieg begründet. Sicherlich wurden einzelne Historiker vom "werdenden Nationalstaat" beschützt, wie z.B. das Beispiel des Historikerstreits zwischen Leopold Ranke und Georg G. Gervinus (in den 1850er und 1860er Jahren) zeigt. Jedoch stand Ranke dem preußischen Staat und seinem politischem Streben von vornherein positiv gegenüber. Der militärische Sieg 1870/71 über Frankreich hat dem Geschichtsverständnis Rankes nachträglich recht gegeben, und Gervinus für die meisten aus der Erinnerung verschwinden lassen. Ranke wollte in seiner Geschichtsschreibung zeigen, "wie es wirklich gewesen" ist. Nicht wenige heutige deutsche Historiker sehen sich in der Tradition von Leopold Ranke verankert, aber auch z.B. in der des griechischen Geschichtsschreibers Thukydides (ca. 460-400 v.u.Z.). Es ist daher fraglich, ob man schreiben kann, "die Sozial- und Humanwissenschaften" seien "im Schatten des werdenden Nationalstaats aufgewachsen".

Literatur:

Ein Überblickswerk zur Geschichte der Geistes-, Kultur- und Sozialwissenschaften bzw. der Sozial- und Humanwissenschaften wäre wünschenswert; bis dieses erscheint, muss man leider mit historischer Detektivarbeit verschiedene Einführungswerke zu den einzelnen Fächern nach "Geschichtliche Grundlagen des Faches" durchstöbern sowie Enzyklopädien (z.B. Brockhaus) wälzen. Zu den einzelnen Historikern vgl. Rüdiger vom Bruch und Rainer A. Müller (Hg.), Historikerlexikon. Von der Antike bis zur Gegenwart (2. Aufl. München: Beck,

2002).

Seite 83:

Heute, so schreibt Hans-Jörg Rheinberger, zweihundert Jahre nach Kant, ist die Wissenschaftsforschung zu einer Unkantianischen Erkenntnis gelangt: dass das, was wir als wissenschaftliches Wissen herstellen, immer nur in Form von lokalem Wissen hergestellt werden kann - und dies niemals vollständig und vorhersehbar und schon gar nicht bezogen auf die globalen Auswirkungen unseres Tuns: "Der Traum der Aufklärung von einem vereinheitlichten Bild einer allgemeinen Wissenschaft, die uns erlaubt, eine vereinheitlichte und allgemeine Natur zu manipulieren und zu kontrollieren, scheint ausgeträumt. Statt des einen privilegierten epistemischen Standpunkts, statt einer einzigen und geradlinigen Richtung eines universalistisch gedachten Fortschritts, müssen wir lernen, uns in einer Welt einzurichten, die vielfältig, komplex, unordentlich und vom gleichzeitigen Nebeneinander multipler Zeiten geprägt ist." [Fußnote 34: Rheinberger, Hans-Hörg: "Restructuring Science as a Process". Paper presented at the Sociology of the Sciences Yearbook Editorial Board Meeting, Stockholm, 6-7 June 1996. Ms.]

4. Kant - Aufklärung – Wissen

Mit dem Begriff Aufklärung wird allgemein eine politische, soziale und geistige

Bewegung im 18. Jahrhundert in Europa bezeichnet. Auch heute noch geht man davon aus,

dass wir seither "Licht in das Dunkel der Unvernunft bringen, den Nebel des Aberglaubens,

der Vorurteile und der geistigen Bevormundung vertreiben, eigene, klare, überprüfbare

Begriffe von allen Gegenständen entwickeln" (Stollberg-Rilinger, S. 11). Kants Definition

von 1784, dass Aufklärung "der Ausgang des Menschen aus seiner selbstverschuldeten

Unmündigkeit" sei, was den Mut voraussetze, "sich seines Verstandes ohne Leitung anderer

zu bedienen", ist wohl einer der meistzitierten Sätze überhaupt. Man darf jedoch nicht

vergessen, dass z.B. bereits 1637 Descartes seinen "Discours de la méthode" geschrieben

hatte (Grundlage des kartesischen Denkens) und Grenzen der Menschen- und Bürgerrechte

bis mindestens weit ins 19. Jahrhundert bestand hatten (Wahlrecht, Sklaverei). Die

Aufklärung ist also kein Ereignis mit festem Datum ("18. Jahrhundert"), sondern eine lange

Phase, die auch andere, gleichzeitige wie widerstrebende historische Phasen erlebte.

Weiterhin sollte nicht vergessen werden, dass auch die Aufklärer "Kinder ihrer Zeit" gewesen

sind, die sich zwar einerseits vom Zeitgeist - u.a. dem Glauben und Aberglauben - absetzen

wollten, andererseits aber in diesem Gedankengut vehaftet waren. Der Allmacht des

Glaubens, die v.a. die – römisch-katholische wie lutherisch-reformierte - Kirchen proklamiert

hatten, folgte so fast natürlich die Allmacht des (empirischen) Wissens. Allerdings könnte

man dieses auch als, im Sinne Max Webers, Idealtypus sehen. Idealtypen, die in der Realität

nicht existieren, gab es auch schon in der Vormoderne, wie etwa bei der Vier-Säfte-Lehre

oder bei der Theorie der Eingeschlechtlichkeit des Menschen. Auch wurde schon im 18. Jahrhundert, durch die intensive Beschäftigung mit anderen Völkern und Kulturen, die eigene europäische Kultur als relativ wahrgenommen, d.h. der Fortschrittsoptimismus konnte nicht aufrecht erhalten werden. "Das 18. Jahrhundert erweist sich also als ambivalent: Es hat nicht nur das eurozentristische Konzept der Menschheitsgeschichte als fortschreitende Vervollkommnung formuliert, sondern auch die ersten Ansätze dazu hervorgebracht, diese Sicht zu kritisieren, das Fremde als etwas Eigenwertiges wahrzunehmen und sich um ein Verständnis seiner Andersartigkeit zu bemühen." (Stollberg-Rilinger, S. 263) Woher die Ansicht kommt, die Aufklärung sei nur in einer "geradlinigen Richtung eines universalistisch gedachten Fortschritts" verhaftet, ist unklar. Es scheint auch möglich, dass eine Welt, die "vielfältig, komplex, unordentlich und vom gleichzeitigen Nebeneinander multipler Zeiten geprägt ist", keine postmoderne Erfindung ist, sondern ein erneutes Aufbrechen einer alten Wunde, die vielleicht vom modernen (Aber-)Glauben über die Aufklärung lange Zeit verdeckt wurde.

Literatur:

Barbara Stollberg-Rilinger, Europa im Jahrhundert der Aufklärung (Stuttgart: Reclam, 2000).

Stefan Jordan (Hg.), Lexikon Geschichtswissenschaft. Hundert Grundbegriffe (Stuttgart:

Reclam, 2002).

Bernd Neumeister, "Kritik und Aufklärung" in: Marcus S. Kleiner (Hg.), Michel Foucault:

Eine Einführung in sein Denken (Frankfurt/M.: Campus, 2001).

Zurück in den Text

4.

Literatur

Boyes, E., Stanisstreet, M., & Papantoniou, V. S. (1999). The ideas of greek high school students about the "ozone layer". Science Education, 83(6), 724-737.

Brehm, J. W. (1959). Increasing cognitive dissonance by a fait accompli. Journal of Abnormal and Social Psychology, 52, 384-389.

Brody, M. J. (1996). An assessment of 4th-, 8th-, and 11th-grade students' environmental science knowledge related to Oregon's marine resources. Journal of Environmental Edu-cation,27(3), 21-27.

Bruce, V. & Young, A. (1998). In the eye of the beholder. The science of face perception. Oxford University Press.

Bruch, R. vom & Müller, R.A. (Hrsg.) (2002). Historikerlexikon. Von der Antike bis zur Gegenwart. München: Beck.

Cacioppo, J. T. (1979). The effects of exogenous changes in heart rate on the facilitation of thought and resistance to persuasion. Journal of Personality and Social Psychology, 37, 487-496.

Chamot, E., & Perneger, T. V. (2001). Misconceptions about efficacy of mammography screening: a public health dilemma. Journal of Epidemiological Community Health, 55, 799-803.

Cliff, N. (1983). Some cautions concerning the application of causal modelling methods. Multivariate Behavioral Research, 18, 115-126.

Fleck, L. (1935/ 1980). Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Frankfurt: Suhrkamp.

Frey, D., Dauenheimer, D., Parge. O. & Haisch, J. (1993). Die Theorie sozialer Vergleichsprozesse. In D. Frey & M. Irle (Hrsg.), Theorien der Sozialpsychologie, Band I: Kognitive Theorien (S. 81-122). Bern: Huber.

Frey, D. & Gaska, A. (1993). Die Theorie der kognitiven Dissonanz. In. D. Frey & M. Irle (Hrsg.), Theorien der Sozialpsychologie, Band I: Kognitive Theorien (S. 275-324). Bern: Huber.

Gliner, J. A., Leech, N. L., & Morgan, G. A. (2002). Problems with null hypothesis significance testing (NHST): What do the textbooks say? Journal of Experimental Education, 71(1), 83-92.

Griffiths, A. K. & Thompson, J. (1993). Secondary school students' understanding of scientific processes: an interview study. Research in Science & Technological Education, 11(1), 15-27.

Haller, H., & Krauss, S. (2002). Misinterpretations of significance: A problem students share with their teachers? Methods of Psychological Research, 7, 1-20.