Beruflich Dokumente
Kultur Dokumente
in der Fremdsprachen-
didaktik Ein Handbuch
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Forschungsmethoden
in der Fremdsprachendidaktik
Ein Handbuch
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Friederike Klippel ist Professorin em. für Didaktik der englischen Sprache und Literatur an
der Ludwig-Maximilians-Universität München.
Michael K. Legutke ist Professor em. für Didaktik der englischen Sprache und Literatur an
der Justus-Liebig-Universität Gießen.
Karen Schramm ist Professorin für Deutsch als Fremdsprache an der Universität Wien.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Alle ganzseitigen Übersichtsgrafiken wurden von Frau Dr. Kristina Peuschel (Berlin) erstellt.
© 2016 · Narr Francke Attempto Verlag GmbH + Co. KG Dischingerweg 5 · D-72 070 Tübingen
www.narr.de · info@narr.de
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung
außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages
unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikro-
verfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.
Gedruckt auf chlorfrei gebleichtem und säurefreiem Werkdruckpapier.
ISBN 978-3-8233-6839-7
Inhalt
1. Zur Orientierung.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Daniela Caspari/Friederike Klippel/Michael K. Legutke/Karen Schramm
4. Forschungsentscheidungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Karen Schramm
4.1 Texte, Daten und Dokumente als Forschungsgrundlage. . . . . . . . . . . . . 61
Michael K. Legutke
4.2 Prototypische Designs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
Daniela Caspari
4.3 Sampling.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Urška Grum/Michael K. Legutke
4.4 Triangulation.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
Petra Knorr/Karen Schramm
4.5 Der zweite Blick: Meta-Analysen und Replikationen. . . . . . . . . . . . . . . 98
Claudia Harsch
4.6 Forschungsethik.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
Michael K. Legutke/Karen Schramm
5. Forschungsverfahren. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
5.1 Grundsatzüberlegungen.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
Friederike Klippel
7. Referenzarbeiten.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405
Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache?. . . . 406
Biebricher, Christine (2008). Lesen in der Fremdsprache. . . . . . . . . . . . . . . . 410
Doff, Sabine (2002). Englischlernen zwischen Tradition und Innovation.. . . . 415
Ehrenreich, Susanne (2004). Auslandsaufenthalt
und Fremdsprachenlehrerbildung.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419
Hochstetter, Johanna (2011). Diagnostische Kompetenz
im Englischunterricht der Grundschule.. . . . . . . . . . . . . . . . . . . . . . . . . . . . 423
Marx, Nicole (2005). Hörverstehensleistungen im Deutschen
als Tertiärsprache . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427
Özkul, Senem (2011). Berufsziel Englischlehrer/in.. . . . . . . . . . . . . . . . . . . . 431
Schart, Michael (2003). Projektunterricht – subjektiv betrachtet.. . . . . . . . . . 435
Schmenk, Barbara (2002, 2009). Geschlechtsspezifisches
Fremdsprachenlernen?.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439
Register. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 467
Die Autorinnen und Autoren .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 475
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Forschung ist genuiner Bestandteil von Wissenschaft. Wie und wozu in einzelnen Wissen-
schaften Forschung betrieben wird, hat viel mit den jeweils herrschenden Grundannahmen
und Erkenntnisinteressen zu tun. Junge Wissenschaften orientieren sich in ihren Forschungs-
methoden zu Beginn an Nachbardisziplinen, und es ist ein Zeichen der erfolgten Etablierung,
wenn sie eigene Forschungsansätze heranbilden. Die Fremdsprachendidaktik ist eine ver-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
gleichsweise junge Wissenschaft. Sie kann sich allerdings auf eine ausgedehnte Geschichte von
Lehr-/Lern-Praxis in ihrem Feld berufen, so dass das Nachdenken über die Vermittlung und
das Erlernen von Sprachen eine lange Tradition hat, in die wir uns mit diesem Band einordnen.
In den letzten Jahrzehnten hat sich für die Erforschung der vielfältigen Kontexte, Praxen und
Prozesse des Lehrens und Lernens fremder Sprachen ein bestimmtes Repertoire an Forschungs-
ansätzen herausgebildet. Es ist das Ziel dieses Handbuches, umfassend in diese fremdsprachen-
didaktische Forschung einzuführen und dabei alle grundlegenden Ansätze systematisch zu be-
rücksichtigen. Bei der Verwendung des Begriffs Fremdsprachendidaktik als Sammelbegriff für
Sprachlehr- und Sprachlernforschung, für unterrichtsbezogene Zweitspracherwerbsforschung,
für Fremdsprachenforschung und für Zweitsprachendidaktik lehnen wir uns an die Auffassung
von Gnutzmann/Königs/Küster (2011: 7) an, dass „die Entwicklungen, die den Ansprüchen
und Forderungen der Sprachlehrfoschung ja weitgehend gefolgt sind, dazu geführt [haben],
dass man dem Begriff ‚Fremdsprachendidaktik‘ aufgrund seiner längeren Geschichte und der
eingetretenen Veränderungen durchaus den Vorzug geben kann“. Auch wenn sich dieses Hand-
buch auf die deutschsprachige Fremdsprachendidaktik konzentriert, so haben wir doch die
internationale Entwicklung in allen Teilen des Handbuchs im Blick.
Es geht uns dabei zunächst einmal um eine Darstellung des aktuellen Standes der For-
schungsmethodologie und um praktische Hilfen für den Forschungsprozess. Wir möchten
sowohl denjenigen Informationen und Hilfestellung geben, die in die Forschung einsteigen,
als auch diejenigen unterstützen, die wissenschaftliche Qualifikationsarbeiten betreuen und
selbst forschend tätig sind. Weiterhin wollen wir dazu anregen, sich über Forschung, For-
schungsverfahren und -ansätze nicht nur aus der Sicht einer guten handwerklichen Gestal-
tung von Forschungsprozessen zu informieren, sondern auch über allgemeine Aspekte von
Forschung in unserem Feld nachzudenken. Wenn sich die hier entworfene Systematik auch
für die Einordnung zukünftiger Forschungsarbeiten als hilfreich erweist, wäre ein wichtiges
Anliegen erfüllt. Noch weitreichender ist die Hoffnung, dass Leser_innen des vorliegenden
Handbuchs es als Einladung begreifen, die Gesamtentwicklung der Fremdsprachendidaktik
auf einer Metaebene zu reflektieren und kritisch zu begleiten.
Die Etappen des Forschungsprozesses, die von der Idee für ein Dissertationsprojekt bis zur
Publikation der abgeschlossenen Studie dargestellt werden und die auch Fragen der Betreu-
ung betreffen, sind Thema von Kapitel 6, das auf der langen und breitgefächerten Betreu-
ungserfahrung der Autor_innen in unterschiedlichen fremdsprachendidaktischen Fächern
basiert und sich deshalb auch im Duktus und der Verweisdichte von den anderen Kapiteln
des Handbuchs deutlich unterscheidet.
Kapitel 7 präsentiert zwölf ausgewählte Dissertationen, die in diesem Handbuch an vielen
Stellen als Referenzarbeiten dienen. Da Wissenschaft von der Auseinandersetzung mit bis-
herigen Forschungsergebnissen und -verfahren bzw. vom entsprechenden Diskurs darüber
lebt, erscheint es uns vorteilhaft, die forschungsmethodischen und -methodologischen Fragen
immer wieder auch mit Bezug auf solche konkreten Arbeitserfahrungen zu thematisieren und
zu illustrieren.
Ein Blick auf die gesellschaftlichen und (bildungs-)politischen Kontexte fremdsprachen-
didaktischer Forschung steht am Ende des Bandes (Kapitel 8) und soll dazu beitragen, dem
oben skizzierten Anliegen, auch einen analytischen Blick auf die Gesamtentwicklung der
Fremdsprachendidaktik zu ermöglichen, gerecht zu werden.
An dieser kurzen Vorstellung der einzelnen Kapitel wird deutlich, dass dieses Handbuch
in der Absicht erstellt wurde, unterschiedlichen Lesergruppen zu dienen: Es wendet sich
gleichermaßen an diejenigen, die einen systematischen Überblick über fremdsprachendidak-
tische Forschungsmethoden zu gewinnen suchen, und an diejenigen, die sich zu spezifischen
Forschungsverfahren informieren möchten.
1.2 Zugriffe
Ein Handbuch wird man in der Regel nicht wie einen Roman lesen. Es ist auch nicht wie ein
Roman geschrieben, in dem man die späteren Kapitel nur versteht, wenn man die voran-
gehenden kennt. Ein Handbuch dient vor allem dem gezielten Nachschlagen von Informatio-
nen, die auf dem aktuellen Stand präsentiert werden. Viele Elemente des Handbuches unter-
stützen einen transparenten Zugriff: So finden sich zu Beginn jedes Großkapitels einleitende
Passagen; in allen Kapiteln des Handbuchs gibt es zahlreiche Querverweise; viele Kapitel
enthalten zudem kommentierte Leseempfehlungen.
Ein Novum sind die informativen Grafiken, die vor allem die Teilkapitel zu den For-
schungsentscheidungen (Kapitel 4) und Forschungsverfahren (Kapitel 5) illustrieren. In en-
ger Abstimmung mit den jeweiligen Autor_innen und den Herausgeber_innen hat Kristina
Peuschel Kernelemente und -prozesse einzelner Verfahren grafisch umgesetzt. Die Grafiken
vermögen die Lektüre eines Kapitels nicht zu ersetzen, sie erleichtern jedoch das Erkennen
der wesentlichen Zusammenhänge und – insbesondere für visuelle Lerner_innen – auch das
Behalten. Besonders geeignet erscheinen uns die Grafiken zur Unterstützung von Metho-
denseminaren oder Doktoranden-Kolloquien zu sein, wenn ein Überblick über die zentralen
Elemente einzelner Forschungsmethoden gegeben wird.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
folgen sie dem Primat der Gegenstandsangemessenheit, d. h. sie sind vom Gegenstand und
einer klaren Forschungsfrage her entwickelt worden. Sie entsprechen den gängigen Gütekri-
terien (s. Kapitel 2) und zeichnen sich durch die Passung von Forschungsfrage und Methodik,
durch ein systematisches, forschungsökonomisches Vorgehen sowie durch Klarheit der Dar-
stellung aus. Für die Aufnahme in ein Forschungshandbuch sind zudem ein angemessenes Re-
flexionsniveau hinsichtlich der Forschungsmethodologie und -methodik sowie ein sinnvolles
Verhältnis von forschungsmethodischer Reflexion (‚Aufwand‘) und inhaltlichen Ergebnissen
(‚Ertrag‘) unabdingbar.
Aus den vielen Arbeiten, die diesen Kriterien genügen, wurden zwölf nach dem Prinzip
maximaler Variation ausgewählt, um in der Gesamtheit eine möglichst große Breite hinsicht-
lich folgender Kriterien zu erreichen:
• Forschungstraditionen (historisch, theoretisch-konzeptionell, empirisch-qualitativ, empi-
risch-quantitativ);
• Forschungsfelder (z. B. Professionsforschung, Lernforschung, Begegnungsforschung, Kom-
petenzforschung etc.) (s. Kapitel 2);
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Man kann eine Publikation besser einschätzen, wenn man ihre Genese ein wenig kennt. An
diesem Handbuch sind viele Autor_innen in unterschiedlichem Umfang und in unterschied-
licher Funktion beteiligt. Unser Anliegen als Herausgeber_innen und Autor_innen war und
ist es, ein Handbuch vorzulegen, das den aktuellen Stand der Forschungsmethodologie in der
Fremdsprachendidaktik angemessen wiedergibt. Dazu war es erforderlich, die in einzelnen
Forschungsverfahren führenden Wissenschaftler_innen für eine Autorschaft zu gewinnen.
Das ist in erfreulichem Umfang gelungen. Wir danken allen Autor_innen für ihre konstruk-
tive und geduldige Mitwirkung an diesem Band.
Zugleich war es unser Ziel, ein in sich geschlossenes, kohärentes Handbuch vorzulegen,
dessen Kapitel miteinander verschränkt sind und aufeinander Bezug nehmen und das auf ei-
ner von uns allen geteilten Vorstellung von Forschung in der Fremdsprachendidaktik basiert.
Dieses gemeinsame Forschungsverständnis haben wir Herausgeber_innen uns in häufigen in-
tensiven Diskussionen und breiten Recherchen über etwa fünf Jahre hinweg erarbeitet. Jedes
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Kapitel, das von einer/m von uns verfasst ist, wurde in allen Fassungen von allen gelesen,
einer kritischen Analyse unterworfen, kommentiert, ergänzt und ausführlich besprochen. In-
sofern ist dieses Handbuch auch in allen den Teilen, für die eine_r der vier Herausgeber_innen
namentlich genannt ist, dennoch in vielerlei Hinsicht ein Gemeinschaftswerk.
Das heißt jedoch nicht, dass unser Ziel der Vereinheitlichung und Abstimmung immer bis
in die Formulierungen hineinwirkt. Aufmerksame Leser_innen werden feststellen, dass sich
durchaus noch unterschiedliche Schreibstile, verschiedene und unterschiedlich konsequente
Arten des gendergerechten Schreibens und Variationen in der Verweisdichte ergeben haben.
Auch für die Konzeption und Struktur des Handbuches zeichnen wir – Daniela Caspari,
Friederike Klippel, Michael K. Legutke, Karen Schramm – gemeinsam verantwortlich. Am
Anfang stand die Idee eines Handbuches, das die Situation der deutschen fremdsprachen-
didaktischen Forschung und insbesondere Kontexte und Erfordernisse der Ausbildung des
wissenschaftlichen Nachwuchses berücksichtigt. Ob wir diese Idee gut umgesetzt haben,
werden unsere Leser_innen beurteilen. Über Rückmeldungen positiver und kritischer Natur
freuen wir uns.
›› Literatur
Daniela Caspari
einander unterscheiden: der ontologischen, der epistemologischen und auf der Ebene der
Auffassung über die Natur des Menschen. Auf der ontologischen Ebene (ontology) geht es um
grundlegende Annahmen über die Wirklichkeit und die Natur der Dinge. Gehe ich davon aus,
dass es eine objektive, vom jeweiligen Betrachter unabhängige Welt gibt (realist position),
oder bin ich der Überzeugung, dass Wirklichkeit erst durch den Betrachter geschaffen wird
und somit das Produkt subjektiver Wahrnehmung ist (nominalist position)?
Diese grundsätzliche Position bestimmt Annahmen darüber, was und wie man etwas
herausfinden und dies anderen mitteilen kann (epistemology): Kann ich soziale Wirklichkeit
‚von außen‘, d. h. durch Beobachtung wahrnehmen und erklären, ihre Gesetzmäßigkeiten
erkennen und daraus Voraussagen über zukünftiges Verhalten ableiten (positivism)? Diese
Auffassung legt einen etischen Zugang zum Forschungsfeld nahe, in dem von außen Kate-
gorien an einen Untersuchungsgegenstand angelegt werden. Oder muss ich Menschen bzw.
spezifischen Gruppen von Menschen und ihren Referenzsystemen möglichst nahe kommen,
damit ich, soweit dies überhaupt möglich ist, ihre Innensicht auf sich selbst und ihr soziales
Umfeld nachzeichnen kann (anti-positivism)? Diese Auffassung legt einen emischen Zugang
zum Forschungsfeld nahe, der von den kultur- und sprachspezifischen Kategorien der For-
schungspartner_innen ausgeht. Mit den beiden epistemologischen Positionen verbunden sind
grundsätzlich unterschiedliche Auffassungen über die menschliche Natur: Betrachte ich den
Menschen in erster Linie durch seine Anlagen und seine Umwelt bestimmt (determinism)
oder verstehe ich ihn als freies, selbstbestimmtes Wesen, das seine soziale Umwelt kreativ
mitgestaltet (voluntarism)?
Der objektivistischen Herangehensweise entsprechen sog. nomothetische Forschungs-
zugänge (nomothetic), die das Ziel verfolgen, allgemein gültige Gesetzmäßigkeiten auf-
zustellen. Ausgangspunkt von Forschungsarbeiten in diesem, auch als analytisch-nomolo-
gisch bezeichneten, Forschungsparadigma (vgl. Grotjahn 1993: 229–230) sind i. d. R. zuvor
aufgestellte Theorien, Modelle oder hypothetische Kausalbeziehungen; das Ziel besteht darin,
die daraus abgeleiteten Hypothesen zu überprüfen. Ein solches Vorgehen ist grundsätzlich
dann möglich, wenn der Forschungsstand weit entwickelt und die Fragestellungen eng gefasst
zeigt, nicht selten aktuellen Moden und Tabus unterworfen. Zur Entstehung zu solchen, zu
einem bestimmten Zeitpunkt vorherrschenden Forschungspraktiken tragen neben der all-
gemeinen Forschungslandschaft und entsprechenden Tendenzen in den jeweiligen Bezugsdis-
ziplinen auch einflussreiche Forscher_innen bzw. Forscher_innengruppen sowie nicht zuletzt
große Geldgeber bei. So sind der Siegeszug der empirischen Bildungsforschung innerhalb der
Erziehungswissenschaft und die aktuelle Vorliebe für Interventionsforschung innerhalb der
naturwissenschaftlichen Fachdidaktiken auch durch Förderentscheidungen der Politik beein-
flusst. In diesem Zusammenhang spielt ebenfalls der aktuelle gesellschaftliche Kontext eine
Rolle: Welcher Beitrag zur gesellschaftlichen Entwicklung wird von der Forschung erwartet?
Welche Themen stehen im Zentrum des Interesses? Wie verläuft der mediale Diskurs zu
diesen Themen?
Die Forschungstraditionen der einzelnen Disziplinen schlagen sich nicht selten in eta
blierten, sog. prototypischen Designs nieder, die gewisse Standards setzen und oft als modell-
haft gelten. Gerade wenn solche Designs detaillierte Vorgaben hinsichtlich der Erhebungs-
und Auswertungsverfahren machen, sind sie insbesondere für Anfänger_innen attraktiv und
helfen, die notwendige methodische Qualität einer Forschungsarbeit zu sichern. Andererseits
kann die Ausrichtung auf etablierte Designs dazu führen, dass bestimmte Forschungsfragen
gar nicht erst gestellt werden oder dass die ursprüngliche Frage an die Erkenntnismöglichkei-
ten des Designs angepasst wird. Daher sollte ein Forschungsprojekt nicht mit methodischen
Entscheidungen beginnen, sondern von der Forschungsfrage geleitet sein, und man sollte
auch – und gerade – bei prototypischen Designs genau prüfen, ob die zugrundeliegenden
Annahmen und Erkenntnisinteressen tatsächlich geeignet sind, die eigene Forschungsfrage
zielführend zu bearbeiten.
Ein anderer wichtiger Einflussfaktor für forschungsmethodische Entscheidungen besteht
in der Kenntnis von bzw. der Vertrautheit mit einzelnen Erhebungs- und Auswertungsver-
fahren. Hier wurde der Fremdsprachendidaktik in der Vergangenheit zu Recht ein deutlicher
Nachholbedarf attestiert; in bestimmten Bereichen, insbesondere innerhalb des analytisch-
nomologischen Paradigmas, gilt dies bis heute. Gerade die einfache Zugänglichkeit von bzw.
die individuelle Expertise in bestimmten Verfahren kann jedoch dazu führen, dass andere,
für die Forschungsfrage möglicherweise sogar geeignetere Verfahren gar nicht erst in den
Blick genommen werden. Dies mindert nicht nur die Qualität der Ergebnisse, sondern kann
bei häufigerem Vorkommen sogar das Ansehen der Disziplin beeinträchtigen. Ein weiterer,
in vielen Disziplinen zu beobachtender Effekt besteht in der Bildung sog. ‚Schulen‘. Damit
bezeichnet man die Tendenz, dass einzelne Wissenschaftler_innen oder Gruppen von Wis-
senschaftler_innen für die jeweilige Wissenschaft ganz grundsätzlich bestimmte Forschungs-
verfahren und Designs propagieren. Um diese – möglicherweise begrenzenden – Einfluss-
faktoren zu erkennen, ist es sinnvoll, sich bei der Planung des eigenen Forschungsvorhabens
auch außerhalb des eigenen Standortes und ggf. auch außerhalb der eigenen Disziplin beraten
zu lassen.
Nicht zuletzt bestimmen individuelle Vorlieben und die von der einzelnen Forscher_in
mitgebrachten sowie die von ihrem Umfeld bereitgestellten Ressourcen forschungsmetho-
dische Entscheidungen: Wie viel Zeit steht zur Verfügung? Wer kann die Forscher_in wobei
womit unterstützen? Welche administrativen Hürden sind zu überwinden? Auf welche tech-
nischen Ressourcen kann zurückgegriffen werden? Diese Faktoren bestimmen nicht nur die
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Jeglicher Forschung gemein ist, dass sie fokussiert und zielgerichtet verläuft und dabei zu-
gleich offen ist für Unerwartetes. Üblicherweise beruht Forschung daher auf einer gezielten
und gründlichen Suche. Forschung kann aber auch durch ein beiläufiges Finden angeregt
werden, das dann ein gezieltes Weiter-Suchen auslöst (zum Wechselspiel zwischen Suchen
und Finden vgl. Schlömerkemper 2010: 11–13).
Im Unterschied zum anfangs skizzierten Erwerb von Alltagswissen zeichnet sich wissen-
schaftliche Forschung durch eine in zweifacher Hinsicht systematische Vorgehensweise aus:
zum einen bezüglich der untersuchten Phänomene (hier gilt es, alles zu berücksichtigen, was
man findet, und nicht nur das, was zur eigenen Vorstellung passt), zum anderen bezüglich
der Forschungsschritte und Forschungsverfahren. Der Forschungsprozess erfolgt methodisch
reflektiert und kontrolliert, die Ergebnisse sind überprüfbar bzw. intersubjektiv nachvoll-
ziehbar. Ein wesentliches Merkmal besteht darin, dass die Ergebnisse auf der Basis bzw. in
Zusammenhang mit bereits vorhandenem wissenschaftlichem Wissen entstehen und dis-
kursiv verhandelbar bzw. korrigierbar sind. Daher ist es erforderlich, dass die Ergebnisse
wissenschaftlicher Forschung veröffentlicht bzw. allgemein zugänglich gemacht werden. Die
genannten Kriterien für wissenschaftliches Arbeiten gelten für jede Forschungsarbeit, sie wer-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
den mit zunehmender Größe und Bedeutung der Forschungsarbeiten jedoch differenzierter
und strenger gehandhabt (vgl. auch Kapitel Kap. 3.3, Stufen der Empirie).
Forschungsfelder
Typisch für fremdsprachendidaktische Forschungsarbeiten ist weiterhin, dass sie nicht nur
Forschungsfelder anderer Disziplinen aufnehmen, sondern oft auch innerhalb der Fremdspra-
chendidaktik mehrere Felder betreffen. Forschungsfelder bestimmen sich durch einen thema-
zung zur Diagnostik anderer Berufsfelder unter dem Begriff Pädagogische Diagnostik zu-
sammengefasst werden können. Im Brennpunkt stehen mit Bezug auf das Lehren und Ler-
nen von Fremd- und Zweitsprachen Tätigkeiten „durch die bei einzelnen Lernenden und
den in einer Gruppe Lernenden Voraussetzungen und Bedingungen planmäßiger Lehr- und
Lernprozesse analysiert und Lernergebnisse festgestellt werden, um individuelles Lernen
zu optimieren“ (Ingenkamp/Lissmann 2005:15).
• Interaktionsforschung: Forschungen zu Bedingungen, Verlaufsformen und Strukturmerk-
malen fremdsprachiger Interaktion in unterschiedlichen sozialen Arrangements sowie ihre
Erträge sind diesem Feld zugeordnet.
• Kompetenzforschung: Hier geht es um die theoretische Bestimmung und empirische Mo-
dellierung von Kompetenzen im Bereich des Lehrens und Lernens von Fremdsprachen
(insbesondere sprachlicher, literarischer, medialer und interkultureller Kompetenzen) und
um die Erforschung ihrer Entwicklung unter spezifischen institutionellen Bedingungen
(Schule, Hochschule, Erwachsenenbildung).
• Konzeptforschung: Die Entwicklung und systematische Analyse umfassender Konzepte
und tragender Konstrukte der Fremdsprachendidaktik sowie die Modellbildung machen
den gemeinsamen Nenner der Arbeiten dieses Forschungsfelds aus.
• Lehr- und Professionsforschung: Forschungsarbeiten in diesem Feld beschäftigen sich mit
dem Lehren fremder Sprachen als Beruf. Von Interesse sind nicht nur gesellschaftliche An-
sprüche an Lehrkräfte oder deren berufliches Selbstverständnis, sondern in gleicher Weise
Fragen der Aus- und Weiterbildung von Lehrkräften. Mit Blick auf die Praxis werden
zudem Bedingungen und Prozesse des Lehrens von Fremd- und Zweitsprachen in diesem
Feld unter besonderer Berücksichtigung der Lehrpersonen, ihres Wissens, ihrer Erfahrun-
gen, Einstellungen und ihres Handelns in spezifischen Kontexten bearbeitet.
• Lehrwerks- und Materialienforschung: Hier geht es um die systematische Analyse his-
torischer wie gegenwärtiger Lehrwerke und Medienverbundsysteme analoger und digitaler
Provenienz. Auf diesem Feld sind folglich Forschungen angesiedelt, die Materialentwick-
lung, Evaluation und Nutzung in Lehr und Lernprozessen fokussieren.
ten in den letzten 15 Jahren durch zahlreiche Studien mit qualitativen Forschungsansätzen
der Gegenstandsbereich des Lehrens und Lernens fremder Sprachen besser exploriert werden
und viele Einzelfaktoren und -aspekte in ihrer Vielschichtigkeit und Komplexität erforscht
und dargestellt werden.
gehörenden Items dasselbe Merkmal messen) und die Äquivalenz (die Gleichwertigkeit von
Messungen, wenn z. B. durch das Wiederholen eines Tests ein Lerneffekt eintritt).
Objektivität und Reliabilität der Methoden bestimmen die Validität, d. h. die Gültigkeit ei-
ner Variable, eines Messverfahrens bzw. der erzielten Ergebnisse. Sie bestimmt das Maß ihrer
Übereinstimmung mit dem untersuchten Realitätsausschnitt. Man unterscheidet in Bezug auf
Untersuchungsverfahren zum einen innere bzw. interne Validität (das Maß, mit dem ein For-
schungsverfahren tatsächlich das erfasst oder misst, was es erfassen oder messen soll – und
nicht z. B. durch andere Einflüsse wie z. B. Störvariablen oder systematische Messfehler beein-
trächtigt wird). Hierbei unterscheidet man insbesondere die Inhaltsvalidität (die Eignung
eines Verfahrens für die Erfassung bzw. Messung des Konstruktes), die Kriteriumsvalidität
(die Übereinstimmung der gemessenen Ergebnisse mit einem empirischen Kriterium, z. B. den
Ergebnissen, die mit einem anderen Verfahren gewonnen wurden) und die Konstruktvalidität
(die Zuverlässigkeit der Ergebnisse bezüglich des gesamten untersuchten Konstruktes und
nicht nur einzelner Aspekte des Konstruktes).
Zum anderen bestimmt man die externe Validität, d. h. die Möglichkeit der Übertragung
der Ergebnisse über die jeweilige Stichprobe und Situation der konkreten Untersuchung
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Das Kriterium der Validität wird für qualitative Forschungsansätze dagegen teilweise
übernommen und in Bezug auf den Auswertungs- und Interpretationsprozess hin erweitert.
Validierung wird verstanden als – zumeist kommunikativer – Prozess, in dem das Zustande-
kommen der Daten, die Darstellung der Phänomene und die daraus abgeleiteten Schlüsse auf
systematische Verzerrungen oder Täuschungen hin untersucht werden (Flick 1995: 244–245).
Die zentrale Frage lautet, „inwieweit die Konstruktionen des Forschers in den Konstruktionen
derjenigen, die er untersucht hat, begründet sind (…) und inwieweit für andere diese Begrün-
dungen nachvollziehbar sind“ (Flick 1995: 244). Ein Verfahren der Validitätsprüfung ist die
Triangulation (vgl. auch Kapitel 4.4), die hierbei jedoch nicht primär auf die Bestätigung der
Ergebnisse und damit auf die Gewinnung eines einheitlichen Gesamtbildes abzielt, sondern
auf ergänzende und vertiefende Perspektiven.
Neben den drei genannten gelten als weitere wichtige Kriterien qualitativer Forschung
Offenheit (gegenüber dem Forschungsfeld und gegenüber unerwarteten Ergebnissen), Fle-
xibilität (angesichts gewachsener Erkenntnisse oder als Reaktion auf Unerwartetes), die
Darlegung des Vorverständnisses, die Reflexion der Rolle der Forscher_in, die Indikation
des Forschungsprozesses und der Bewertungskriterien (d. h. die Prüfung, ob die getroffenen
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
›› Literatur
Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der
Beurteilung schriftlicher Leistungen in der Fremdsprache am Beispiel der Prüfung „Test Deutsch als
Fremdsprache“ (TestDAF). Tübingen: Narr. [Referenzarbeit, Kapitel 7]
Bausch, Karl-Richard/Christ, Herbert/Krumm, Hans-Jürgen (2003). Fremdsprachendidaktik und Sprach-
lehrforschung. In: Dies. (Hg.). Handbuch Fremdsprachenunterricht. 4. vollständig neu bearbeitete
Ausgabe. Tübingen: Francke.
Biebricher, Christiane (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens.
Tübingen: Narr. [Referenzarbeit, Kapitel 7]
Burwitz-Melzer, Eva/Königs, Frank/Riemer, Claudia (Hg.) (2015). Lernen an allen Orten? Die Rolle der
Lernorte beim Lehren und Lernen von Fremdsprachen. Arbeitspapiere der 35. Frühjahrskonferenz zur
Erforschung des Fremdsprachenunterrichts. Tübingen: Narr.
Cohen, Louis/Manion, Lawrence/Morrison, Keith (2011). Research Methods in Education. 7. Auflage.
London: Routledge.
DESI-Konsortium (2008) (Hg.). Unterricht und Kompetenzerwerb in Deutsch und Englisch. Ergebnisse
der DESI-Studie. Weinheim: Beltz.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Doff, Sabine (2002). Englischlernen zwischen Tradition und Innovation. München: Langenscheidt-Long-
man. [Referenzarbeit, Kapitel 7]
Doff, Sabine (2008). Englischdidaktik in der BRD 1949 bis 1989. Konzeptuelle Genese einer Wissen-
schaft. München: Langenscheidt.
Doff, Sabine (2010). Englischdidaktik in den 1970er und 1980er Jahren: Stationen auf dem Weg zu einer
wissenschaftlichen Disziplin. In: Fremdsprachen Lehren und Lernen 39, 145–159.
Edmondson, Willis J./House, Juliane (2006). Einführung in die Sprachlehrforschung. 3. Auflage. Tübin-
gen: Francke.
Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. Das „assistant“-Jahr
als ausbildungsbiographische Phase. München: Langenscheidt. [Referenzarbeit, Kapitel 7]
Flick, Uwe (1987). Methodenangemessene Gütekriterien in der qualitativ-interpretativen Forschung. In:
Bergold, Jarg B./Flick, Uwe (Hg.). Ein-Sichten. Zugänge zur Sicht des Subjekts mittels qualitativer
Forschung. Tübingen: Deutsche Gesellschaft für Verhaltenstherapie.
Flick, Uwe (1995). Qualitative Forschung: Theorie, Methoden, Anwendung in Psychologie und Sozial-
wissenschaften. Reinbek: Rowohlt.
Groeben, Norbert/Wahl, Diethelm/Schlee, Jörg/Scheele, Brigitte (1988). Das Forschungsprogramm Sub-
jektive Theorien. Eine Einführung in die Psychologie des reflexiven Subjekts. Tübingen: Francke.
Grotjahn, Rüdiger (1993). Qualitative vs. quantitative Fremdsprachenforschung: Eine klärungsbedürf-
tige und unfruchtbare Dichotomie. In: Timm, Johannes-Peter/Vollmer, Helmut Johannes (Hg.). Kon-
troversen in der Fremdsprachenforschung. Dokumentation des 14. Kongresses für Fremdsprachen-
didaktik, veranstaltet von der Deutschen Gesellschaft für Fremdsprachenforschung (DGFF) Essen,
7.–9. Oktober 1991. Bochum: Brockmeyer, 223–248.
Grotjahn, Rüdiger (2006). Zur Methodologie der Fremdsprachenerwerbsforschung. In: Scherfer, Peter/
Wolff, Dieter (Hg.). Vom Lehren und Lernen fremder Sprachen. Eine vorläufige Bestandsaufnahme.
Frankfurt/M.: Lang, 247–270.
Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule: Eine
empirische Studie zum Einsatz von Beobachtungsbögen. Tübingen: Narr. [Referenzarbeit, Kapitel 7]
Ingenkamp, Karlheinz/Lissmann, Urban (2005). Lehrbuch der Pädagogischen Diagnostik. 5. Auflage.
Weinheim: Beltz.
Königs, Frank G. (2010). Faktorenkomplexion. In: Barkowski, Hans/Krumm, Hans-Jürgen (Hg.). Fach-
lexikon Deutsch als Fremd- und Zweitsprache. Tübingen: Francke: 78.
Marx, Nicole (2005). Hörverstehensleistungen im Deutschen als Tertiärsprache. Zum Nutzen eines
Sensibilisierungsunterrichts im „DaF-nE“. Baltmannsweiler: Schneider Verlag Hohengehren. [Refe-
renzarbeit, Kapitel 7]
Özkul, Senem (2011). Berufsziel Englischlehrer/in. Berufswahlmotive der Lehramtsstudierenden in Ang-
listik/Amerikanistik. München: Langenscheidt. [Referenzarbeit, Kapitel 7]
Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Baltmannsweiler: Schneider Verlag
Hohengehren. [Referenzarbeit, Kapitel 7]
Schlömerkemper, Jörg (2010). Konzepte Pädagogischer Forschung. Eine Einführung in Hermeneutik und
Empirie. Bad Heilbrunn: Klinkhardt.
Schmelter, Lars (2014). Gütekriterien. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gülte-
kin-Karakoç, Nazan/Riemer, Claudia (Hg.) (2014). Empirische Forschungsmethoden für Deutsch als
Fremd- und Zweitsprache. Eine Einführung. Paderborn: Schöningh, 33–45.
Schmenk, Barbara (2002). Geschlechtsspezifisches Fremdsprachenlernen? Zur Konstruktion geschlechts-
typischer Lerner- und Lernbilder in der Fremdsprachenforschung. Tübingen: Stauffenburg. [Referenz-
arbeit, Kapitel 7]
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Schmidt, Torben (2007). Gemeinsames Lernen mit Selbstlernsoftware im Englischunterricht. Eine em-
pirische Analyse lernprogrammgestützter Partnerarbeitsphasen. Tübingen: Narr. [Referenzarbeit,
Kapitel 7]
Schwab, Götz (2009). Gesprächsanalyse und Fremdsprachenunterricht. Landau: Verlag Empirische
Pädagogik. [Referenzarbeit, Kapitel 7]
Steinke, Ines (1999). Kriterien qualitativer Forschung: Ansätze zur Bewertung qualitativ-empirischer
Sozialforschung. Weinheim: Juventa.
Tassinari, Giovanna (2010). Autonomes Fremdsprachenlernen. Komponenten, Kompetenzen, Strategien.
Frankfurt/M.: Lang. [Referenzarbeit, Kapitel 7]
Ausgehend von dem seiner Meinung nach unfruchtbaren Gegensatz zwischen qualitativer und
quantitativer Forschung erläutert der Autor grundlegende methodologische Paradigmen und Güte-
kriterien. Von den Spezifika der Fremdsprachendidaktik aus konturiert er Ansätze zur Überwindung
dieses methodologischen Gegensatzes.
Kron, Friedrich W. (1999): Wissenschaftstheorie für Pädagogen. Tübingen: E. Reinhardt.
In diesem Handbuch wird ein systematischer Überblick über die wichtigsten wissenschaftstheo-
retischen Begriffe, Fragen und Konzepte gegeben. Die Darstellung der zentralen Paradigmen und
Methoden erfolgt aus Sicht der Pädagogik.
Schmelter, Lars (2014). Gütekriterien. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/
Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.) (2014). Empirische Forschungsmethoden für
Deutsch als Fremd- und Zweitsprache. Eine Einführung. Paderborn: Schöningh, 33–45.
Dieser Artikel gibt, ausgehend vom Forschungsgegenstand der Fremdsprachenforschung, einen
Überblick über Gütekriterien quantitativer und qualitativer Forschungsansätze. Außerdem werden
übergreifende Gütekriterien sowie bislang ungelöste Fragen hinsichtlich der Gütekriterien fremd-
sprachendidaktischer Forschung diskutiert.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Friederike Klippel
Die Fremdsprachendidaktiken sind als wissenschaftliche Disziplinen noch relativ jung, denn
sie etablierten sich erst nach dem Zweiten Weltkrieg in Deutschland als akademische Fächer.
Dennoch gibt es eine Tradition der Erforschung des Lehrens und Lernens von Sprachen, die
viel weiter zurückreicht als in die 1960er Jahre, in denen an den Pädagogischen Hochschulen
der Bundesrepublik Deutschland in größerem Umfang Professuren für die Fachdidaktiken
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
in den Sprachenfächern eingerichtet wurden. Wenn man unter Forschung die systematische
Suche nach neuen Erkenntnissen versteht (s. auch Kapitel 2), dann müssen auch die Bemü-
hungen aus früheren Jahrhunderten anerkannt werden, die Ziele, Inhalte, Verfahren und
kontextuelle Einbettung des Sprachenlernens theoretisch oder empirisch genauer zu fassen.
Kelly (1969) charakterisiert zwei Grundtypen früher Forschung zum Sprachenlernen:
The all-important stages of learning a language were developed by two sorts of amateur. One was
the professional grammarian who, for various reasons, found himself in the classroom; the other
was the professional educator who, because of an interest in language, turned to teaching languages.
Erasmus is a good example of the first and Comenius of the second. (Kelly 1969: IX)
Auch wenn Kellys Bezeichnung „amateur“ für Gelehrte wie Erasmus und Comenius nicht
ganz passend erscheint, so besitzt doch seine Unterscheidung in diese beiden Grundtypen
bis in das 20. Jahrhundert hinein Gültigkeit: Ein Interesse an der intensiven Beschäftigung
mit dem Sprachenlernen erwuchs entweder aus der Beschäftigung mit der Sprache oder den
Sprachen selbst, so etwa im Falle von Hermann Breymann, Professor für französische und
englische Sprache an der Münchener Universität von 1875 bis 1909. Breymann, der vor sei-
nem Ruf nach München sieben Jahre lang in England u. a. als Französischlektor selbst Sprach-
unterricht erteilt und Lehrbücher für das Französische verfasst hatte (Riedl 2005: 233), wid-
mete sich als Wissenschaftler sowohl der Erforschung des Provençalischen, der historischen
Entwicklung des Französischen und Spanischen und bestimmten Epochen der englischen
Literatur als auch der inhaltlichen Gestaltung der Lehrerbildung in den neueren Sprachen
und der bibliographischen Aufarbeitung der neusprachlichen Reformbewegung. Seine kom-
mentierten Bibliographien zur Reformbewegung (Breymann 1895, 1900) sind bis heute eine
unverzichtbare Grundlage der fachhistorischen Forschung. Als Vertreter des anderen Typus,
nämlich des Pädagogen, dessen Interesse an Bildungsprozessen im Allgemeinen auch die
sprachliche Bildung im Besonderen umfasst, wäre z. B. Carl Wilhelm Mager zu nennen, der
um die Mitte des 19. Jahrhunderts ein Konzept für eine umfassende Schulbildung entwirft,
in dessen Rahmen dem Unterricht in Sprachen, und zwar sowohl den lebenden als auch den
klassischen Sprachen, besonderer Stellenwert zukommt (Mager 1846). Die von Mager dafür
entwickelte und propagierte „genetische Methode“ wurde zu seiner Zeit in einigen erfolg-
reichen Lehrbüchern umgesetzt (Klippel 1994: 444–447).
Die Klassifizierung in eher linguistisch oder pädagogisch motivierte frühe fremdsprachen-
didaktische Forschung liegt quer zu der heute üblichen Unterscheidung von Grundlagen-
forschung und angewandter Forschung (s. Kapitel 2). Die aktuell gültigen und allgemein
üblichen Güte- und Qualitätskriterien für Forschungsarbeiten (s. Kapitel 2) waren im 19.
und frühen 20. Jahrhundert noch nicht in gleichem Maße bekannt oder selbstverständlich.
Das bedeutet jedoch nicht, dass weit zurückliegende Forschungsarbeiten a priori fehler-
haft oder gar wertlos sind. Man muss sie allerdings – ganz im Sinne einer inneren und
äußeren Quellenkritik (dazu Kapitel 5.3.1) – im Kontext ihrer Zeit lesen und interpretie-
ren.
Geht man vom zeitlichen Rahmen bisheriger großer historischer Abrisse des Fremdspra-
chenlehrens und -lernens aus (Kelly 1969, Germain 1993, Wheeler 2013), dann lassen sich
Überlegungen zum Sprachenlehren und -lernen aus 5000 bis 2500 Jahren belegen. Sicherlich
sind nicht alle diese Überlegungen als Forschung im engeren Sinne einzuordnen, aber die
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Wer forscht?
sisch- und Englischunterricht ist in der ersten Hälfte des 20. Jahrhunderts an Gymnasien und
Mittelschulen etabliert; an den Universitäten sind fast überall Professuren für die neuphilolo-
gischen Fächer eingerichtet, deren Schwerpunkt jedoch weiterhin in der Literaturwissenschaft
und der Historischen Sprachwissenschaft liegt. Erst mit dem Ausbau des Unterrichts in einer
modernen Fremdsprache, meist Englisch, für Schülerinnen und Schüler aller Schulformen
in Folge des Hamburger Abkommens von 1964 und der dadurch erforderlichen Einrichtung
von fremdsprachendidaktischen Professuren an den Pädagogischen Hochschulen, an denen
damals die Lehrkräfte für die nicht-gymnasialen Schulformen ausgebildet wurden, gewinnt
die Fachdidaktik Englisch (vgl. dazu Doff 2008) und in Folge dessen auch die Fachdidaktik
der romanischen Sprachen an wissenschaftlicher Statur und Forschungskapazität. Gleichzeitig
erhöht sich die Zahl der Lehrkräfte erheblich, die für den Sprachunterricht ausgebildet werden
müssen und die als potentielle Rezipienten von Forschungsergebnissen – während der Aus-
bildung oder im Beruf – zu sehen sind.
Im Bereich Deutsch als Fremdsprache erfolgt die Entwicklung mit einiger Verzögerung und
mit anderen Vorzeichen, denn ein wissenschaftliches Fach etabliert sich in der alten Bundes-
republik erst Ende der 1970er Jahre in unterschiedlich enger Verzahnung mit der Germanistik
und mit unterschiedlichen Denominationen (vgl. Götze et al. 2010: 19–20). Für Deutsch als
Fremdsprache geht die Forschungstätigkeit weniger von den praktizierenden Lehrkräften
aus als von den Wissenschaftlerinnen und Wissenschaftlern. Als „Motor der Entwicklung im
Wissenschaftsbereich“ identifizieren Götze et al. (2010: 20–21) ab 1971 den „Arbeitskreis
Deutsch als Fremdsprache“ (AKDaF; heute „Fachverband Deutsch als Fremdsprache“ FaDaF).
In den 1970er Jahren entstehen die einschlägigen DaF-Publikationsorgane wie etwa die Zeit-
schrift „Zielsprache Deutsch“ (ab 1970) und das „Jahrbuch Deutsch als Fremdsprache“ (ab
1975) (vgl. Götze et al. 2010: 21).
1 Die fremdsprachendidaktische Zeitschrift der DDR, „Fremdsprachenunterricht“, enthielt auch Artikel zum
Russischunterricht.
Die hier geschilderte Entwicklung verlief in der DDR etwas anders. So gab es am Leip-
ziger Herder-Institut, an dem seit 1956 Deutschunterricht für ausländische Studierende er-
teilt wurde, bereits ab 1968 eine Professur im Fach Deutsch als Fremdsprache. Die fremd-
sprachendidaktische Forschung in der DDR orientierte sich weitgehend an der russischen
(Psycho-) Linguistik und Pädagogik, während die westdeutsche eher in die USA blickte. Vor
der Wiedervereinigung 1989 wollte oder konnte man sich in BRD und DDR gegenseitig kaum
in den jeweiligen Forschungsbemühungen wahrnehmen (so Hüllen 1991), wenngleich es
etwa im Bereich der fachhistorischen Forschung bereits in den 1980er Jahren auf der Basis
der Initiative einzelner Forscher zu einem wissenschaftlichen Austausch kam (etwa Strauß
1985).
Die große Steigerung der Forschungsaktivität ab den späten 1960er Jahren zeigt sich ein-
drücklich an der wachsenden Zahl von Dissertationen und Habilitationsschriften, die in der
Fremdsprachendidaktik angefertigt werden. Während Sauer (2006) für den Zeitraum von
1900 bis 1962 lediglich 19 einschlägige Arbeiten aufführt, sind es von 1968 bis zum Jahr
2000 insgesamt 355. Ab dem Jahr 2000 erfolgen in Deutschland jährlich im Durchschnitt
zwischen 15 und 25 Promotionen und Habilitationen in den fremdsprachendidaktischen
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Fächern.2 Selbstverständlich sind unter den Promovenden und Habilitanden auch Lehrkräfte
der Sprachenfächer; genaue Zahlen dazu gibt es jedoch nicht. Dennoch hat sich somit in den
letzten 50 Jahren die Forschungstätigkeit eindeutig aus den Schulen in die Universitäten
und Hochschulen verlagert, zumal für Lehrkräfte im Schuldienst eine Promotion keine die
Laufbahn direkt fördernde Qualifikation darstellt. Es ist heutzutage nicht in jedem Bundes-
land zwingend erforderlich, dass bei der Besetzung von fachdidaktischen Professuren in den
Sprachenfächern Schul- oder Unterrichtspraxis nachgewiesen wird. Insofern hat sich auch in
dieser Hinsicht die Forschung aus der Schule heraus verlagert.
2 Zu Zahl und Titeln der Dissertationen und Habilitationen in den fremdsprachendidaktischen Fächern
wird in Fortführung der Chronologie von Sauer (2006) eine jährlich aktualisierte Liste auf der Webseite
der DGFF geführt, die auf Meldungen von Nachwuchswissenschaftler_innen und Professor_innen basiert.
(http://www.dgff.de/de/qualifikationsarbeiten.html 18. 11. 2015 )
betrachtet werden. Gegenwärtig ist das etwa für die generelle Ausrichtung des Fremdspra-
chenunterrichts auf funktionale Sprachfertigkeiten der Fall. Dass dies ein wichtiges Ziel ist,
wird theoretisch kaum hinterfragt; die Mehrzahl der Forschungsvorhaben konzentriert sich
vielmehr auf Fragen nach dem optimalen Gestalten von Lernumgebungen, Aufgaben oder
Leistungsmessung innerhalb des akzeptierten Konzepts.
Solange fremdsprachendidaktische Forschung vor allem durch die Sprachlehrer selbst
erfolgte, standen Fragen nach der methodischen Gestaltung des Unterrichts und nach der
Eignung bestimmter Texte und Materialien im Vordergrund. Die Lern(er)perspektive fin-
det sich in dieser Zeit nur sehr selten. So scheint zwar die kleine Monographie von Felix
Franke (1884) aufgrund ihres Titels „Die praktische Spracherlernung auf Grund der Psycho-
logie und der Physiologie der Sprache dargestellt“ einen Fokus auf das Lernen zu besitzen,
doch geht es Franke vielmehr um die möglichst einsprachige, aus seiner Sicht natürliche
Methode, um Sprachen zu vermitteln. Die nützliche und leider fast vergessene Bibliogra-
phie von Kohl/Schröder (1972), die Veröffentlichungen zur englischen Fachdidaktik und
deren Bezugsfelder bis 1971 aufführt, liefert für die Zeit bis 1960 unter der Rubrik „Der
Fremdsprachen-Lernprozess“ (Kohl/Schröder 1972: 62–65) wesentlich weniger Einträge als
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Thematischer 1843 bis 1970 1971 bis 1999 2000 bis 2014
Schwerpunkt
N = 29 N = 336 N = 282
Inhalte 1 24 % 123 37 % 86 30 %
Lehren, Lehrer 10 34 % 58 17 % 56 20 %
Lernen, Lerner 7 3% 127 38 % 124 44 %
Kontext 12 41 % 28 8% 16 6%
Tabelle 1: Themenbereiche fremdsprachendidaktischer Dissertationen und Habilitationen 1843 bis 2014
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Selbstverständlich kann eine solche Übersicht nur einen groben Trend verdeutlichen, denn
zum ersten sind vermutlich nicht alle Dissertationen und Habilitationen in den benutzten
Übersichten erfasst, zum zweiten lässt sich das Themengebiet aus den Titeln nicht immer
eindeutig bestimmen und zum dritten umgreifen sehr viele Arbeiten vermutlich mehr als
nur einen Schwerpunkt. Dennoch ist die Verlagerung von der Lehrperspektive zur Lern-
perspektive klar zu erkennen. Studien zu den Inhalten des Fremdsprachenunterrichts haben
sich in ihrem Anteil nicht wesentlich verändert, was vor allem darauf zurückzuführen ist,
dass literatur- und kulturdidaktische Untersuchungen in der deutschen Fremdsprachendi-
daktik – anders als etwa im englischsprachigen Raum – seit jeher einen hohen Stellenwert
besitzen.
Wenn man von den drei großen Kategorien von Forschung ausgeht, die auch in diesem Hand-
buch unterschieden werden, nämlich historische, theoretische und empirische Forschung,
dann haben sich die Gewichte in den letzten drei Jahrzehnten stark zur empirischen For-
schung hin verschoben. Vor gut hundert Jahren gab es zwar auch schon erste empirische
Studien zum Fremdsprachenunterricht, der Großteil der Forschung war jedoch eher theo-
retisch-konzeptuell und historisch-beschreibend ausgerichtet. Es ist nicht verwunderlich, dass
die historische Forschung in den letzten Jahrzehnten des 19. und bis in die späten 1960er
Jahre bedeutsam war, denn jede neue Disziplin sucht im Prozess der Selbstdefinition und
Selbstfindung nach historischen Wurzeln und Belegen für eine eventuell schon vorhandene
Tradition.
Während im englischsprachigen Raum mit der Entwicklung der Applied Linguistics nach
einer theoretischen Konsolidierungsphase in den 1960er Jahren (z. B. Halliday/McIntosh/
Strevens 1964) in den letzten Jahrzehnten vor allem empirische Forschungsvorhaben durch-
geführt wurden, blieben die Traditionen der theoretisch-konzeptuellen und der historischen
von Verbundprojekten der Qualitätsoffensive Lehrerbildung (gefördert durch das BMBF) der
Fall. Für die fremdsprachendidaktische Forschung sind auch die Initiativen und Aktivitäten
des IQB (Institut zur Qualitätsentwicklung im Bildungswesen) von großer Bedeutung, mit
denen etwa eine Entwicklung und empirische Validierung von fachspezifischen Aufgaben
erfolgt, die in den Schulen die Erreichung der Bildungsstandards fördern und überprüfen
sollen. Fremdsprachendidaktische Forschung war auch schon früher mit Innovationen und
Entwicklungen im Schulwesen eng verknüpft. Insbesondere die Einführung des Englisch-
unterrichts in der Grundschule führte in den 1970er (Doyé/Lüttge 1977) und frühen 1990er
Jahren (Kahl/Knebler 1996) zu wichtigen Forschungsarbeiten.
Wie geforscht wird und geforscht werden kann, hängt nicht zuletzt auch mit den vor-
handenen Infrastrukturen zusammen. Die fremdsprachendidaktische Forschung hat vor
allem von der Etablierung von Professuren in den letzten fünfzig Jahren profitiert, aber
auch von der Einrichtung des DFG-Schwerpunkts „Sprachlehrforschung“ und der Gradu-
iertenkollegs der DFG. Zwölf Jahre lang, von 1991 bis 2003, bestand das Graduiertenkolleg
„Didaktik des Fremdverstehens“ an der Justus-Liebig-Universität Gießen und hat durch
seine Absolvent_innen, von denen weit mehr als ein Dutzend erfolgreich die Wissenschaft-
ler_innenlaufbahn eingeschlagen haben, die deutsche Forschungslandschaft der fremdspra-
chendidaktischen Fächer in den vergangenen zwanzig Jahren nachhaltig geprägt. Offenbar
gehen eine intensive Nachwuchsförderung und ein bedeutsamer Forschungs-Output Hand
in Hand, wie ein Blick in die Zusammenstellung von Sauer (2006) zeigt. Universitäten, an
denen zahlreiche Dissertationen und Habilitationsschriften entstanden sind (vgl. Sauer 2006:
75–109) – etwa Gießen, Bielefeld, Hamburg, München und Berlin – können auch als for-
schungsstark angesehen werden, wenngleich nicht immer in allen fremdsprachendidaktischen
Fächern.
Der Blick zurück zeigt eine Reihe von parallel und sukzessive verlaufenen Entwicklungen
sowie einige Konstanten. Die fremdsprachendidaktische Forschung hat sich in den letzten
130 Jahren von den Lehrern auf die Wissenschaftler_innen an Universitäten und Hochschulen
verlagert. Neben die Inhalts- und Lehrperspektive ist zunehmend die Lernperspektive als
›› Literatur
Klippel, Friederike (1994). Englischlernen im 18. und 19. Jahrhundert. Die Geschichte der Lehrbücher
und Unterrichtsmethoden. Münster: Nodus.
Klippel, Friederike (2013). Die neusprachliche Reformbewegung im Unterrichtsalltag: Frühe Hand-
lungsforschung. In: Klippel, Friederike/Kolb, Elisabeth/Sharp, Felicitas (Hg.). Schulsprachenpolitik
und fremdsprachliche Unterrichtspraxis. Historische Schlaglichter zwischen 1800 und 1989. Münster:
Waxmann, 125–138.
Kohl, Norbert/Schröder, Konrad (1972). Bibliographie für das Studium der Anglistik III. Englische Fach-
didaktik. 2 Bände. Frankfurt am Main: Athenäum.
Königs, Frank (2003). Teaching and Learning Foreign Languages in Germany: a personal overview of
developments in research. In: Language Teaching 36 (4), 235–251.
Mager, Carl Wilhelm (1846). Die genetische Methode des schulmäßigen Unterrichts in fremden Sprachen
und Litteraturen. 3. Bearb. Zürich: Meyer und Zeller.
Ostermeier, Christiane (2012). Die Sprachenfolge an den höheren Schulen in Preußen (1859–1931).
Stuttgart: ibidem.
Riedl, Michael (2005). Hermann Wilhelm Breymann (1843–1910) – Ein bayerischer Neuphilologe und
Hochschulreformer. In: Hüllen, Werner/Klippel, Friederike (Hg.). Sprachen der Bildung – Bildung
durch Sprachen im Deutschland des 18. und 19. Jahrhunderts. Wiesbaden: Harrassowitz, 229–246.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Sauer, Helmut (2006). Dissertationen, Habilitationen und Kongresse zum Lehren und Lernen fremder
Sprachen. Eine Dokumentation. Tübingen: Narr.
Seidelmann, Christian Friedrich. (1724 / 1984). Tractatus Philosophico-Philologicus de Methodo Recte
Tractandi Linguas Exoticas Speciatim Gallicam, Italicam et Anglicam. Facsimile und Übersetzung
von Franz-Josef Zapp and Konrad Schröder 1984. Augsburg: Universität Augsburg.
Smith, Richard (2016). Building ‚Applied Linguistics Historiography‘: Rationale, Scope, Methods. In:
Applied Linguistics 37, 71–87.
Strauß, W. H. (Hg.) (1985). 150 Jahre Methodik des Englischunterrichts als Wissenschaft und akademi-
sches Lehrfach. Probleme und Entwicklungstendenzen in Vergangenheit und Gegenwart. Interna-
tionales Symposium aus Anlaß des 575-Gründungsjubiläums der Universität Leipzig am 25. und
26. Oktober 1984. Augsburg: Universität.
Wheeler, Garon (2013). Language Teaching Through the Ages. New York und London: Routledge.
Friederike Klippel
Die Beschäftigung mit der Geschichte von Fächern und Disziplinen hat in den Fachdidaktiken
eine gewisse Tradition, wenngleich fachhistorische Forschung meist nur ein Minderheiten-
interesse darstellt. Der Großteil gegenwärtiger Forschungstätigkeit in der Fremdsprachendi-
daktik befasst sich verständlicherweise mit Fragen, die aus der Gegenwart erwachsen oder die
nahe Zukunft der Fachdidaktiken und ihres Praxisfelds betreffen und nimmt dazu vorliegende
Forschungsergebnisse nur aus einem Zeitraum von wenigen Jahren zur Kenntnis. Bestenfalls
findet man in den jeweiligen Einleitungen kurze Hinweise auf die Genese des Forschungs-
feldes und einige seiner früheren Erträge. Weiter zurückliegende Forschung wird in der Regel
bei dieser ‚Einleitungshistorie‘ kaum berücksichtigt; auch findet eine intensive Auseinander-
setzung mit Traditionen, früheren theoretischen Überlegungen und gelebter Praxis meistens
nicht statt. Dadurch gehen wichtige Erkenntnisse, weiterhin gültige theoretische Annahmen
und Wissensbestände sowie auch das Wissen über erfolgreiche Praktiken verloren. Es bedarf
daher auch der gezielten historischen Forschung.
Historische Forschung in der Fremdsprachendidaktik kann insofern eine gewisse fachliche
Kontinuität herstellen, ein Bewusstsein für fundamentale Fragen und Entwicklungen schaffen
und zur Selbstreflexion und Selbstvergewisserung der Disziplin beitragen. In der rückbli-
ckenden Analyse von Entwicklungen, Theorien, Praktiken, Materialien und institutionellen
sowie individuellen Lehr-/Lernsituationen besitzt die fachdidaktisch historische Forschung
Schnittstellen zu historischer Bildungsforschung und zur Wissenschaftsgeschichte ebenso
wie zu Ideen- und Kulturgeschichte, denn Lehren und Lernen war immer Teil kultureller
Praktiken.
Die Forschung zur Geschichte des Fremdsprachenlehrens und -lernens setzt in Deutschland
gegen Ende des 19. Jahrhunderts ein. Das erklärt sich aus einer Reihe von Entwicklungen:
Zum ersten etablierten sich im Verlauf des 19. Jahrhunderts sowohl die modernen Sprachen
als Unterrichtsfächer an den höheren Schulen als auch die Neuphilologien als forschende und
lehrerbildende Disziplinen an den Universitäten; zum zweiten entstand im Zuge dieser Kon-
solidierungen eine selbstbewusste, gebildete und wissenschaftlich interessierte Lehrerschaft,
deren forschende Neugier sich auch auf die historischen Wurzeln des eigenen Tuns richteten.
Zum dritten gab es mit den ab 1824 jährlich zu erstellenden Schulprogrammen, die jeweils
auch einen wissenschaftlichen Beitrag enthielten (s. Klippel 1994: 302) und den gegen Ende
des 19. Jahrhunderts zunehmend verbreiteten pädagogischen Lexika und Handbüchern (z. B.
Rein 1895) sowie der steigenden Zahl an pädagogischen und neuphilologischen Zeitschriften
zahlreiche Möglichkeiten zur Publikation historischer Arbeiten.
Das Interesse dieser frühen historischen Arbeiten richtete sich zum ersten auf die Dar-
stellung der Entwicklung des Unterrichts in den modernen Fremdsprachen in früheren Jahr-
hunderten im Allgemeinen (Lehmann 1904, Boerner/Stiehler 1906), in bestimmten Regionen
(z. B. Ehrhart 1890 zu Württemberg), an bestimmten Institutionen (z. B. zu Berliner Handels-
schulen Gilow 1906, zur Universität Gießen Behrens 1907), im Hinblick auf bestimmte Lehr-
/ Lernmaterialien (zu Comenius siehe Liese 1904, zu Johann König siehe Driedger 1907,
zu Grammatiken siehe Horn 1911) oder auf die Vermittlung einzelner Sprachen, wie des
Französischen (Dorfeld 1892, Streuber 1914, Huth 1905) oder Englischen (Pariselle 1895,
Junker 1904).
Für die gegenwärtige historische Forschung liefern diese frühen Schriften, denen aus heu-
tiger Perspektive natürlich in gewisser Weise auch der Status historischer Quellen zukommt,
aufschlussreiche Einblicke in die damalige Sicht auf die Vergangenheit, die von den Diskursen
ihrer Entstehungszeit – etwa im Sinne der Positionierung im Hinblick auf die Neusprachenre-
form – geprägt ist. Wichtiger für die heutige Forschung sind diese Veröffentlichungen jedoch
als Belege zu den Quellen früherer Jahrhunderte, von denen viele die Weltkriege und deren
Zerstörungen nicht überdauert haben.
Es ist für die heutige Forschung zudem ein großer Vorteil, dass die Fremdsprachendidakti-
ker der Wende vom 19. zum 20. Jh nicht nur eigene historische Untersuchungen durchgeführt
haben, sondern auch die Publikationen ihrer Zeit akribisch recherchiert und als bibliogra-
phische Hilfsmittel zusammengestellt haben. Eine besondere Position nimmt dabei die von
Hermann Breymann über einen längeren Zeitraum publizierte Bibliographie zur neusprach-
lichen Reformliteratur (Breymann 1895, 1900; Breymann/Steinmüller 1905, 1909) ein, die
die Beiträge der Neusprachenreformer und ihrer Gegner nicht nur bibliographisch aufführt,
sondern auch kommentiert, so dass der Diskurs im Kontext seiner Zeit aus der Sicht des
Bibliographen abgebildet wird, der weder ein radikaler Reformer noch ein Reformgegner
war. Eine bedeutsame Rolle spielen auch die ab der Mitte des 19. Jahrhunderts erscheinen-
den Enzyklopädien zum Studium der neueren Sprachen, in denen zahlreiche Hinweise auf
Lehrwerke, Literatur, Zeitschriften, einschlägige zeitgenössische Veröffentlichungen und den
jeweiligen Kenntnisstand zu einzelnen Bereichen der Sprachen und ihrer Vermittlung zu
finden sind (siehe etwa Schmitz 1859, Wendt 1893).
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Nach der ersten Blüte der historischen Forschung zum Fremdsprachenunterricht um 1900
gibt es für die Zeit bis zum Ende des zweiten Weltkriegs nur ein größeres Werk, das auch
heute noch nicht überholt ist, nämlich Wilhelm Aehles Untersuchung zum frühen Englisch-
unterricht insbesondere an den Ritterakademien (Aehle 1938). Man kann eventuell davon
ausgehen, dass die durch die nationalsozialistische Schulpolitik vorgenommene Aufwertung
des Englischen gegenüber dem bis dahin klar dominierenden Französisch die Erforschung der
Anfänge des Englischunterrichts in Deutschland motiviert hat. Wie schwierig sich damals die
historische Forschung aufgrund der Rahmenbedingungen gestaltete, erkennt man an Aehles
Vermutung, dass sich wohl kein Englischbuch aus dem 18. Jahrhundert mehr auffinden lasse,
wenn selbst die Bibliothek des traditionsreichen Gymnasiums zum Grauen Kloster in Berlin
kein Exemplar des Ende des 18. Jahrhunderts an der Schule verwendeten Buches von Gedike
mehr besitze (siehe Aehle 1938: 222–223). Heute bestehen aufgrund des hervorragend ver-
netzten und leicht digital zugänglichen Bibliotheks- und Archivwesens wesentlich bessere
Voraussetzungen für die historische Forschung und auch zahlreiche Lehrwerke des 18. Jahr-
hunderts sind noch vorhanden (siehe Klippel 1994, Turner 1978).
In den 1960er Jahren setzte die historische Forschung zum Lehren und Lernen von Spra-
chen wieder ein und stellt bis heute einen stetigen, wenngleich geringen Anteil aller For-
schungsarbeiten im Feld der Fremdsprachendidaktiken, wie man aus der Chronologie bei
Sauer (2006) ersehen kann. Vier Dissertationen aus den 1960er Jahren zeigen zum einen
die nun gefestigte Vorrangstellung des Englischen, denn sowohl Sauer (1968, zum Englisch-
unterricht in der Volksschule) als auch Schröder (1969, zum Englischunterricht an den Uni-
versitäten bis 1850) befassen sich ausschließlich mit der Vermittlung des Englischen, während
Flechsig (1962) und Rülcker (1969) Entwicklungen der neusprachlichen Bildung und des
neusprachlichen Unterrichts über längere Zeiträume untersuchen.
Aus Konrad Schröders Beschäftigung mit der Geschichte des Sprachenlernens an Univer-
sitäten im deutschsprachigen Raum erwuchs eine überaus fruchtbare und ertragreiche Tätig-
keit als Bibliograph und Chronist, deren Ergebnis zahlreiche nützliche Nachschlagewerke
zu Lehrbüchern, Lernorten und Sprachenlehrenden vergangener Jahrhunderte sind (etwa
Schröder 1975, Schröder 1980–1985, Schröder 1987–1999, Glück/Schröder 2007). Es ist in
der Tat ein Kennzeichen der historischen Forschung des letzten Drittels des 20. Jahrhunderts,
dass die Erschließung und Aufarbeitung der Vergangenheit in zahlreichen Bibliographien und
Quellensammlungen ihren Niederschlag findet, die bestimmte Felder kartieren und in Folge
anderen Forschern als Arbeitsmittel zur Verfügung stehen (z. B. Flechsig 1965 und Hüllen
1979 mit Primärquellen, von Walter 1977 zu Schulprogrammschriften, Christ/Rang 1985 zu
Lehrplänen, Macht 1986–1990 zu Lehrbüchern; neuerdings die Arbeiten von Helmut Glück
und anderen in der Reihe „Fremdsprachen in Geschichte und Gegenwart“). Somit sind die
Voraussetzungen für historische Forschung am Ende des 20. und zu Beginn des 21. Jahr-
hunderts sehr viel besser als jemals zuvor.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Der leichtere Zugriff auf die Quellen mag dazu beigetragen haben, dass ab den 1980er
Jahren die Forschungsfragen spezifischer und/oder die untersuchten Zeiträume kürzer wer-
den. Dabei geraten zunehmend auch zeitgeschichtliche Entwicklungen in den Blick, wie etwa
die Zeit der Kulturkunde (Mihm 1972), die des Nationalsozialismus (Lehberger 1986 zum
Englischunterricht, Hausmann 2000 zur Romanistik bzw. Hausmann 2003 zu Anglistik und
Amerikanistik an den Universitäten), die Nachkriegszeit (Ruisz 2014), die Zeit zwischen
1945 und 1989 (Doff 2008) oder die Epoche des kommunikativen Fremdsprachenunterrichts
(Kolb 2013). Zugleich verengt sich der Fokus der einzelnen Arbeiten auf spezifische Fragestel-
lungen: so analysiert Franz (2005) die speziell für deutsche Auswanderer nach Nordamerika
veröffentlichten Sprachführer im 19. Jahrhundert; Ostermeier (2012) untersucht die Debatte
um die Sprachenfolge an höheren Schulen im 19. Jahrhundert und Schleich (2015) stellt auf
breiter Quellenbasis die Anfänge des internationalen Schülerbriefwechsels vor dem ersten
Weltkrieg dar.
Das 19. Jahrhundert spielt zu Recht eine wichtige Rolle in der fremdsprachendidaktischen
historischen Forschung, denn in dieser Zeit wurden wesentliche Grundlagen für den moder-
nen Sprachunterricht in institutioneller (Lehrpläne, Stundentafeln), materieller (Schulbücher,
Materialien, Medien), personeller (Lehrer) und wissenschaftlicher (Lehrerbildung, Forschung)
Hinsicht gelegt. Nicht alle dieser Aspekte wurden bisher gleichermaßen untersucht. So wissen
wir Näheres nur über wenige wichtige Aktanden dieser Zeit – etwa über V. A. Huber und
S. Imanuel (Haas 1990) oder Julius Ostendorf (Ostermeier 2012) –; viele wichtige Persönlich-
keiten, wie etwa Ludwig Herrig oder Carl Mager, jedoch harren noch darauf, in ihrem Wirken
und ihren Werken näher erforscht zu werden. Die Entstehung neuphilologischer Lehrstühle
an den Universitäten ist gut dokumentiert und analysiert (z. B. Haenicke 1979, Finkenstaedt
1983, Christmann 1985), doch wurde bislang die Lehrerbildung nur punktuell einbezogen
(Haenicke 1982). Die mit dem Fremdsprachenunterricht verknüpften Bildungsvorstellungen
und außersprachlichen, kulturellen Inhalte untersuchen Flechsig (1962) und Raddatz (1977).
Einzelne Forschungsarbeiten zu dieser Epoche widmen sich der Entwicklung von Medien
(z. B. Schilder 1977, Reinfried 1992) sowie Lehr- und Lesebüchern (Diehl 1975, Bode 1980,
Niederländer 1981, Klippel 1994); dabei wird die Methode der historischen Lehrbuchanalyse
zunehmend verfeinert.
Schwierig ist es, aus historischer Sicht etwas zu den konkreten Lernbedingungen in den
Schulen der Vergangenheit und den Lernenden selbst herauszufinden. Selbstverständlich ge-
hen alle Untersuchungen vom „Normalfall“ aus; für das 19. Jahrhundert sind das die höheren
Schulen, die Knaben vorbehalten waren. Die wegweisende Studie von Sabine Doff (2002)
zum Fremdsprachenlernen von und Fremdsprachenunterricht für Mädchen im 19. Jahrhun-
dert liefert Einsichten in ein anderes, aus heutiger Sicht moderneres Konzept von Sprachen-
lernen. In Kubanek-German (2001) wird die Ideengeschichte des Fremdsprachenunterrichts
für jüngere Kinder aufgearbeitet.
Die Lernenden im privaten oder schulischen Umfeld sind immer Ziel des methodischen
Bemühens des Sprachmeisters oder Sprachlehrers. Die Frage nach der richtigen, der besten,
der effektivsten, der natürlichsten Methode der Sprachvermittlung hat nicht nur die Sprach-
lehrer aller Zeiten beschäftigt, sie ist auch in der historischen Forschung sehr präsent. Neben
Dokumentationen (Macht 1986–1990) und Überblicksdarstellungen zur Methodenentwick-
lung (Apelt 1991, Klippel 1994) finden sich auch Untersuchungen zur Rolle der Muttersprache
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
(Butzkamm 1973). Alle diese Untersuchungen stammen aus dem 20. Jahrhundert, und es ist
bemerkenswert, dass gerade in jüngerer Zeit keine historischen Arbeiten zu fremdsprachen-
unterrichtsmethodischen Fragen mehr entstanden sind.
Zu den historischen fremdsprachendidaktischen Forschungsfeldern zählt auch die Ge-
schichte des Deutschunterrichts in anderen Ländern (z. B. Wegner 1999, Eder 2006) und die
Geschichte des Unterrichts in anderen als den gängigen Schulfremdsprachen.
Auch wenn es angesichts der zahlreichen historischen Untersuchungen aus gut einhundert
Jahren und der großartigen Synthesen von Hüllen (2005) und Kuhfuß (2013) so scheinen
mag, als lägen Erkenntnisse für alle Epochen und Aspekte der Geschichte des Sprachenlernens
und -lehrens der unterschiedlichen Sprachen vor, gibt es doch weiterhin viele weiße Flecken
auf der Landkarte der Vergangenheit.
Nimmt man das Didaktische Dreieck mit seinen drei „Ecken“ Lehrer-Lerner-Stoff als Aus-
gangspunkt, dann fehlen historische Untersuchungen zu Lehrerbildung und Lehrerverhalten,
wenngleich letzteres natürlich nur sehr schwer zu rekonstruieren ist. Dass die Frage nach der
Entwicklung von Unterrichtsmethoden, die ja gerade im 20. Jahrhundert viele Wandlungen
erfahren haben, bislang keine Aufmerksamkeit erfahren hat, wurde bereits erwähnt. Aber
auch die konkreten Verkörperungen von Methoden, nämlich Lehrmaterialien und Hand-
bücher für den Unterricht, wurden bisher nur punktuell aus historischer Perspektive unter-
sucht. Die Geschichte der Medien ist noch nicht bis in die Gegenwart fortgeschrieben worden.
Im Hinblick auf die Lernenden existiert keine Sozialgeschichte der Fremdsprachenlerner,
deren altersmäßige und soziale Zusammensetzung sich insbesondere im 20. Jahrhundert stark
verändert hat. Auch ein Überblick über die Entwicklung der Sprachlerntheorien und deren
verwendete Begrifflichkeiten nicht ohne weiteres als identisch mit heutigen gleichlautenden
Konzepten angesehen, sondern vielmehr konzeptuell analysiert werden. Fremdsprachendi-
daktische historische Forschung hat sich insofern als eigenständiger Forschungszweig auch
in methodologischer Hinsicht etabliert.
›› Literatur
Aehle, Wilhelm (1938). Die Anfänge des Unterrichts in der englischen Sprache besonders auf den Ritter-
akademien. Hamburg: Riegel.
Apelt, Walter (1991). Lehren und Lernen fremder Sprachen. Grundorientierungen und Methoden in
historischer Sicht. Berlin: Volk und Wissen.
Behrens, Dietrich (1907). Zur Geschichte des neusprachlichen Unterrichts an der Universität Gießen. In:
Universität Gießen (Hrsg.) (1907). Die Universität Gießen von 1607 bis 1907. Festschrift zur dritten
Jahrhundertfeier. Zweiter Band. Gießen: Töpelmann, 329–356.
Bode, Hans (1980). Die Textinhalte in den Grundschen Französischlehrbüchern. Eine fachdidaktische
Untersuchung von Lesestoffen französischer Sprachlehrbücher für höhere Schulen in Deutschland
zwischen 1913 und 1969. Frankfurt/Main: Lang.
Boerner, Otto /Stiehler, Ernst (1906). Zur Geschichte der neueren Sprachen. In: Neue Jahrbücher für das
klassische Altertum, Geschichte und deutsche Literatur und für Pädagogik 18, 334–351, 392–412,
459–471.
Breymann, Hermann (1895). Die neusprachliche Reformliteratur von 1876 bis 1893. Eine bibliogra-
phisch-kritische Übersicht. Leipzig : Deichert.
Breymann, Hermann (1900). Die neusprachliche Reformliteratur. Ergänzungsheft für den Zeitraum von
1894 bis 1899. Leipzig: Deichert.
Breymann, Hermann/Steinmüller, Georg (1905). Die neusprachliche Reformliteratur. Ergänzungsheft
für den Zeitraum von 1896 bis 1904. Leipzig: Deichert.
Breymann, Hermann/Steinmüller, Georg (1909). Die neusprachliche Reformliteratur. Ergänzungsheft
für den Zeitraum von 1904 bis 1909. Leipzig: Deichert.
Eder, Ulrike (2006). „Auf die mehrere Ausbreitung der teutschen Sprache soll fürgedacht warden.“
Deutsch als Fremd- und Zweitsprache im Unterrichtssystem der Donaumonarchie zur Regierungszeit
Maria Theresias und Josephs II. Innsbruck: Studien Verlag.
Ehrhart, o.V. (1890). Geschichte des fremdsprachlichen Unterrichts in Württemberg. In: Korrespondenz-
Blatt für die Gelehrten- und Realschulen Württembergs 37, 281–308.
Finkenstaedt, Thomas (1983). Kleine Geschichte der Anglistik in Deutschland. Darmstadt: Wissenschaft-
liche Buchgesellschaft.
Flechsig, Karl-Heinz (1962). Die Entwicklung des Verständnisses der neusprachlichen Bildung in
Deutschland. Diss. phil. Göttingen.
Flechsig, Karl-Heinz (Hg.) (1965). Neusprachlicher Unterricht I. Weinheim: Beltz.
Franz, Jan (2005). Englischlernen für Amerika! Sprachführer für deutsche Auswanderer im 19. Jahr-
hundert. München: Langenscheidt.
Gilow, Hermann (1906). Das Berliner Handelsschulwesen des 18. Jahrhunderts im Zusammenhange mit
den pädagogischen Bestrebungen seiner Zeit dargestellt. Berlin: Hofmann.
Glück, Helmut/Schröder, Konrad (2007). Deutschlernen in den polnischen Ländern vom 15. Jahrhundert
bis 1918. Eine teilkommentierte Bibliographie. Wiesbaden: Harrassowitz.
Haas, Renate (1990). V. A. Huber, S. Imanuel und die Formationsphase der deutschen Anglistik. Frank-
furt/Main: Lang.
Haenicke, Gunta (1979). Zur Geschichte der Anglistik an deutschsprachigen Universitäten 1850–1925.
Augsburg: Universität Augsburg.
Haenicke, Gunta (1982). Zur Geschichte des Faches Englisch in den Prüfungsordnungen für das Höhere
Lehramt 1831–1942. Augsburg: Universität Augsburg.
Hausmann, Frank-Rutger (2000). Vom Strudel der Ereignisse verschlungen. Deutsche Romanistik im
Dritten Reich. Frankfurt/Main: Klostermann.
Hausmann, Frank-Rutger (2003). Anglistik und Amerikanistik im „Dritten Reich“. Frankfurt/Main:
Klostermann.
Horn, Jacob (1911). Das englische Verbum nach den Zeugnissen von Grammatikern des 17. und 18. Jahr-
hunderts. Diss. phil. Gießen.
Hüllen, Werner (Hg.) (1979). Didaktik des Englischunterrichts. Darmstadt: Wissenschaftliche Buch-
gesellschaft.
Hüllen, Werner (2005). Kleine Geschichte des Fremdsprachenlernens. Berlin: Schmidt.
Huth, G. (1905). Geschichte von Unterrichtsgegenständen. Französisch. In: Mitteilungen der Gesellschaft
für deutsche Erziehungs- und Schulgeschichte, 15, 327–333.
Junker, H. P. (1904). Englischer Unterricht, geschichtlicher Abriß. In: Rein, Wilhelm (Hg.) Enzyklopä-
disches Handbuch der Pädagogik. 2. Aufl. Langensalza: Beyer & Mann, 406–421.
Klippel, Friederike (1994). Englischlernen im 18. und 19. Jahrhundert. Die Geschichte der Lehrbücher
und Unterrichtsmethoden. Münster: Nodus.
Kolb, Elisabeth (2013). Kultur im Englischunterricht: Deutschland, Frankreich und Schweden im Ver-
gleich (1975–2011). Heidelberg: Carl Winter.
Kubanek-German, Angelika (2001). Kindgemäßer Fremdsprachenunterricht. Band 1: Ideengeschichte.
Münster: Waxmann.
Kuhfuß, Walter (2013). Eine Kulturgeschichte des Französischunterrichts in der frühen Neuzeit. Fran-
zösischlernen am Fürstenhof, auf dem Marktplatz und in der Schule in Deutschland. Göttingen:
Vandenhoeck & Ruprecht.
Lehberger, Reiner (1986). Englischunterricht im Nationalsozialismus. Tübingen: Stauffenburg.
Lehmann, Alwin (1904). Der neusprachliche Unterricht im 17. und 18. Jahrhundert, insbesondere seine
Methode im Lichte der Reform der Neuzeit. In: Jahresbericht der Annenschule zu Dresden-Altstadt.
Liese, Ernst (1904). Des J. A. Comenius Methodus Linguarum Novissima. Inhalt und Würdigung. Bonn:
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Carl Georgi.
Macht, Konrad (1986–1990). Methodengeschichte des Englischunterrichts. 3 Bände. Augsburg: Univer-
sität Augsburg.
Mihm, Emil (1972). Die Krise der neusprachlichen Didaktik. Eine systeminterne Ortsbestimmung.
Frankfurt/Main: Hirschgraben.
Niederländer, Helmut (1981). Französische Schulgrammatiken und schulgrammatisches Denken in
Deutschland von 1850 bis 1950. Ein Beitrag zur Lehrwerkanalyse. Frankfurt/Main: Lang.
Ostermeier, Christiane (2012). Die Sprachenfolge an den höheren Schulen in Preußen (1859–1931). Ein
historischer Diskurs. Stuttgart: ibidem-Verlag.
Pariselle, o.V. (1895). Englischer Unterricht, geschichtlicher Abriß. In: Rein, Wilhelm (Hg.). Encyklopä-
disches Handbuch der Pädagogik. Langensalza: 834–838.
Raddatz, Volker (1977). Englandkunde im Wandel deutscher Erziehungsziele 1886–1945. Kronberg/
Ts.: Scriptor.
Rein, Wilhelm (Hg.) (1895). Encyklopädisches Handbuch der Pädagogik. Langensalza: Beyer.
Reinfried, Marcus (1992). Das Bild im Fremdsprachenunterricht. Eine Geschichte der visuellen Medien
am Beispiel des Französischunterrichts. Tübingen: Narr.
Ruisz, Dorottya (2014). Umerziehung durch Englischunterricht? US-amerikanische Reeducation-Politik,
neuphilologische Orientierungsdebatte und bildungspolitische Umsetzung im nachkriegszeitlichen
Bayern (1945–1955). Münster: Waxmann.
Rülcker (1969). Der Neusprachenunterricht an höheren Schulen. Frankfurt/Main: Diesterweg.
Sauer, Helmut (1968). Fremdsprachen in der Volksschule. Untersuchungen zur Begründung des Eng-
lischunterrichts für alle. Hannover: Schroedel.
Sauer, Helmut (2006). Dissertationen, Habilitationen und Kongresse zum Lehren und Lernen fremder
Sprachen. Eine Dokumentation. Tübingen: Narr.
Schilder, Hanno (1977). Medien im neusprachlichen Unterricht seit 1880. Eine Grundlegung der An-
schauungsmethoden und der auditiven Methode unter entwicklungsgeschichtlichem Aspekt. Kron-
berg/Ts.: Scriptor.
Schleich, Marlis (2015). Geschichte des internationalen Schülerbriefwechsels. Entstehung und Entwick-
lung im historischen Kontext von den Anfängen bis zum Ersten Weltkrieg. Münster: Waxmann.
Schmitz, Bernhard (1859). Encyklopädie des philologischen Studiums der neueren Sprachen. Greifs-
wald: Koch.
Schröder, Konrad (1969). Die Entwicklung des englischen Unterrichts an deutschsprachigen Univer-
sitäten bis zum Jahre 1850. Ratingen: Henn.
Schröder, Konrad (1975) Lehrwerke für den Englischunterricht im deutschsprachigen Raum 1665–1900.
Darmstadt: Wissenschaftliche Buchgesellschaft.
Schröder, Konrad (1980–1985). Linguarum Recentium Annales. Der Unterricht in den modernen euro-
päischen Sprachen im deutschsprachigen Raum. 4 Bände. Augsburg: Universität Augsburg.
Schröder, Konrad (1987–1999). Biographisches und bibliographisches Lexikon der Fremdsprachenlehrer
des deutschsprachigen Raumes, Spätmittelalter bis 1800. 6 Bände. Augsburg: Universität Augsburg.
Streuber, Albert (1914). Beiträge zur Geschichte des französischen Unterrichts im 16. bis 18. Jahr-
hundert. Teil 1: Die Entwicklung der Methoden im allgemeinen und das Ziel der Konversation im
besonderen. Berlin: Emil Ebering.
Turner, John Frank (1978). German Pedagogic Grammars of English 1665–1750. The Nature and Value
of Their Evidence of Language Usage in Early Modern English. Diss. Braunschweig.
Walter, Anton von (1977). Bibliographie der Programmschriften zum Englischunterricht. Augsburg:
Universität Augsburg.
Wegner, Anke (1999). 100 Jahre Deutsch als Fremdsprache in Frankreich und in England. Eine ver-
gleichende Studie von Methoden, Inhalten und Zielen. München: iudicium.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Wendt, Otto (1893). Encyklopädie des englischen Unterrichts. Methodik und Hilfsmittel für Studierende
und Lehrer der englischen Sprache mit Rücksicht auf die Anforderungen der Praxis. Hannover: List,
Meyer.
Michael K. Legutke
Neben der historischen und der empirischen Forschung zählt die theoretische Forschung
zu den bedeutsamen Arbeitsbereichen der Fremdsprachendidaktik. Theoretische Forschung
zeichnet sich dadurch aus, dass sie bemüht ist, den Gegenstandsbereich Lehren und Lernen
von Fremdsprachen und seine verschiedenen Teilbereiche zu bestimmen, zu systematisieren,
Konzepte zu entwickeln bzw. diese einer kritischen Reflexion zu unterziehen und/oder an-
gesichts gesellschaftlicher Entwicklungen und neuerer Forschungsergebnisse weiter zu ent-
wickeln. Theoretische Forschung ordnet empirische Befunde, systematisiert Phänomene des
Gegenstandsbereiches, entwirft handlungsleitende Modelle und erörtert deren Grenzen und
Reichweite. Sie gewinnt Erkenntnisse in Auseinandersetzung sowohl mit der Theoriebildung
innerhalb der Fremdsprachendidaktik als auch mit Konzeptbildungen und Erkenntnissen af-
finer Wissenschaftsdisziplinen (wie der Spracherwerbsforschung, der Bildungswissenschaften,
der Sozialwissenschaften, der Linguistik und der Kultur- und Medienwissenschaften). Theo-
retische Arbeiten sind nicht gleichzusetzen mit der Literaturanalyse, die als Voraussetzung
jeder Art wissenschaftlicher Forschung zu gelten hat, sondern schließen diese ein (vgl. Ka-
pitel 6.3 Literaturüberblick und Forschungsstand).
Eine Möglichkeit der Systematisierung theoretischer Forschung bieten ihre unterschied-
lichen Funktionen. Diese sollen zunächst unter Berücksichtigung exemplarischer Arbeiten
skizziert werden. Danach werden vier Meilensteine theoretischer Forschung in der Fremd-
Die folgende Zusammenstellung erhebt nicht den Anspruch auf Vollständigkeit, sondern
bietet die Möglichkeit der Orientierung in einem weiten Feld teils sehr unterschiedlicher For-
schungsaktivitäten. Die zur Verdeutlichung herangezogenen Arbeiten haben exemplarischen
Charakter. Soweit als möglich wurden Studien zu unterschiedlichen Fremdsprachen berück-
sichtigt. Die zur Bezeichnung von Typen und Funktionen theoretischer Forschung gewählten
Begriffe sind nicht trennscharf. Auch wenn deshalb Mehrfacheinordnungen möglich sind,
bieten Typen und Funktionen eher die Möglichkeit der Systematisierung und Orientierung
als ein Versuch, theoretische Forschung über ihren Bezug zu affinen Wissenschaftsdiszipli-
nen zu bündeln. Selbst Arbeiten, die vorwiegend einer Disziplin verpflichtet scheinen, wie
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
die folgenden Beispiele und die Meilensteine zeigen, belegen, dass die Faktorenkomplexion
fremdsprachlichen Lehrens und Lernens fachdidaktische Forschungsgegenstände nur durch
interdisziplinäre Zugriffe analysierbar macht.
der rezeptionstheoretischen Lesetheorien heraus, die sie vergleichend analysiert, um auf die-
sem Hintergrund das kreative Potenzial fremdsprachlicher literarischer Texte zu erfassen, das
in unterrichtlichen Lehr- und Lernprozessen genutzt werden kann. Caspari wertet dabei ein
breites Spektrum dokumentierten Unterrichts und problematisierender fachdidaktischer Ar-
beiten aus. (3) Aus der Perspektive des Deutschen als Fremdsprache skizziert Swantje Ehlers
(1998) in ihrer Arbeit Lesetheorie und fremdsprachliche Lesepraxis einen theoretischen Ent-
wurf für eine fremdsprachliche Lesedidaktik („Ansätze einer fremdsprachlichen Leselehre“),
die der Eigengesetzlichkeit fremdsprachlichen Lesens Rechnung tragen soll. Sie wertet dazu
lesetheoretische Positionen zum Lesen in der Erst- und Zweisprache aus, bündelt entwick-
lungs- und kognitionspsychologische Forschung, um dann die Besonderheiten fremdsprach-
lichen Lesens zu fokussieren. Dabei setzt sie sich kritisch mit der empirischen Leseforschung
in der Fremdsprachendidaktik auseinander.
Dem hier angesprochenen Typus wären auch Arbeiten zuzuordnen wie die von Corinna
Koch (2013) und Elena Bellavia (2007), die das fremdsprachendidaktische Potenzial der Meta-
pher untersuchen. Bellavia fokussiert Deutsch als Fremdsprache, Koch die Sprachen Englisch,
Französisch und Spanisch. Die Theoriebildung ermöglicht es beiden Autorinnen, ein Instru-
ment zur kritischen Analyse und Optimierung von Lehrmaterial zu entwickeln.
3 Modellbildung
Die Entwicklung und kritische Erörterung von Modellen gehört zu den zentralen Aufgaben
theoretischer Forschung, denn Modelle haben die Funktion, komplexe Zusammenhänge und
Abläufe verständlich zu machen – sie sind ein notwendiger Teil von Theoriebildung, die des-
halb auch ohne Modelle nicht vorstellbar ist. Insofern arbeiten alle bisher erwähnten Beispiele
mit mehr oder weniger expliziten Modellen. Wenn hier dennoch ein eigener Typus theo-
retischer Arbeiten markiert wird, so geschieht dies im Anschluss an die Tradition didaktischer
3 Zur wissenschaftsgeschichtlichen Einordnung der Arbeiten von Butzkamm und zu seinem Beitrag zur
Konstitution der Fremdsprachendidaktik als Wissenschaft vgl. Doff 2008: 216–17.
beiten ordnen, nämlich nach solchen, die sich mit einem Lehrwerksystem oder Materialien
einer Fremdsprache befassen und solchen, die lehrwerkvergleichend mehrere Fremdsprachen
berücksichtigen. Innerhalb der beiden Gruppen kann nach den Bezugstheorien unterschieden
werden, aus denen die Analysekriterien entwickelt werden. So bestimmen beispielsweise
lerntheoretische Überlegungen die Studie von Dietmar Rösler (1984) zum Spannungsver-
hältnis von Lernerbezug und vorgefertigtem Lehrmaterial für Deutsch als Fremdsprache.
Politik- und sozialwissenschaftlich orientiert ist die Analyse von Angelika Kubanek-Ger-
man (1987): Dritte Welt im Englischlehrbuch der Bundesrepublik Deutschland. Aspekte der
Darstellung und Vermittlung. Methodengeschichtliche Kriterien bestimmen die Studie von
Lilli-Marlen Brill (2005), die am Beispiel von Lehrwerken zu Deutsch als Fremdsprache die
These überprüft, ob Lehrwerkgenerationen als Ausdruck bestimmter Vermittlungsmethoden
gelten müssen. Als prägnante Vertreter theoriegeleiteter, vergleichender Lehrwerkanalyse für
mehrere Sprachen können die Studie von Dagmar Abendroth-Timmer (1998) und Christian
Thimme (1996) gelten. Abendroth-Timmer vergleicht Lehrwerke zu den Sprachen Deutsch,
Französisch und Russisch in Hinblick auf landeskundliches und interkulturelles Lernen. Für
Thimme ist die Behandlung landeskundlicher, insbesondere geschichtlicher Aspekte in Lehr-
werken für Deutsch und Französisch Forschungsgegenstand.
Für den Komplex der Auswahl von Lehr- und Lernmaterial können stellvertretend zwei
literaturdidaktische Studien herangezogen werden, die das didaktische Potenzial literarischer
Genres untersuchen. Annette Werner (1993) rekonstruiert Kontinuität und Diskontinuität
des fachdidaktischen Diskurses zur Behandlung von Lyrik im Englischunterricht, indem sie
sowohl pädagogische und didaktische Begründungen seit 1945 als auch Lyriksammlungen,
Handreichungen und Rahmenpläne untersucht. Forschungsgegenstand der Arbeit von Nancy
Grimm (2009) sind Romane der indigenen Gegenwartsliteratur als Textgrundlage für die
Förderung des Fremdverstehens im fortgeschrittenen Englischunterricht. Die Mehrzahl der
für diesen Typus erwähnten Arbeiten bedienen sich hermeneutisch-textanalytischer Ver-
fahren.
5 Phänomenologische Arbeiten
Dieser Typus versammelt Arbeiten, die Phänomene aus dem Gegenstandsbereich Lehren und
Lernen fremder Sprachen zusammenstellen, systematisch beschreiben, ihre Behandlung in
theoretischen Diskursen nachzeichnen und die Relevanz für die unterrichtliche Praxis aus-
loten. Zwei repräsentative Beispiele sollen ihn verdeutlichen: (1) Die Studie von Friederike
Klippel (1980) ist dem Spielphänomen gewidmet. Nach der Aufarbeitung spieltheoretischer
und spielpädagogischer Grundlagen sichtet die Verfasserin die Behandlung des Lernspiels
in der fachdidaktischen Literatur (Lexika, didaktisch-methodische Handbücher, Richtlinien)
und rekonstruiert seine Stellung im fremdsprachlichen Unterricht aus Erfahrungsberichten
und Spielesammlungen. Ansätze einer Theorie des Lernspiels liefern die Grundlagen für die
Erörterung des bewussten und integrativen Einsatzes des Lernspiels im Englischunterricht.
Eine Klassifizierung von Lernspielen, verbunden mit einem Instrument zu ihrer didaktischen
Aufarbeitung, sind u. a. Ergebnisse dieser Studie. (2) Das Offenheits-Paradigma bestimmt die
Studie von Engelbert Thaler (2008), dessen vielfältige Wurzeln zunächst aufgedeckt werden
(u. a. philosophisch-erkenntnistheoretische, anthropologisch-pädagogische, fremdsprachen-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
7 Vergleichende Überblicksforschungen
Vergleichende Überblicksforschungen bezeichnen Arbeiten, deren Forschungsgegenstand
vorhandene Studien, wissenschaftliche Publikationen und Theorieansätze sowie Lehr- und
Lernmaterialien sind, die unter einer spezifischen Fragestellung systematisch analysiert wer-
den; existente Forschung wird unter einer neuen Perspektive kritisch gesichtet. Vergleichen-
de Überblicksforschungen sind von Metaanalysen zu unterscheiden, da erstere weder neue
Analysen mit bestehenden Daten noch neue Datenerhebungen durchführen.4 Beispiele für
diesen Typus theoretischer Forschung liefern die Studien von Barbara Schmenk Lernerauto-
nomie. Karriere und Sloganisierung des Autonomiebegriffs (2008) und die Referenzarbeit
Geschlechtsspezifisches Fremdsprachenlernen? Zur Konstruktion geschlechtsspezifischer Ler-
ner- und Lernbilder in der Fremdsprachenforschung (2002, 2009). Die interdisziplinäre An-
lage, Fragen der Textauswahl und ihrer Systematisierung sowie die qualitativ-interpretative
Herangehensweise als auch forschungsmethodologische Implikationen vergleichender Über-
blicksforschungen werden dort transparent dargestellt (vgl. Schmenk 2002, 2009).
4 Zur Bestimmung von Metaanalysen vgl. Kapitel 4.5: „Der zweite Blick: Metaanalysen und Replikation“.
Eine knappe Einführung in den Komplex Metaanalysen liefern auch: Lueginger/Renger (2013).
Aus der Fokussierung auf den Verstehensprozess leitet Bredella zwei zentrale Aufgaben
für die Literaturdidaktik ab. Zum einen geht es um die Auswahl herausfordernder und be-
deutungsvoller literarischer Texte für den unterrichtlichen Diskurs, zum anderen um die
Entwicklung und Erprobung angemessener Verfahren, die die Leser-Text-Interaktion im
Klassenzimmer ermöglichen. Beiden Aufgaben stellt sich Bredella in seinen Arbeiten, indem
er zahlreiche literarische Texte im Hinblick auf ihr Interaktionspotenzial exemplarisch deutet
und unterrichtsnahe Handlungsoptionen skizziert.
gehend von der Annahme, dass der schulische Fremdsprachenunterricht einen „wichtigen
Beitrag zur Verbesserung transnationaler und internationaler Kommunikation leisten“ kann,
„wenn es gelingt, die Schüler für andere Menschen, ihre Gefühle, Gewohnheiten, Wünsche
und Lebensbedingungen zu interessieren“ (ebd. 28), erörtert Baumgratz-Gangl Ergebnisse der
Sozialisationsforschung, insbesondere psychosoziale Faktoren der Subjektkonstitution, um
zu bestimmen, welche Persönlichkeitsentwicklung bei Schülerinnen und Schülern gefördert
werden muss, damit sie befähigt werden, sowohl die Herausforderungen transkultureller
Mobilität (etwa Erfahrungen der Fremdheit und Entfremdung) zu meistern, als auch die
Chancen zum Lernen von und mit anderen selbstbewusst zu ergreifen. Der Tätigkeitstheorie
von Galperin folgend skizziert Baumgratz-Gangl Dimensionen einer relationalen Sprach- und
Landeskundedidaktik, die nicht primär das Ziel verfolgt, Wissen zu vermitteln, sondern auf
die „Qualifizierung der Persönlichkeit für den zwischenmenschlichen Umgang mit Angehö-
rigen der anderen Gesellschaft und Kultur, bzw. anderer Gesellschaften und Kulturen“ (ebd.
131) setzt. Das Gesamtarrangement des Unterrichts (das Ensemble von Themen, Texten und
kommunikativen Situationen) berücksichtigt die persönlichen Erfahrungen der Lernenden;
die Unterrichtsmethoden stärken ihre Risikobereitschaft und sensibilisieren für den Umgang
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
mit Fremden. In Bamgratz-Gangls Lehr- und Lernkonzept spielen alle jene Situationen eine
Schlüsselrolle, die einen kommunikativen Ernstfall involvieren: die Klassenkorrespondenz,
das Auslandspraktikum und der Schüleraustausch.
zum Lernspiel vorgelagert waren „viele anregende englische „Spielstunden“ mit Haupt-
schülern unterschiedlicher Klassenstufen“ (Klippel 1980: 5); Hallets Textensembles (Hallet
2002) sind vor ihrer diskursiven Erörterung durch mehrjährige Erprobungen im eigenen
Unterricht gegangen. Oder die Empirie ist den Studien nachgelagert und erscheint in der
Form von Überprüfung oder Vergewisserung: Nach der umfassenden Bestimmung kreativer
Verfahren im Umgang mit literarischen Texten befragt Caspari (1994) Berliner Französisch-
lehrkräfte zum Einsatz und zur Bewertung eben dieser Verfahren. Ferner lassen Ergebnisse
theoretischer Forschung die Empirie als anvisierte erscheinen. Sie manifestiert sich in Hand-
lungsvorschlägen, Empfehlungen oder Angeboten von neuen Sichtweisen auf die Praxis, etwa
in der Bestimmung und Begründung von Textauswahl und im Entwurf lerneraktivierender
Aufgaben für zukünftigen Unterricht (Bredella 2002). Sie zeigt sich in der Konkretisierung
intertextueller Unterrichtsmodelle (Hallet 2002), in Vorschlägen zur Nutzung transkultureller
Begegnungen innerhalb und jenseits des Unterrichts (Baumgratz-Gangl 1990), in Ansätzen
einer fremdsprachlichen Leselehre (Ehlers 1998) sowie im Erkennen und Auskundschaften
von Spielräumen für Autonomie (Schmenk 2008). Dieser anvisierte Praxisbezug ist jedoch in
keinem der Beispiele präskriptiv gemeint bzw. von dem Verständnis bestimmt, als zwingend
aus der Theorie gewonnene Ableitungen für praktisches Handeln im Unterricht zu gelten.
Die hier skizzierte theoretische Forschung versteht sich folglich auch nicht als Anwendungs-
didaktik. Denn alle auf die Praxis bezogenen Erkenntnisse, zum Teil als Empfehlungen für das
Handeln im Unterricht formuliert, bedürfen nicht nur der diskursiven Würdigung und Vali-
dierung derjenigen, die aus den unterschiedlichen Perspektiven ihrer jeweiligen Praxis (als
Lehrende, als Verfasserinnen und Verfasser von Lehr- und Lernmaterial) auf solche Erkennt-
nisse zugreifen und dabei ihre Relevanz und Reichweite ausloten. Die Erkenntnisse verlangen
auch nach empirischer Überprüfung. Ein besonderes Merkmal theoretischer Arbeiten besteht
deshalb darin, dass sie Angebote zum Diskurs über zentrale Aspekte des Gegenstandsbereichs
Lehren und Lernen von Fremdsprachen machen und zugleich Motor empirischer Forschung
sein können.
›› Literatur
Abendroth-Timmer, Dagmar (1998). Der Blick auf das andere Land. Ein Vergleich der Perspektiven in
Deutsch-, Französisch- und Russischlehrwerken. Tübingen: Narr.
Baumgratz-Gangl, Gisela (1990). Persönlichkeitsentwicklung und Fremdsprachenerwerb: transnationale
und transkulturelle Kommunikationsfähigkeit im Französischunterricht. Paderborn: Schöningh.
Baumgratz-Gangl, Gisela (1993). Compéténce transculturelle et échanges éducatifs. Paris: Hachette.
Bellavia, Elena (2007). Erfahrung, Imagination und Sprache. Die Bedeutung der Metaphern der All-
tagssprache für das Fremdsprachenlernen am Beispiel der deutschen Präpositionen. Tübingen: Narr.
Bredella, Lothar (1976). Einführung in die Literaturdidaktik. Stuttgart: Kohlhammer.
Bredella, Lothar (1980). Das Verstehen literarischer Texte. Stuttgart: Kohlhammer.
Bredella, Lothar (2002). Literarisches und interkulturelles Verstehen. Tübingen: Narr.
Bredella, Lothar (2004). Grundlagen für eine rezeptionsästhetische Literaturdidaktik. In: Bredella,
Lothar/Burwitz-Melzer, Eva (Hg.). Rezeptionsästhetische Literaturdidaktik mit Beispielen aus dem
Fremdsprachenunterricht Englisch. Tübingen: Narr, 25–80.
Breidbach, Stephan (2007). Bildung, Kultur, Wissenschaft. Reflexive Didaktik für den bilingualen Sach-
fachunterricht. Münster: Waxmann.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Karen Schramm
3.3.1 Begriffsklärung
Im Gegensatz zu historischer und theoretischer Forschung (s. Kapitel 3.1 und 3.2) ist für
die empirische Forschung charakteristisch, dass sie auf der datengeleiteten Untersuchung
einer Forschungsfrage beruht. Riemer (2014: 15) stellt in Anlehnung an einschlägige Arbeiten
dazu fest, dass „[v]on empirischem Wissen […] – anders als im Fall von Allgemeinwissen
und unsystematisch reflektiertem Erfahrungswissen – erst dann gesprochen werden [kann],
wenn die allgemeinen Merkmale der Systematizität und Datenfundiertheit wissenschaft-
licher Forschung eingehalten werden“. Diese für die jeweilige Untersuchung erfasste oder
erhobene Datengrundlage (s. Kapitel 5.2) kann unterschiedlich umfangreich sein, sodass sich
empirische Forschung auf einem Kontinuum von Erfahrungsberichten über explorative und
deskriptive Studien bis hin zu explanativen Studien beschreiben lässt.
Eine erste Stufe der Empirie stellen Erfahrungsberichte dar. Als fremdsprachendidaktische
Beispiele kann u. a. auf Rattunde (1990), Minuth (1996) oder Wernsing (1995) verwiesen
werden, die über Unterrichtserfahrungen berichten und auf dieser Grundlage methodische
Handlungsempfehlungen entwickeln. Für den Bereich der Projektarbeit zeigt Peuschel (2012:
13–17) als Grundlage ihrer eigenen Studie in ihrem Literaturbericht beispielsweise auf,
dass bisherige Forschungen zu diesem Thema weitestgehend auf der Stufe von Erfahrungs-
berichten angesiedelt sind. Blickt man auf die Entwicklung der empirischen Forschung in
der Fremdsprachendidaktik zurück, so ist auch bemerkenswert, dass uns bereits aus frü-
heren Jahrhunderten einige empirische Arbeiten der Fremdsprachendidaktik zugänglich
sind, die sich in der Regel auf dieser ersten Stufe der Empirie bewegen (s. Kapitel 3 und
3.1).
Als zweite Stufe der Empirie zielen explorative Studien auf die Erkundung eines Unter-
suchungsgegenstands ab, der bisher kaum erforscht ist. In der Regel ist es Ziel solcher explo-
rativen Studien, Hypothesen über einen bisher wenig erforschten Untersuchungsgegenstand
zu generieren. Zahlreiche der in Kapitel 7 unter methodisch-methodologischer Perspektive
zusammengefassten – und an vielen Stellen dieses Handbuchs illustrativ aufgegriffenen –
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Die folgenden Abschnitte geben einen einführenden Überblick über prototypische Designs
fremdsprachendidaktischer Empirie (dazu grundlegend Abschnitt 2). Dabei findet einerseits
die statistische Auswertung quantitativer Daten (Abschnitt 3) und andererseits die inter-
pretative Auswertung qualitativer Daten besondere Berücksichtigung (Abschnitt 4). Auch
die komplexen Kombinationsmöglichkeiten dieser Vorgehensweisen in Studien, die als mixed
methods bezeichnet werden, sollen kurz angerissen werden (Abschnitt 5).
In der Regel werden das qualitative und das quantitative Forschungsparadigma als zwei
diametral gegenübergestellte empirische Arbeitsweisen charakterisiert, die sich bezüglich
des Erhebungskontextes, der erhobenen Daten, der Auswertungsmethoden und der dahin-
terliegenden Wissenschaftstheorie diametral unterscheiden (s. Kapitel 2).
Als Prototyp quantitativer Forschung gilt das Experiment. Für dessen quantitative Natur ist
die Tatsache charakteristisch, dass es im Labor, also nicht im natürlichen Kontext, und damit
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
unter streng kontrollierten Bedingungen durchgeführt wird. Bei den in Experimenten erhobe-
nen Daten handelt es sich typischerweise um Messwerte (z. B. um Reaktionszeitmessungen
oder Test-Werte), die mithilfe statistischer Verfahren ausgewertet werden. Experimentelle
Forschung basiert auf der wissenschaftstheoretischen Position des Rationalismus, nach der in
einem hypothesentestenden Verfahren eine objektive bzw. universalgültige Wahrheit aus der
Außenperspektive von Forscher_innen, einer sogenannten etischen Perspektive, beschrieben
werden soll (s. Kapitel 2).
Als Prototyp qualitativer Forschung gilt hingegen die Ethnographie, bei der die Daten
mittels teilnehmender Beobachtung im natürlichen Kontext und damit unter hochgradig
unkontrollierten Bedingungen gesammelt werden. Diese Daten werden zu Zwecken der
Hypothesengenerierung mithilfe interpretativer Verfahren ausgewertet, wobei eine emische
Perspektive verfolgt wird, d. h. dass Forschende die Innenansicht der Forschungspartner_in-
nen analytisch herausarbeiten. Wissenschaftstheoretisch basiert diese Vorgehensweise auf
dem Relativismus, der der rationalistischen Vorstellung einer universalgültigen Wahrheit
das Konzept (sozio-)kulturell geprägter bzw. kontextgebundener Wahrheiten entgegensetzt
(s. Kapitel 2).
Grotjahn (1987) hat in einem auf die deutschsprachige Fremdsprachendidaktik sehr ein-
flussreichen Beitrag bereits in den 80er Jahren verdeutlicht, dass diese simple Gegenüber-
stellung von zwei Prototypen den vielen denkbaren Varianten empirischer Forschungsdesgins
nicht gerecht wird. Er unterscheidet neben diesen beiden „Reinformen“ (Grotjahn 1987: 59)
des explorativ-interpretativen und des analytisch-nomologischen Paradigmas sechs weitere
„Mischformen“ (ebd.), die sich aus den möglichen Kombinationen der drei Pole (a) (quasi-)
experimentelles vs. nicht-experimentelles Design, (b) quantitative vs. qualitative Daten und
(c) statistische vs. interpretative Auswertung ergeben: Beispielsweise ist es möglich, im Feld
metrische Werte zu erheben und statistisch auszuwerten oder im Labor verbale Daten zu
erheben, die interpretativ ausgewertet werden. Somit wird deutlich, dass empirische Designs
nicht immer eindeutig einem paradigmatischen Prototypen zugeordnet werden können,
sondern dass sich eine Vielzahl von durch das Erkenntnisinteresse geleiteten grundlegenden
Design-Möglichkeiten ergibt.
Quasi-Experiment gearbeitet wird. In solchen Fällen stellt sich dann die Frage der Vergleich-
barkeit der Gruppen, die häufig in Paarvergleichen abgesichert werden soll. In der Studie von
Marx (2005) handelt es sich jedoch nicht um ein Quasi-Experiment, sondern tatsächlich um
ein Experiment, bei dem die Gruppen gezielt nach bestimmten Überlegungen in vergleich-
barer Weise zusammengesetzt wurden. Anders als in der oben beschriebenen Reinform des
analytisch-nomologischen Paradigmas wurden dabei jedoch nicht für das Experiment charak-
teristische Messwerte erhoben, sondern Daten aus Hörverstehensaufgaben und retrospektive
Erklärungen zu den von Lernenden wahrgenommenen Gründen für erfolgreiches Verstehen,
die beide für die Zwecke einer statistischen Auswertung mittels Mann-Whitney-U-Test und
MANOVA (s. Kapitel 5. 3. 10) erst in Zahlenwerte überführt werden mussten (vgl. dazu die
Darstellung der Referenzarbeit in Kapitel 7).5
Ein zweites Beispiel aus dem Bereich der Fremdsprachendidaktik ist die DESI-Studie
(Deutsch-Englisch-Schülerleistungen-International). Sie zielte darauf ab, den Leistungsstand
in Deutschland, Österreich und der Schweiz in den Fächern Deutsch und Englisch zu erfassen
und zur Verbesserung von Curricula, Lehrmaterialien, Aus- und Weiterbildung von Lehr-
personen und Unterrichtsgestaltung in diesen beiden Fächern beizutragen: In einem inter-
disziplinären Team aus Bildungsforscher_innen und Fachdidaktiker_innen wurden dazu ca.
11 000 Schüler_innen der neunten Klasse aller Schularten befragt und zu zwei Zeitpunkten
getestet sowie neben Videoaufnahmen des Unterrichts auch Befragungen mit Lehrpersonen,
Eltern und Schulleitungen durchgeführt (Klieme 2008). Zur Kurz-Illustration des Umfangs
dieser Art von empirischer Großuntersuchung sei als eine der vielen DESI-Teilstudien die
Videostudie des Englischunterrichts (Helmke et al. 2008) herausgegriffen, die Aufnahmen,
Transkripte, Basiskodierungen und Beurteilungen der Unterrichtsqualität von 105 Englisch-
stunden beinhaltete. Auf dieser Grundlage konnten u. a. quantitative Aussagen zu einer Reihe
von Aspekten des untersuchten Englischunterrichts (z. B. verwendete Unterrichtssprache,
5 Es sei angemerkt, dass diese quantifizierten Daten wiederum um qualitative, interpretativ ausgewertete
Daten (Fragebögen zum Unterricht) ergänzt wurden.
Sprechanteile von Lehrpersonen und Schüler_innen, Art und Länge der Schüleräußerungen,
Fehlerkorrektur und Wartezeit) sowie auch Zusammenhänge dieser Unterrichtsmerkmale
mit anderen Variablen wie Schülerleistungen (z. B. in einem C-Test oder Hörverstehenstest)
herausgearbeitet werden.
Reaktionen und Nachreaktionen auf die Korrekturen. Für 16 Unterrichtsstunden nehmen die
Autor_innen detaillierte Quantifizierungen dieser Aspekte vor; darüber hinaus präsentieren
sie Befunde zu den subjektiven Theorien der Lehrpersonen und zu Schülerwünschen und
-erwartungen hinsichtlich der mündlichen Fehlerkorrektur.
Die Autor_innen ordnen diese frühe, beeindruckende Videostudie des Fremdsprachen-
unterrichts explizit der explorativ-interpretativen Forschungsrichtung zu (ebd.) und dement-
sprechend würdigt Henrici (1992: 250) in seiner Rezension – neben vielen anderen Aspek-
ten – auch „die vorsichtig zurückhaltende Darstellung der Ergebnisse, die dem verwendeten
Paradigma und dessen Ansprüchen gerecht wird“.
Unter dem Begriff mixed methods ist die Möglichkeit der Kombination von Verfahren aus
dem sogenannten qualitativen und quantitativen Paradigma (vgl. dazu Abschnitt 2) dis-
kutiert worden und nach anfänglichen Zweifeln bezüglich der grundsätzlichen Vereinbar-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
nisse und Schlussfolgerungen miteinander verglichen oder kontrastiert. Der aus beiden
Teilstudien integrierte Forschungsbericht soll somit möglichst gut validierte Forschungs-
ergebnisse erbringen.
• Das Transferdesign (auch: embedded design): Es zeichnet sich dadurch aus, dass entweder
qualitative Daten quantifiziert werden (wenn beispielsweise bei einer qualitativen Inhalts-
analyse Kodierungen ausgezählt werden) oder dass quantitative Daten qualifiziert werden
(wenn beispielsweise nach einer Zeitmessung die metrischen Daten in verbale Angaben
oder Kategorien überführt werden).
Als Beispiel für eine zweitsprachdidaktische mixed-methods-Studie sei an dieser Stelle
die Arbeit von Ricart Brede (2011) zur Sprachförderung in Kindertagesstätten kurz vor-
gestellt. Es handelt sich um zwei sequentielle Teilstudien, die in einer groben Annäherung
dem Vertiefungsdesign (quan -> QUAL) zugeordnet werden können. In der ersten Teilstudie
nimmt die Forscherin niedrig- bis mittelinferente Kodierungen von 48 Videoaufnahmen von
Sprachfördereinheiten vor. Dabei werden Aktivitäten (wie Begrüßung/ Verabschiedung,
Organisatorisches, Aufgabe mit bzw. ohne Spielcharakter, motorisch bestimmte Tätigkeit,
Lied/ Vers, Arbeit mit Text/ Bild, mündliche Kommunikation und Sonstiges), Sozialformen
(Gesamtgruppe-Dialog, Gesamtgruppe-Monolog, Partner-/ Kleingruppenarbeit und Einzel-
arbeit) sowie auch Sprachbereiche (phonologische Bewusstheit, Wortschatz, Grammatik,
Gespräch, Erklären, Erzählen, Vorlesen/ Rezitieren) kodiert (s. Ricart Brede 2011: 124). In
dieser ersten Teilstudie kann die Forscherin u. a. den chronologischen Ablauf einer typischen
Sprachfördereinheit herausarbeiten. Für die zweite Teilstudie erfolgt aus den 625 auf diese
Weise gebildeten Handlungssequenzen eine Stichprobenziehung von 40 Sequenzen, die ei-
ner hochinferenten (also stärker interpretativen) Analyse in Bezug auf bestimmte Qualitäts-
merkmale von Sprachförderung wie sprachlicher Input der Sprachförderperson (z. B. wie
Äußerungsfunktionen oder Umgang mit Fehlern), Intake der Kinder (z. B. Aufmerksamkeit)
und sprachlicher Output der Kinder (z. B. Komplexität der Äußerungen) unterzogen werden.
Mit Blick auf den mixed-methods-Charakter dieser Studie ist weiterhin anzumerken, dass
diese Untersuchung in beiden Teilstudien mit der Quantifizierung von qualitativen (genauer
gesagt videographischen) Interaktionsdaten arbeitet, sodass beide Teilstudien jeweils auch
ein Transferdesign beinhalten.
Dieser kurze Überblick deutet die vielfältigen Möglichkeiten an, die sich für fremdspra-
chendidaktische mixed-methods-Designs aus den unterschiedlichen Kombinationen von
zeitlicher Anordnung, Gewichtung und Mischung ergeben. Zentrale Bedeutung hat bei Ent-
scheidungen auf Designebene die Forschungsfrage, die vor dem Hintergrund des erreichten
Forschungsstands in einem (oder an der Schnittstelle mehrerer) Forschungsfeld(er) formuliert
wurde. Gerade bei Qualifikationsarbeiten und bei begrenzten Ressourcen sollte die Vielfalt
der Möglichkeiten aber keinesfalls dazu verleiten, das Design allzu komplex zu gestalten.
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit
einem Sternchen markiert.
Aguado, Karin/Heine, Lena/Schramm, Karen (Hg.) (2013). Introspektive Verfahren und Qualitative
Inhaltsanalyse in der Fremdsprachenforschung. Frankfurt a. M.: Peter Lang.
Aguado, Karin/Schramm, Karen/Vollmer, Helmut Johannes (Hg.) (2010). Fremdsprachliches Handeln
beobachten, messen, evaluieren. Neue methodische Ansätze der Kompetenzforschung und der Video-
graphie. Frankfurt a. M.: Peter Lang.
*Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der
Beurteilung schriftlicher Leistungen in der Fremdsprache am Beispiel der Prüfung „Test Deutsch als
Fremdsprache“ (TestDaF). Tübingen: Narr. [Referenzarbeit, Kapitel 7]
*Biebricher, Christine (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens.
Tübingen: Narr. [Referenzarbeit, Kapitel 7]
Doff, Sabine (Hg.) (2012). Fremdsprachenunterricht empirisch erforschen. Grundlagen – Methoden –
Anwendung. Tübingen: Narr.
*Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. Eine qualitative
Interviewstudie zum ausbildungsbiographischen Ertrag des assistant-Jahres. München: Langen-
scheidt. [Referenzarbeit, Kapitel 7]
Europarat/Rat für kulturelle Zusammenarbeit (2001). Gemeinsamer europäischer Referenzrahmen
für Sprachen: Lernen, lehren, beurteilen. München: Langenscheidt. [http://www.goethe.de/z/50/
commeuro/deindex.htm] (3. 12. 2015)
Grotjahn, Rüdiger (1987). On the methodological basis of introspective methods. In: Faerch, Claus/Kas-
per, Gabriele (Hg.). Introspection in Second Language Research. Clevedon, PH: Multilingual Matters.
*Haider, Barbara (2010). Deutsch in der Gesundheits- und Krankenpflege. Eine kritische Sprachbedarfs-
erhebung vor dem Hintergrund der Nostrifikation. Wien: Facultas.wuv.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
*Rattunde, Eckhardt (1990). Poésie et écriture poétique. Möglichkeiten eines kreativen Umgangs mit
poetischen Texten im Französsichunterricht (Chanson – comptime – poème). Berlin: Cornelsen.
*Ricart Brede, Julia (2011). Videobasierte Qualitätsanalyse vorschulischer Sprachfördersituationen.
Freiburg i.B.: Fillibach.
Riemer, Claudia (2014). Forschungsmethodologie Deutsch als Fremd- und Zweitsprache. In: Settinieri,
Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empi-
rische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh, 15–31.
*Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden
für Deutsch als Fremdsprache. Baltmannsweiler: Schneider Verlag Hohengehren. [Referenzarbeit,
Kapitel 7]
*Schmidt, Torben (2007). Gemeinsamens Lernen mit Selbstlernsoftware im Englischunterricht – Eine
empirische Analyse lernprogrammgestützter Partnerarbeitsphasen im Unterricht der Klasse 7. Tü-
bingen: Narr. [Referenzarbeit, Kapitel 7]
*Schwab, Götz (2009). Gesprächsanalyse und Fremdsprachenunterricht. Landau: Verlag Empirische
Pädagogik. [Referenzarbeit, Kapitel 7]
Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.)
(2014). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. München: Fink/
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Schöningh.
*Wernsing, Arnim Volkmar (1995). Kreativität im Französischunterricht. Berlin: Cornelsen.
Karen Schramm
dazu Kapitel 4.2). In Bezug auf solche Design-Vorlagen auf Makroebene wie beispielsweise
die Fallstudie, die Aktionsforschung und das Forschungsprogramm Subjektive Theorien ist
zu betonen, dass sie – wie jeder andere Projektentwurf auch – vor dem Hintergrund der For-
schungsfrage als mögliche Handlungsoption kritisch zu hinterfragen und gegenstandsadäquat
auszugestalten (sowie den Leser_innen explizit zu begründen) sind.
Solche Makroentscheidungen können selbstverständlich nur in Abhängigkeit vom jewei-
ligen Forschungsstand getroffen werden. In besonderer Weise gilt dies für zwei Sonderfälle:
die Entscheidung für eine Meta-Analyse oder für eine Replikationsstudie, welche beide in
Kapitel 4.5 unter der Metapher des zweiten Blicks behandelt werden. Bei Metaanalysen ist
ein sehr umfänglicher empirischer Forschungsstand vonnöten, damit auf dieser Grundlage
eine Synthese der unterschiedlichen Befunde mithilfe statistischer Verfahren durchgeführt
werden kann. Dabei wird gewissermaßen aus den Mosaiksteinchen zahlreicher Einzel-
studien ein Gesamtbild zusammengesetzt. Die Replikationsstudie ist dagegen eher ange-
zeigt, wenn bisher noch wenig Erkenntnis bzw. gesicherte Befunde bezüglich eines Unter-
suchungsgegenstands vorliegen und aus diesem Grund ein bestimmtes Design in einen
anderen Kontext transferiert bzw. dort erneut oder in vergleichbarer Form durchgeführt
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
wird.
Spezielle Spielarten der vielfältigen Erscheinungsformen empirischer Forschung sind nicht
nur durch die in Kapitel 3.3 thematisierte Frage von Rein- und Mischformen von Designs be-
stimmt, sondern ergeben sich auch aus verschiedenen Formen der Triangulation. Kapitel 4.4
stellt einführend die vielfältigen Entscheidungsalternativen in Bezug auf Daten-, Methoden-,
Forscher_innen- und Theorientriangulation vor, die die Gestaltungsmöglichkeiten auf Makro-
ebene teils begrifflich mit denen in Kapitel 3.3 diskutierten Optionen überlappen und teils
wiederum erweitern.
Unter dem Titel Sampling bietet Kapitel 4.3 zahlreiche Denkanstöße zu Auswahlent-
scheidungen an, die vor allem die Forschungspartner_innen bzw. die Stichprobenziehung
betreffen. Sampling beinhaltet darüber hinaus durchaus aber auch weitere Selektionsprozesse,
z. B. in Bezug auf die Vertiefung der Analyse bestimmter Datensätze oder die Präsentation
ausgewählter Beispiele.
An das Ende von Kapitel 4 zu den Makroentscheidungen haben wir das Ethikkapitel 4.6
gestellt, das das vorausschauende Abwägen bestimmter Handlungsalternativen unter Berück-
sichtigung des Schutzes der Forschungspartner_innen oder anderer Personen, Institutionen
oder des Fachs sowie auch den reflektierten Umgang mit ethischen Dilemmata ergründet.
Viele der hier angesprochenen Fragen, beispielsweise die Anonymität der Forschungspart-
ner_innen oder die Frage des Feldzugangs, betreffen zwar die Datenerhebung und könnten
damit auch der Mikroebene zugeordet werden; doch reichen die ethischen Entscheidungen
auch in andere Phasen des Forschungsprozesses hinein (z. B. die kommunikative Validierung
oder die Präsentation der Ergebnisse), sodass es stringent erscheint, sie an dieser Stelle im
Verbund mit den anderen Entscheidungen auf Makroebene anzusprechen.
Michael K. Legutke
Ziel des folgenden Beitrags ist es, drei Schlüsselbegriffe zu bestimmen, deren Bedeutung in
der Forschungsliteratur selten geklärt, sondern anscheinend als allgemein bekannt voraus-
gesetzt wird. Mit diesen Begriffen werden in der fremdsprachendidaktischen Forschung
die Belege bezeichnet, die ihr als Forschungsgrundlage dienen. Während Daten nur in der
empirischen Forschung Verwendung finden, sind Texte und Dokumente für alle drei For-
schungstraditionen von Bedeutung: für die historische, die theoretische und die empirische
Forschung (s. Kapitel 3).
Auch Dokumente sind Texte; sie unterscheiden sich jedoch von den oben genannten wissen-
schaftlichen Primär- und Sekundärtexten insofern, als sie nicht im Kontext wissenschaftlicher
Arbeit entstanden sind, sondern einem anderen Zweck dienen. Der Begriff ‚Dokument‘ wird
Auch Daten lassen sich mit der allgemeinen Definition „a record of an event or process“
(McCulloch 2011: 249) bestimmen. Diese Definition geht auf Gregory Bateson zurück, der
wie folgt formulierte: „[…] ‚data‘ are not events or objects but always records or desricptions
or memories of events or objects“ (Bateson 1973: 24). Was Daten jedoch von Dokumenten
unterscheidet, ist ihre Entstehung, denn sie werden durch die eingesetzten Erhebungsver-
fahren erst hervorgebracht, d. h. sie werden geschaffen. Daten sind demnach das Produkt
von Forschungshandlungen. Die Ausprägung von Daten kann entweder qualitativer oder
quantitativer Art sein, ihr Inhalt wird durch die Forschungsfrage und die Datenquellen be-
stimmt. In der fremdsprachendidaktischen Forschung wird zwischen Primär-, Sekundär- und
Tertiärdaten unterschieden. Primärdaten sind sprachliche Rohdaten (z. B. Videodaten einer
Unterrichtsstunde, Ergebnisse eines Prä- oder Posttests). Sekundärdaten sind alle Verarbei-
tungsstufen der Rohdaten (z. B. kodierte Daten, Transkripte, skalierte Testergebnisse). Tertiär-
daten schließlich sind alle Metadaten zu den vorangegangenen Datentypen (z. B. Angaben
zum Kontext, zur Entstehungszeit; s. auch Kapitel 5.2.6; 5.3.8).
1 Eine differenzierte Begriffsklärung liefert das Kapitel 5.2.1 „Dokumentensammlung“. Hier wird auch der
begriffliche Unterschied zwischen Dokumenten und Quellen erörtert.
Häufig wird in der allgemeinen Forschungsliteratur nur zwischen Primär- und Sekundär-
daten unterscheiden. Erstere bezeichnen dann Daten, die bei der Datenerhebung unmittelbar
geschaffen werden, letztere hingegen solche, die von anderen Forschern oder von Institutio-
nen erhoben wurden: Beispiele sind das Statistische Bundesamt, Statistische Landesämter,
Ministerien, die OECD, die UNO, die Weltbank (vgl. O’Leary 2014: 243–273).
Quantitative Daten sind das Ergebnis eines Transformationsprozesses, in dem Belege zu
Sachverhalten, Ereignissen, Prozessen und Objekten in eine Zahlenform verwandelt werden.
Man spricht deshalb auch von numerischen Daten. Sie bilden die Grundlage für den Ein-
satz statistischer Verfahren und sind das Herzstück einer quantitativ-hypothesenprüfenden
Fremdsprachenforschung, die sich um objektiv überprüfbare und repräsentative Ergebnisse
sowie validierbare Verallgemeinerungen bemüht (s. Kapitel 3.3). Datenquellen sind zum Bei-
spiel Tests aller Art (Sprach-, Kompetenz- oder Intelligenztests), strukturierte und kontrol-
lierte Messungen bestimmter Phänomene (Reaktionszeiten bei der Bearbeitung von Online-
Aufgaben) oder Fragebögen. Quantitative Daten verdichten komplexe Zusammenhänge zu
messbaren Einheiten. Eine vertiefende Einführung liefern die Kapitel 5.3.9 bis 5.3.11.
Qualitative Daten sind Belege zu Sachverhalten, Ereignissen und Prozessen, die in un-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
2 Einen tabellarischen Überblick über qualitative Datentypen mit Datenbeispielen bietet Holliday 2012:
62–63.
stehen und demnach nicht durch die Forschungsverfahren geschaffen werden. Sie sind jedoch
durch die Forschungsfrage(n) aus diesem quasi naturwüchsigen Zusammenhang heraus-
gehoben, werden besonders markiert und bestimmten Verfahren der Aufarbeitung und Ana-
lyse unterzogen. Die Grenze zwischen den Begriffen ‚Dokumente‘ und ‚Daten‘ ist bezogen
auf diese Belege demnach fließend. Der Unterschied zwischen Daten (geschaffene Belege)
und Dokumenten (unterrichtsbezogene Belege im Fokus einer Forschungsfrage) legt auf jeden
Fall nahe, begrifflich zwischen dem Erfassen von Dokumenten und Erheben von Daten zu
unterscheiden (s. Kapitel 5.2.6).
Da für die empirische Fremdsprachenforschung prinzipiell vier Perspektiven unterschieden
werden können, nämlich der „Blick auf die Produkte, die Akteure und die Lern- und Bildungs-
prozesse selbst“ (Bonnet 2012: 286) sowie auf die Kontexte (Kapitel 3.3), können auch Daten-
quellen und die aus ihnen gewonnenen Daten diesen vier Perspektiven zugeordnet werden.
Eine solche Einteilung der Daten nach Produkt-, Personen-, Prozess- und Kontextdaten kann
sich u. a. als funktional für das Datenmanagement (s. u.) erweisen. Die Ausprägung dieser
Daten kann je nach Forschungsansatz entweder qualitativer oder quantitativer Natur sein.
In Studien, die quantitativ-hypothesenprüfende und qualitativ-rekonstruktive Ansätze kom-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Unterricht verknüpft. Die Erörterung des didaktischen Potentials erfolgt schließlich in Verbin-
dung mit der Analyse offizieller Dokumente staatlicher Institutionen (Lehrpläne, Bildungs-
standards, Einheitliche Prüfungsanforderungen im Abitur).
Datenquellen der drei Fallstudien sind das Unterrichtsgeschehen und insbesondere die
Interaktionsprozesse, die beobachtet und audiovisuell aufgezeichnet werden. Freitag-Hild
erhebt Daten zu Lehrer-Schüler-Interaktionen, Unterrichtsgesprächen, Phasen der Gruppen-
arbeit sowie zur Vorbereitung von Rollenspielen in Gruppen. Forschungsgrundlage sind fer-
ner eine Vielzahl von Produkten dieser Interaktionsprozesse, also Dokumente des laufenden
Unterrichts wie Lernertexte (interpretative und kreative Schreibprodukte, Poster, Collagen,
Rollenspiele) und Klausuren (Vorschläge der Forscherin, Klausuraufgaben der Lehrkraft sowie
ausgewählte Klausurbeispiele von Schülern). Die Außenperspektive der Forscherin auf die
Prozesse und ihre Produkte (festgehalten durch Beobachtungsprotokolle) werden ergänzt
und differenziert durch die Innenperspektive der Akteure (Lehrkräfte und Lernende). Diese
Datenquellen werden durch retrospektive Interviews nach einzelnen Stunden und am Ende
der Unterrichtseinheiten erschlossen.
Auch wenn Freitag-Hilds Arbeit deutlich macht, wie für die Beantwortung bestimmter For-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Besondere Aufmerksamkeit verlangen qualitative und quantitative Daten. Sie müssen nicht
nur für das jeweilige Projekt organisiert werden, sondern sollten im Sinne der Grundsätze
zum Umgang mit Forschungsdaten der Allianz der deutschen Wissenschaftsorganisationen
(Allianz 2010) und der DFG Denkschrift: Sicherung guter wissenschaftlicher Praxis (DFG
1998) gesichert und aufbewahrt werden. Die Empfehlung 7 „Sicherung und Aufbewahrung
von Primärdaten“ dieser Denkschrift lautet: „Primärdaten als Grundlagen für Veröffentlichun-
gen sollen auf haltbaren und gesicherten Trägern in der Institution, wo sie entstanden sind,
zehn Jahre lang aufbewahrt werden“ (DFG 1998: 21). Wie diese Empfehlungen im Einzelnen
in die Praxis umgesetzt werden, hängt von den Regeln ab, die sich Forschungsinstitutionen,
Universitäten, Fachbereiche oder Institute gegeben haben. Verpflichtende Strukturen und
Formen der Datenarchivierung existieren in Deutschland nicht (s. Klump, o. J.).
›› Literatur
Allianz der deutschen Wissenschaftsorganisationen (2010). Grundsätze zum Umgang mit Forschungs-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
daten. [http://www.allianzinitiative.de/de/handlungsfelder/forschungsdaten/grundsaetze.html].
Bateson, George (1973). Steps to an Ecology of Mind. Collected Essays in Anthropology, Psychiatry,
Evolution and Epistomology. London: Granada Publishing.
Bonnet, Andreas (2012). Von der Rekonstruktion zur Integration: Wissenssoziologie und dokumenta-
rische Methode in der Fremdsprachenforschung. In: Doff, Sabine (Hg.). Fremdsprachenunterricht
empirisch erforschen. Grundlagen. Methoden. Anwendung. Tübingen: Narr, 286–305.
DFG (1998). Denkschrift: Sicherung Guter Wissenschaftlicher Praxis. Weinheim: WILEY-VCH Verlag
GmbH. [http://www.dfg.de/foerderung/grundlagen_rahmenbedingungen/gwp/index.html].
Freitag-Hild, Britta (2010). Theorie, Aufgabentypologie und Unterrichtspraxis inter- und transkul-
tureller Literaturdidaktik. ‚British Fictions of Migration‘ im Fremdsprachenunterricht. Trier: WVT.
Holliday, Adrian (2012). Doing and Writing Qualitative Research. 2nd edition. Los Angeles: SAGE.
Klump, Jens (o. J.). Wissenschaftliche Primärdaten. In: Nestor Handbuch. Eine kleine Enzyklopädie der
digitalen Langzeitarchivierung. Niedersächsische Staats- und Universitätsbibliothek: Göttingen, Ka-
pitel 15, 54–63.
[http://nestor.sub.uni-goettingen.de/handbuch/artikel/nestor_handbuch_artikel_275.pdf].
McCulloch, Gary (2011). Historical and Documentary Research in Education. In: Cohen, Louis/Manion,
Lawrence/Morrison, Keith (Hg.). Research Methods in Education. 7. Auflage. London: Routledge,
248–255.
O’Leary, Zina (2014). Doing Your Research Project. 2nd Edition. Los Angeles: SAGE.
Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden
für Deutsch als Fremdsprache. Baltmannsweiler: Schneider Verlag Hohengehren [Referenzarbeit,
Kapitel 7].
Zydatiß, Wolfgang (2002). Leistungsentwicklung und Sprachstandserhebungen im Englischunterricht.
Methoden und Ergebnisse der Evaluierung eines Schulversuchs zur Begabtenförderung : Gymnasiale
Regel- und Expressklassen im Vergleich. Frankfurt: Peter Lang.
Daniela Caspari
4.2.1 Fallstudie
und daraus Erkenntnisse gewinnen können (vgl. Nunan/Bailey 2009: 166–167). Wichtig ist
daher eine vielschichtige, offene Herangehensweise, wobei die Methodentriangulation zu-
gleich eine relative Gewähr biete, Methodenfehler vergleichend zu erkennen bzw. zu ver-
meiden (Lamnek 2010: 273). Grundlage der Forschung ist die gezielte Auswahl des Falls bzw.
der Fälle (‚typische‘ Fälle vs. gezielt abweichende oder extreme Fälle, vgl. auch Kapitel 4.3). In
Studien mit mehreren Fällen folgt der individuellen Auswertung häufig ein Fallvergleich mit
dem Ziel der Erfassung der überindividuellen Phänomene sowie einer Typisierung (Lamnek
2010: 291–292, zur Typenbildung vgl. auch Kapitel 5.3.5).
Auch in der deutschsprachigen Fremdsprachendidaktik erfreut sich der Einsatz von Fall-
studien großer Beliebtheit. Neben den vielen Studien zum Zweit- und Fremdsprachenerwerb
existiert eine Fülle von kleineren und größeren Untersuchungen, die in der Datenbank des ifs
(Informationszentrum Fremdsprachenforschung) als „Fallstudie“ klassifiziert werden. Diese
Beliebtheit dürfte nicht nur daran liegen, dass dieses Design eine Möglichkeit darstellt, der
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Faktorenkomplexion des Lehrens und Lernens von Sprachen gerecht zu werden, sondern vor
allem daran, dass „die Einzelfallstudie als elementarer Baustein jeder qualitativen Studie an-
zusehen ist, denn eine qualitative Befragung von dreißig Personen etwa besteht aus dreißig
Einzelfallstudien, die sich der gleichen Erhebungstechnik bedienen und analytisch miteinan-
der verbunden sind“ (Lamnek 2010: 285). Häufig werden auch einzelne Fälle etwa aus einer
umfangreicheren (Interview-) Studie vorab veröffentlicht.
Für die Auswahl eines Beispiels aus der Fremdsprachendidaktik wurde daher ein engeres
Verständnis von Fallstudie zugrunde gelegt: Fallstudie verstanden als eine mehrmethodische
Untersuchung unterschiedlicher Konstituenten eines oderer mehrerer komplexer Fälle. Bei-
spiele hierfür sind u. a. die Studien von Biebricher (2008), Bär (2009), Burwitz-Melzer (2003),
Freitag-Hild (2010), Grünewald (2006), Kimes-Link (2013), Roters (2012), Peuschel (2012),
Schubert (2013), Steininger (2014) und Tesch (2010).
Grünewald (2006) konzipiert seine Untersuchung zur subjektiv wahrgenommenen Wir-
kung verschiedener Computeranwendungen im spanischen Anfangsunterricht aufgrund der
zugrunde gelegten konstruktivistischen Auffassung von Fremdsprachenlernen (ebda.: 21–53)
als Fallstudie. Um den Motivationsverlauf und den selbst eingeschätzten Lernfortschritt von
Schüler/innen aus drei neunten Klassen (n=60) zu erheben, verwendet er unterschiedliche
Instrumente: Eingangsfragebogen, strukturiertes Lerntagebuch mit Motivationskurven, Ab-
schlussfragebogen und Leitfadeninterviews mit 15 ausgewählten Schüler/innen. Grünewald
versteht die Falldarstellung als „Methode“, die bereits mit der Datenaufbereitung und der
Fallanalyse beginnt (vgl. ebda.: 167–168). Daher verfolgt die Auswertung der Daten mit Hilfe
des Transkriptionsprogramms MAXQDA das Ziel, jeden einzelnen Fall möglichst individuell
zu erfassen. Um diesem Anspruch gerecht zu werden, wurden die Kategorien aus dem Ma-
terial entwickelt und es wurden zu jedem/jeder Lerner/in zusätzlich zu den Daten aus den
Interviews die Daten aus den anderen Untersuchungsinstrumenten mit kodiert. Ausgewählt
wurden schließlich sechs Fälle (zu den Auswahlkriterien vgl. ebda.: 151–152), die auf jeweils
gut 20 Seiten dargestellt und in einer vergleichenden Synopse zusammengestellt werden. Die
in Form von „zusammenfassenden Thesen“ dargestellten Ergebnisse beruhen ausschließlich
auf diesen sechs Fällen. In der abschließenden Reflexion kommt Grünewald zu dem Schluss
„dass methodisch kontrollierte Einzelfalldarstellung[en] mehr können, als Theorien zu ver-
anschaulichen oder zu überprüfen. Sie können auch mehr als nur Hypothesen für weitere […]
Forschung generieren: Sie tragen zur Gewinnung neuer wissenschaftlicher Erkenntnisse und
damit letztendlich zur Theoriebildung bei“ (ebda.: 316).
Die Studie von Rauschert (2014) ist ein Beispiel für ein Design, das Fallstudie und Ak-
tionsforschung (Abschnitt 3) verknüpft. Ausgehend von dem bisher nur in der Pädagogik
bekannten Unterrichtsansatz des Service Learning setzt sich die Arbeit mit der Frage aus-
einander, wie im Englischunterricht in der gymnasialen Mittelstufe durch Projektarbeit, die
fachspezifische Ziele und Inhalte mit sozialem Engagement verbindet, interkulturelle und
kommunikative Kompetenzen gefördert werden können. Ausgehend von Byrams Modell
(Byram 1997) der interkulturellen kommunikativen Kompetenz und dem Leitgedanken des
Service Learning gestaltet die Verfasserin ein Projekt in einer 10. Klasse, in dessen Rahmen
die Schüler/innen in Zusammenarbeit mit indischen Schüler/innen ein Magazin zum Thema
„Happiness“ erarbeiten und produzieren, dessen Erlös einer indischen Schule zugute kommt.
Rauschert diskutiert den „action research cycle“ anhand ihres eigenen Projekts (Rauschert
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
2014: 161–166). Dabei reflektiert sie ihre eigenen Rollen als Forscherin und Lehrerin und
setzt sich mit kritischen Einschätzungen dieses Forschungsansatzes auseinander. Somit wird
deutlich, dass die Wahl des forscherischen Vorgehens getragen ist von genauer Kenntnis
des Ansatzes in seinen Schwächen und Stärken, von nachvollziehbaren Überlegungen zur
Passung von Forschungsthema, Fragestellungen und Methode und von (selbst-)kritischer Re-
flexion der eigenen Rolle. In den einzelnen Projektphasen werden unterschiedliche Formen
der Datenerhebung eingesetzt, zu denen erstens ein Fragebogen im Pretest-Posttest-Format
zur Feststellung interkultureller Fähigkeiten, Kenntnisse sowie Einstellungen, zweitens drei
Befragungen der beteiligten Schüler/innen in Form von Interviews, drittens eine (simulierte)
Pressekonferenz, viertens eine freie Textproduktion (Portfolio) und schließlich eine schriftli-
che Abschlussbefragung ein Jahr nach dem Projekt zählen. Alle Formen der Datenerhebung
werden im Hinblick auf die Gütekriterien empirischer Forschung genau analysiert. Der ein-
gesetzte Fragebogen wurde sowohl mit einer großen Stichprobe pilotiert als auch einem
Expertenrating unterworfen.
Das zentrale Ziel qualitativer Forschung ist die Erhebung der Innen- bzw. Binnensicht der
Forschungspartner/innen. Dazu gibt es eine Reihe von Konzepten und Zugängen, z. B. die
Erforschung von Einstellungen (attitudes), Überzeugungen (beliefs), Wissen (knowledge) oder
persönliche Konstrukten (personal constructs) bzw. Konzepten (conceptions). In der deutsch-
sprachigen fremdsprachendidaktischen Forschung wurde der vergleichsweise weit gefasste,
integrative Ansatz der „subjektiven Theorien“ besonders populär.
Hauptvertreterin dieses Ansatzes im deutschsprachigen Raum ist eine Gruppe um Norbert
Groeben, die in den 1970er und 80er Jahren das „Forschungsprogramm Subjektive Theorien“
(FST) (Groeben et al. 1988, s. im Folgenden auch Scheele/Groeben 1998) entwickelte. Dieses
theoretisch und methodisch ausgereifte, anspruchsvolle Modell geht von der sog. „Struk-
jektive‘ Theorie gültig ist. In dieser weiten Explikation vermag das FST zur „Überwindung des
unfruchtbaren Gegensatzes von sog. qualitativer und quantitativer Forschung beizutragen“
(Grotjahn 1998: 34).
Das FST stellt die Grundlage zahlreicher Studien zur Erhebung der Binnensicht von Lerner/-
innen und Lehrer/innen dar. Die Feststellung von Schart (2001:56), dass man „zumindest im
deutschen Sprachraum nicht umhin [komme], den eigenen Ansatz [dazu] in Bezug […] zu
setzen“ gilt bis heute. Dabei legen nur wenige Arbeiten die enge Begriffsexplikation zugrunde
(u. a. Richert 2009, Lochtman 2002). Wesentlich häufiger wird auf die weite Explikation rekur-
riert (u. a. von Martinez 2008, Schart 2003, Hochstetter 2011, Hüttner/Dalton-Puffer 2013),
nicht selten zuzüglich der kommunikativen Validierung (u. a. Berndt 2003, Kallenbach 1996,
Morkötter 2005, Viebrock 2007). Zwar beklagt Grotjahn (1998: 34), dass das FST „häufig
in einer sehr vagen und allgemeinen Bedeutung sowie ohne hinreichende theoretische Ver-
ankerung verwendet wird“. Trotzdem kam und kommt ihm vor allem als Prototyp in dem
Sinne, dass von Forscher/innen in Auseinandersetzung mit dem FST eine individuelle, ge-
genstandsbezogene Forschungsmethodik für die eigene Forschungsfrage entwickelt wird,
eine hohe Bedeutung für die forschungsmethodologische Diskussion innerhalb der Fremd-
sprachendidaktik zu.
Als Anwendungsbeispiel sei die eng an die Methodik des FST angelehnte, häufig zitier-
te Arbeit von Kallenbach (1996) skizziert. Sie untersucht die individuellen Vorstellungen
von fortgeschrittenen Fremdsprachenlerner/innen. Um diese subjektiven Theorien mittlerer
Reichweite zu erheben, führte sie „halbstrukturiert-leitfadenorientierte“ Interviews mit ins-
gesamt 14 Schüler/innen aus verschiedenen 12. Klassen, die seit einem guten Jahr zusätzlich
Spanisch lernten. Aus den Interviews erstellte die Verfasserin eine erste Rekonstruktion der
individuellen subjektiven Theorien. Diese wurden anschließend mit Hilfe der Heidelberger
Strukturlege-Technik kommunikativ validiert. Dazu erstellten die Schüler/innen aus den von
der Verfasserin ausgewählten und auf Kärtchen notierten zentralen Begriffen aus den Inter-
views mit Hilfe von zehn Relationskärtchen (z. B. „Wechselwirkung“, „Folge, Konsequenz“,
„Ober-/Unterbegriff“ oder „Beispiel“) ein Strukturbild, das ihre Subjektive Theorie möglichst
genau wiedergibt. Die Strukturbilder boten zum einen Anlass, im Gespräch bestimmte
Aspekte erneut zu thematisieren, außerdem wurden sie später den in den Interviews ent-
wickelten Argumentationen gegenübergestellt, so dass sich Hinweise auf die Konsistenz der
erhobenen Theorien ergaben. Zusätzlich füllten die Schüler/innen zwischen Interview und
kommunikativer Validierung einen fünfseitigen Fragebogen mit Fragen zu ihrem Fremd-
sprachenlernen aus, den die Verfasserin punktuell als Zusatzinformation heranzog. Fünf der
subjektiven Theorien wurden als einzelne Fälle dargestellt, zusätzlich wurden die zentralen,
von allen Gesprächspartner/innen thematisierten Aspekte des Fremdsprachenlernens inter-
viewübergreifend zusammengestellt („aggregiert“).
4.2.3 Aktionsforschung
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Mit der 1990 erschienenen Erstauflauge des Buches „Lehrer erforschen ihren Unterricht“ (Alt-
richter/Posch 1990) etablierte sich die Aktionsforschung (action research) oder Handlungs-
forschung bzw. die häufig als Synonyme verwendeten, eng damit verbundenen Konzepte
der Praxisforschung und teacher research auch im deutschsprachigen Raum. Sie bietet die
Möglichkeit, Theorie und Praxis in der Forschung untrennbar miteinander zu verbinden (zum
Verhältnis von Theorie und Praxis siehe auch Kapitel 6.2). Grundgedanke ist die Vorstellung
von Lehrer/innen als reflektierenden Praktiker/innen, die aktiv und systematisch ihren Unter-
richt erforschen und im Forschungsprozess verändern wollen.
Aktionsforschung kann in unterschiedlichen Kontexten angewandt werden: als Instru-
ment der Aus- und Fortbildung (vgl. Hermes 2001, z. B. in der Studie von Benitt 2015),
als Verfahren, um (selbstbestimmt) den eigenen Unterricht zu verändern, als Verfahren zur
Unterrichts- und Schulentwicklung (vgl. Weskamp 2003), als Schulbegleitforschungsprojekt
für die Konkretisierung und Erprobung bildungspolitischer Innovationen (z. B. Abendroth-
Timmer 2007, Bechtel 2015), als Instrument zur Implementation von Forschungsergebnissen
in der Praxis (vgl. Riemer 2014: 257) sowie als Instrument zur Erprobung und ggf. Wei-
terentwicklung wissenschaftlicher Erkenntnisse in der Praxis (z. B. Even 2003, Jäger 2011,
Lamsfuß-Schenk 2008, Schart 2008, Müller-Hartmann/Schocker/Pant 2013, Schreiber 2010,
Raith 2011). Normalerweise werden die Ergebnisse von Aktionsforschungsprojekten nur im
letzten Fall veröffentlicht, die anderen stehen der Öffentlichkeit zumeist nicht zur Verfügung.
Allerdings folgt die Aktionsforschung auch in weiteren Aspekten nicht unbedingt den
traditionellen Kriterien wissenschaftlicher Forschung bzw. definiert sie teilweise neu (vgl.
Altrichter 1990, Altrichter/Feindt 2011: 214–215):
– Die traditionelle Trennung von Forschung und Entwicklung wird in einem Prozess, in dem
Forschung und Entwicklung einander bedingen, aufgehoben.
– Ähnlich wie im FST (s. Abschnitt 2) werden Praktiker/innen als Akteure des Forschungs-
prozesses angesehen.
– Die Forschung ist als längerfristiger, zyklischer Prozess angelegt, innerhalb dessen – i. d. R.
ausgehend von einem Praxisproblem – theoretische Annahmen zur Veränderung der Pra-
xis im praktischen Handeln überprüft werden und nach erneuter Reflexion in revidierten
Praxisvorschlägen bzw. Veränderungen der theoretischen Annahmen münden (vgl. auch
die Darstellung in Burns 2010: 9).
– Aktionsforschung versucht der Komplexität der Praxis durch den Einbezug möglichst un-
terschiedlicher Forschungsinstrumente (i. d. R. (Selbst-) Beobachtungen und Befragungen)
und Perspektiven (neben den Lehrkräften und universitären Forscher/innen z. B. Schüler/-
innen, Kolleg/innen, studentische Beobachter/innen) gerecht zu werden.
– Viele Aktionsforschungsprojekte werden als Gemeinschaftsprojekte durchgeführt. Neben
forschungspraktischen Gründen wird dies der Vorstellung von professionellem Lernen als
sozialem Lernen gerecht.
– Dadurch, dass Aktionsforschung in soziale Praktiken eingreift, kann sie nicht wertneutral
sein.
– Die traditionellen, am quantitativen Paradigma ausgerichteten Vorstellungen von Objekti-
vität, Reliabilität und Validität werden neu definiert bzw. ersetzt durch Multiperspektivität,
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
4.2.4 Fazit
Die jeweils hohe Anzahl an Studien, die methodisch auf die hier vorgestellten komplexen
Designs zurückgreifen, deutet darauf hin, dass es sich hierbei um für fremdsprachendidakti-
sche Forschung besonders attraktive Forschungsansätze handelt. Dies könnte mit bestimmten
Spezifika fremdsprachendidaktischer Forschung (vgl. Kapitel 2) zusammenhängen: So ist es
mit Fallstudien besonders gut möglich, die Komplexität fremdsprachlicher Lehr-/Lernpro-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
zesse abzubilden. Auch scheint dieses Design der Tatsache entgegenzukommen, dass fremd-
sprachendidaktische Qualifikationsarbeiten i. d. R. als Einzelprojekt geplant und durchgeführt
werden. In Fallstudien werden zumeist mehrere Fälle (Subjekte, Lerngruppen, institutionelle
Kontexte) vorgestellt, so dass auf diese Weise nicht nur die Vielschichtigkeit, sondern auch die
Vielperspektivität fremdsprachendidaktischer Realitäten abgebildet werden kann. Das FST als
prominentester Ansatz zur Erforschung der Binnensicht von Subjekten spiegelt zum einen
die hohe Bedeutung, die den Akteur/innen fremdsprachlicher Lehr-/Lernprozesse als Sub-
jekten bzw. Individuen in der fremdsprachendidaktischen Forschung zukommt. Zum anderen
ermöglicht das Forschungsprogramm wie der Ansatz der Fallstudien, die Komplexität und
Unterschiedlichkeit subjektiver Vorstellungen sichtbar zu machen. Die enge Variante des FST
erlaubt darüber hinaus, das Handeln der untersuchten Personen in den Blick zu nehmen und
bietet damit eine – wenn auch nicht unumstrittene Möglichkeit – Theorie und Praxis zu ver-
binden. Dies ist ebenfalls das Anliegen der Aktionsforschung, wobei dieser Ansatz bewusst
über das Verstehen von Praxis hinausgeht und explizit auf ihre (forschende) Veränderung
abzielt. Dies geschieht ebenfalls in Form von Fallstudien, wobei den im Lehr-/Lernprozess
handelnden Akteur/innen die Schlüsselrolle zukommt. Zudem wird in diesem Ansatz das
zentrale Anliegen jeglicher fremdsprachendidaktischer Forschung, direkt oder indirekt auf
eine Verbesserung des Fremdsprachenlernens hinzuwirken, unmittelbar verfolgt.
›› Literatur
Abendroth-Timmer, Dagmar (2007). Akzeptanz und Motivation: Empirische Ansätze zur Erforschung
des unterrichtlichen Einsatzes von bilingualen und mehrsprachigen Modulen. Frankfurt/M.: Lang.
Altrichter, Herbert (1990). Ist das noch Wissenschaft? Darstellung und wissenschaftstheoretische Dis-
kussion einer von Lehrern betriebenen Aktionsforschung. München: Profil.
qualitativ
Methodologie und Methode Forschungspartner/in- kommunikative
Strukturparallelität des Denkens von nen im Dialog-Konsens Validierung
Forscher/innen und Partner/innen - Überprüfung der - explanative Validierung
Handlungsleitung
Aktionsforschung - Verstehen, forschende - reflektierende Praktiker/
durch Akteur/innen von Lehr-/Lernprozessen Veränderung und innen
4.2 Prototypische Designs
Altrichter, Herbert/Feindt, Andreas (2011). Lehrerinnen und Lehrer erforschen ihren Unterricht: Ak-
tionsforschung. In: Terhart, Ewald/Bennewitz, Hedda/Rothland, Martin (Hg.). Handbuch der For-
schung zum Lehrerberuf. Münster: Waxmann, 214–231.
Altrichter, Herbert/Posch, Peter (1990). Lehrerinnen und Lehrer erforschen ihren Unterricht. Bad Heil-
brunn: Klinkhardt. (4. Auflage 2007).
Bär, Marcus (2009). Förderung von Mehrsprachigkeit und Lernkompetenz. Fallstudien zu Interkom-
prehensionsunterricht mit Schülern der Klassen 8 bis 10. Tübingen: Narr
Bechtel, Mark (Hg.) (2015). Fördern durch Aufgabenorientierung. Bremer Schulbegleitforschung zu
Lernaufgaben im Französisch- und Spanischunterricht der Sekundarstufe I. Frankfurt/M.: Lang.
Benitt, Nora (2015). Becoming a (Better) Language Teacher. Classroom Action Research and Teacher
Learning. Tübingen: Narr.
Berndt, Annette (2003). Sprachenlernen im Alter. Eine empirische Studie zur Fremdsprachengeragogik.
München: iudicium.
Biebricher, Christiane (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens.
Tübingen: Narr. [Referenzarbeit, Kapitel 7]
Burns, Anne (2010). Doing Action Research in English Language Teaching. A Guide for Practitioners.
New York: Routledge.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Jäger, Anja (2011). Kultur szenisch erfahren. Interkulturelles Lernen mit Jugendliteratur und szenischen
Verfahren im aufgabenorientierten Fremdsprachenunterricht. Frankfurt/M.: Peter Lang.
Kallenbach, Christiane (1996). Subjektive Theorien. Was Schüler und Schülerinnen über Fremdsprachen-
lernen denken. Tübingen: Narr.
Kimes-Link, Ann (2013). Aufgaben, Methoden und Verstehensprozesse im englischen Literaturunter-
richt der gymnasialen Oberstufe. Eine qualitativ-empirische Studie. Tübingen: Narr.
Lamnek, Siegfried (2010). Einzelfallstudie. In: Ders. (Hg.). Qualitative Sozialforschung. 5. überarbeitete
Auflage. Weinheim: Beltz: 271–300.
Lamsfuß-Schenk, Stefanie (2008). Fremdverstehen im bilingualen Geschichtsunterricht: Eine Fallstudie.
Frankfurt/M.: Lang.
Lochtman, Katja (2002). Korrekturhandlungen im Fremdsprachenunterricht. Bochum: AKS-Verlag.
Martinez, Hélène (2008). Lernerautonomie und Sprachenlernverständnis: Eine qualitative Untersuchung
bei zukünftigen Lehrerinnen und Lehrern romanischer Sprachen. Tübingen: Narr.
Morkötter, Steffi (2005). Language Awareness und Mehrsprachigkeit. Eine Studie zu Sprachbewusstheit
und Mehrsprachigkeit aus der Sicht von Fremdsprachenlernern und Fremdsprachenlehrern. Frank-
furt/M.: Lang.
Müller-Hartmann, Andreas/Schocker, Marita/Pant, Hans Anand (Hg.) (2013). Lernaufgaben Englisch
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Literatur, Medien, Ausbildung. 36. Jahrestagung des Fachverbandes Deutsch als Fremdsprache 2008
an der Heinrich-Heine-Universität Düsseldorf. Göttingen: Universitätsverlag, 191–211.
Schubert, Anke (2013). Fremdverstehen durch amerikanische Jugendliteratur: Ein Beitrag zu einem
authentischen Englischunterricht. Trier: WVT.
Steininger, Ivo (2014). Modellierung literarischer Kompetenz. Eine qualitative Studie im Fremdsprachen-
unterricht der Sekundarstufe I. Tübingen: Narr.
Tesch, Bernd (2010). Kompetenzorientierte Lernaufgaben im Fremdsprachenunterricht. Frankfurt/M.:
Lang.
Viebrock, Britta (2007). Bilingualer Erdkundeunterricht. Subjektive didaktische Theorien von Lehre-
rinnen und Lehrern. Frankfurt/M.: Lang.
Wallace, Michael J. (1998). Action Research for Language Teachers. Cambridge: CUP.
Weskamp, Ralf (2003). Fremdsprachenunterricht entwickeln: Grundschule – Sekundarstufe I – Gymna-
siale Oberstufe. Hannover: Schroedel.
Burns, Anne (2010). Doing Action Research in English Language Teaching. A Guide for Practi-
tioners. New York: Routledge.
Hierbei handelt es sich um eine umfassende, an Praktiker/innen gerichtete Einführung in die Ak-
tionsforschung. Die Verfasserin behandelt alle für die Planung, Durchführung und Auswertung von
Aktionsforschungsprojekten notwendigen Grundlagen, Aspekte und Verfahren, wobei der Schwer-
punkt auf der kollaborativen Aktionsforschung liegt. Viele Beispiele von Aktionsforschungsprojekten
und zahlreiche praktische Hinweise ermutigen dazu, selbst ein solches Projekt zu beginnen oder zu
begleiten.
De Florio-Hansen, Inez (Koord.) (1998). Fremdsprachen Lehren und Lernen 27. Themenschwer-
punkt: Subjektive Theorien von Fremdsprachenlehrern.
Dieses Themenheft enthält zahlreiche Beiträge zur Erforschung subjektiver Theorien in der Fremd-
sprachendidaktik. Die Spannweite reicht von grundlegenden forschungsmethodologischen und -me-
thodischen Aufsätzen über Beiträge zur Erforschung von subjektiven Theorien von (angehenden)
Lehrkräften bis hin zu Berichten über die Arbeit mit subjektiven Theorien in der Lehrerausbildung.
4.3 Sampling
Urška Grum/Michael K. Legutke
Kapitel skizziert werden soll, nennt man Sampling. So geht es u. a. um die Frage, von welchen
Personen, Gruppen, Objekten oder Merkmalen (Stichprobe) in welcher Anzahl Daten erhoben
werden sollen (Stichprobenziehung). Entschieden werden muss ferner, welche der erhobenen
Daten im Detail zu analysieren sind (Datensampling) und welche Ergebnisse der Analyse
prominent diskutiert und dargestellt werden müssen (Präsentationssampling).
Unter Sample versteht man eine Stichprobe, also eine Gruppe von Menschen oder Ob-
jekten, die einer Grundgesamtheit (Population) entnommen wurde, um diese auf bestimmte
Merkmale hin zu untersuchen, sprich um von dieser Daten zu erheben. In der qualitativen
Studie von Steininger (2014), die die Modellierung literarischer Kompetenz für den Englisch-
unterricht am Ende der Sekundarstufe I versucht, setzt sich die Stichprobe aus jeweils zwei
10. Gymnasialklassen, zwei 10. Realschul-, zwei 10. Gesamtschul- und schließlich zwei 9.
Hauptschulklassen zusammen (Steininger 2014: 99). Sie besteht demnach aus acht Fällen bzw.
Teilstichproben. Die Grundgesamtheit bildet hier die Gruppe aller Schülerinnen und Schüler
mit Englischunterricht am Ende der Sekundarstufe in Hessen.
Da Forschungsvorhaben, die einem quantitativen Paradigma verpflichtet sind, sich in den
grundlegenden Zielsetzungen von denen unterscheiden, die qualitativen Designs folgen, diffe-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
rieren auch die Auswahlentscheidungen und -prozesse. Aus diesem Grund wird nachfolgend
Sampling in der quantitativen (Abschnitt 2) und der qualitativen Forschung (Abschnitt 3) ge-
trennt erörtert. Trotz der Unterschiede zwischen quantitativen und qualitativen Forschungs-
arbeiten sind empirisch arbeitende Forschende in der Regel mit den Herausforderungen des
Zugangs zum Forschungsfeld konfrontiert, den Schlüsselpersonen und Institutionen (gatekee-
pers) regulieren. Für Arbeiten im schulischen Bereich sind dies u. a. die Kultusministerien der
Länder, die Schulleitungen, die Schulkonferenzen und die Lehrkräfte. Gatekeepers spielen
häufig eine zentrale Rolle bei der Konkretisierung der Auswahlentscheidungen (Merkens
2012: 288). Forschende können oftmals gar nicht anders, als ein aus forschungsstrategischen
Überlegungen als ideal eingestuftes Sampling zu modifizieren, weil die Anforderungen der
gatekeepers Einschränkungen mit sich bringen (s. auch Kapitel 4.6). Auswahlentscheidungen
sind deshalb häufig Ergebnisse von Kompromissen, ohne die das jeweilige Forschungsprojekt
gefährdet wäre, wie unten an Beispielen noch verdeutlicht wird.
Quantitative Forschung strebt vom Grundsatz her Repräsentativität der Ergebnisse an. Diese
wäre vollständig gegeben, würden alle für die Beantwortung der Forschungsfrage zu unter-
suchenden Personen, Merkmale oder Objekte untersucht. Da dies jedoch aus Praktikabilitäts-
gründen meistens nicht möglich ist, muss aus der Grundgesamtheit eine Stichprobe gezogen
werden, die das zu untersuchende Phänomen möglichst genau abbildet, sprich repräsentiert.
Mit anderen Worten: quantitative Forschung ist daran interessiert, Ergebnisse zu gewinnen,
die nicht nur für die Stichprobe selbst, sondern für die gesamte Population gültig sind. Die
zugrunde gelegte Population, die anhand einer Stichprobe genauer untersucht werden soll,
kann dabei sehr groß (z. B. alle 15-jährigen Schülerinnen und Schüler weltweit) oder auch
sehr klein sein (z. B. alle Schülerinnen und Schüler einer Klasse). Welche Stichprobengröße in
Relation zur Grundgesamtheit angemessen ist, wird in Abschnitt 2.3 erläutert. Zunächst soll
1 Vorabentscheidungen
Um die mit Hilfe statistischer Verfahren gewonnenen Analyseergebnisse einer Stichprobe
später auf die gesamte Population verallgemeinern zu können, müssen vorab genaue Über-
legungen angestellt werden, wie die Repräsentativität der Stichprobe sichergestellt werden
kann. Vollständige Repräsentativität ist gegeben, wenn alle Mitglieder der Grundgesamtheit
untersucht werden, so dass Population und Stichprobe deckungsgleich sind. Diese Total-
oder Vollerhebung stellt die einfachste Sampling-Strategie dar. In diesem Fall ist die gesamte
Population erhebungsrelevant und kann mit den gegebenen Ressourcen in ihrem Umfang
auch erfasst werden. Beispielsweise ließen sich über eine Vollerhebung alle Schülerinnen und
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Schüler einer Schule zu ihrer Zufriedenheit mit dem kulinarischen Angebot der Schulmensa
befragen, wohingegen es ein hoffnungsloses Unterfangen wäre, mit dieser Sampling-Strategie
die Lesekompetenz aller 15-jährigen Schülerinnen und Schüler weltweit messen zu wollen.
Hier empfiehlt es sich, von einer Vollerhebung abzusehen und die erhebungsrelevante Grund-
gesamtheit in ihrer Anzahl (Umfang der Grundgesamtheit: N) im Rahmen einer Teilerhebung
auf eine Stichprobe geringerer Zahl (Stichprobenumfang: n) zu reduzieren. Um jedoch die
aus der Analyse der über die Stichprobe gewonnenen Befunde auf die Grundgesamtheit (alle
15-Jährigen weltweit) beziehen zu können, bedarf es einer Stichprobe, die die Grundgesamt-
heit repräsentiert. Eine repräsentative Stichprobe stellt ein unverzerrtes Miniaturabbild der
Grundgesamtheit in Bezug auf die zu untersuchenden Personen, Objekte oder Merkmale dar.
Ist die Miniatur nicht deckungsgleich mit dem Original, entsteht ein Zerrbild, was die Grund-
gesamtheit nicht zuverlässig darstellt. Repräsentativität ist
in der Forschungspraxis eher eine theoretische Zielvorgabe als ein Attribut konkreter Untersuchun-
gen […] Die meisten Laien […] glauben, dass große Stichproben (z. B. 1000 Befragte) bereits die
Kriterien für Repräsentativität erfüllen. […] Es ist ein weit verbreiteter Irrtum, dass mit wachsender
Stichprobengröße die Repräsentativität der Stichprobe generell steigt. Dies trifft nur bei unverzerrter
Auswahl zu. Bei einer verzerrten Auswahl hilft auch ein großer Stichprobenumfang nicht, den
Fehler zu beheben, er wiederholt sich nur in großem Stil. (Bortz/Döring 2006: 398)
2 Sampling-Strategien
Probabilistischen Sampling-Strategien (Zufallsstichprobenauswahl) liegt die Annahme zu-
grunde, dass sich Zufallsstichproben, die von einer Grundgesamtheit gezogen werden, zwar
unterscheiden, aber alle Elemente der Grundgesamtheit qua Zufall eine ähnliche Wahrschein-
lichkeit haben, genauso verteilt zu sein wie in der Grundgesamtheit. Statistisch betrachtet ist
somit eine ausreichend große Wahrscheinlichkeit gegeben, dass eine einzelne Zufallsstich-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
probe dem Mittel der Grundgesamtheit ähnelt. Aus probabilistischen Stichproben gewonnene
Ergebnisse erlauben daher populationsbeschreibende Rückschlüsse. Aus den gängigsten pro-
babilistischen Sampling-Strategien resultieren u. a. folgende Stichprobentypen:
• Zufallsstichprobe: Eignet sich für Untersuchungen, bei denen noch nichts über die unter-
suchungsrelevanten Merkmale bekannt ist. Per Zufallsauswahl werden die Probandinnen
und Probanden (oder Objekte) direkt aus der Grundgesamtheit gezogen. Dazu muss die
Grundgesamtheit bekannt sein und die Auswahl nachweislich zufällig stattfinden (vgl. z. B.
Bortz/Döring 2006: 480, Bortz/Schuster 2010: 80, Cohen/Manion/Morrison 2011: 153).
Dies kann z. B. dadurch gewährleistest werden, dass jedes Mitglied der Grundgesamt-
heit eine Nummer erhält. Die Auswahl der zur Stichprobe gehörigen Nummern erfolgt
dann über einen Zufallsgenerator. Hier wird statistisch unterschieden zwischen einfacher
Zufallsstichprobe (die gezogenen Nummern werden zurückgelegt und können erneut aus-
gewählt werden) und Zufallsstichprobe (hier kann jedes Mitglied der Grundgesamtheit nur
einmal in die Stichprobe gewählt werden).
• Geschichtete Stichprobe: Um die Verteilung der zu untersuchenden Merkmalsausprägung
in einer Stichprobe analog zu ihrer Verteilung auf verschiedene Schichten innerhalb der
Grundgesamtheit replizieren zu können, muss diese Verteilung (z. B. aus Vorstudien) be-
kannt sein. Die Mitglieder aus den Schichten der Grundgesamtheit werden zufällig in die
entsprechende Schicht der Stichprobe gewählt (vgl. z. B. Bortz/Döring 2006: 425, Bortz/
Schuster 2010: 81, Cohen/Manion/Morrison 2011: 154). Ist beispielsweise bekannt, dass
sich Leistungskurse in der Fremdsprache Französisch im Mittel aus 20 % männlichen und
80 % weiblichen Jugendlichen zusammensetzen, dann sollte sich diese Quote auch in der
Stichprobe einer entsprechenden Studie wiederfinden. Gleiches gilt für alle Merkmale, die
Einfluss auf die im Forschungsfokus stehende Eigenschaft haben könnten.
• Klumpenstichprobe: Als Klumpen werden natürliche Teilkollektive oder bereits bestehen-
de Gruppen bezeichnet, wie etwa Schulklassen und Schulen. Analog zur Zufallsstichpro-
benziehung ist auch hier eine Liste aller studienrelevanten Klumpen notwendig, aus der
per Zufall eine bestimmte Anzahl an Klumpen in ihrer Gesamtheit für die Stichprobe
ausgewählt wird (vgl. z. B. Bortz/Döring 2006: 435–6, Bortz/Schuster 2010: 81, Cohen/
Manion/Morrison 2011: 154). Es ist beispielsweise nicht möglich, im Rahmen einer Klum-
penstichprobenziehung, für die ganze Schulklassen ausgewählt werden, nur einige Schüler
aus einer gewählten Schulklasse in die Stichprobe aufzunehmen.
• Mehrstufige Stichprobe: Klumpenstichproben können oftmals zu umfangreich werden,
wenn die Klumpen selbst schon sehr groß sind. In diesen Fällen bieten sich zwei- oder
mehrstufige Stichprobenziehungen an. Dabei wird in einem ersten Schritt eine Liste aller
untersuchungsrelevanten Klumpen erstellt, aus der per Zufall eine bestimmte Anzahl an
Klumpen ausgewählt wird (Klumpenstichprobe). In einem zweiten Ziehungsschritt wird
wiederrum per Zufall eine bestimmte Anzahl an einzelnen Untersuchungsobjekten für
die Stichprobe ausgewählt. Diese Schritte können mehrfach wiederholt werden (vgl. z. B.
Bortz/Döring 2006: 440–1, Cohen/Manion/Morrison 2011: 155). Die Stichprobenziehun-
gen der PISA-Studien folgen annäherungsweise einer zweistufigen Sampling-Strategie:
Zuerst werden per Zufall aus einer vollständigen Liste infrage kommender Bildungsein-
richtungen Schulen ausgewählt (Klumpenstichprobe), aus denen dann in einem zweiten
Schritt zufällig die 15-jährigen Probandinnen und Probanden gezogen werden.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
gesamtheit, gleichwohl lässt sich aber die Stichprobe beschreiben. Daher sind nicht-pro-
babilistische Stichprobenverfahren dann sinnvoll, wenn beispielsweise die Grundgesamtheit
unbekannt ist oder eine Studie zu rein deskriptiven oder explorativen Zwecken durchgeführt
wird. Zu nicht-probabilistischen Sampling-Strategien gehören u. a. folgende Stichproben-
typen:
• Ad-hoc-Stichprobe (Bequemlichkeitsauswahl oder Gelegenheitsstichprobe): Eine bereits
bestehende Personengruppe bildet die Stichprobe (z. B. eine Schulklasse oder Lerngruppe,
Passanten). Es ist meist nicht zu rekonstruieren, welche Grundgesamtheit eine Ad-hoc-
Stichprobe abbildet (vgl. z. B. Bortz/Döring 2006: 723, Bortz/Schuster 2010: 82, Cohen/
Manion/Morrison 2011: 155–6).
• Quotenstichprobe: Die Zusammensetzung der Stichprobe erfolgt nach Merkmalsquoten,
die analog zur Zusammensetzung dieser in der Population erfolgt. Es werden gezielt ver-
meintlich passende Untersuchungsobjekte in die Stichprobe aufgenommen, um die Quote
für bestimmte Merkmalskategorien zu erfüllen. Die Erfüllung der Quoten spielt dabei eine
größere Rolle als die zufällige Auswahl der Stichprobe und erfolgt nicht per Zufall, sondern
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
nach subjektiven Kriterien der Datenerhebenden (vgl. z. B. Bortz/Döring 2006: 483, Bortz/
Schuster 2010: 82, Cohen/Manion/Morrison 2011: 156). Von einer Quotenauswahl kann
beispielsweise dann gesprochen werden, wenn die Vorgabe ist, je vier Englischlehrerinnen
und -lehrer zu befragen und der Interviewer sich in den Schulpausen im Lehrerzimmer
solange passende Interviewpartner sucht, bis die Quote erfüllt ist.
• Theoretische Stichprobe: Nicht zufalls-, sondern theoriegeleitet werden für eine For-
schungsfrage besonders typische oder untypische Fälle ausgewählt, mit dem Ziel, deren
Verteilung in der Grundgesamtheit in der Stichprobe widerzuspiegeln (vgl. z. B. Bortz/
Döring 2006: 742–3, Bortz/Schuster 2010: 82, Cohen/Manion/Morrison 2011: 156–7).
Dieses Verfahren wird auch bei quantitativen Studien eingesetzt, findet aber primär in der
qualitativen Forschung Anwendung (s. Kapitel 4.3).
3 Stichprobengröße
Um eine möglichst hohe Repräsentativität für die Aussagekraft der Ergebnisse einer Studie
zu erzielen, ist neben der Genauigkeit, mit der eine Stichprobe die Grundgesamtheit abbildet,
und dem Grad an Zufälligkeit, mit der die Elemente der Grundgesamtheit in die Stichprobe
gewählt werden, auch die Größe der Stichprobe von Bedeutung. Prinzipiell lassen sich statis-
tische Kennzahlen mit jedem ‚irgendwie‘ erhobenen Datensatz jeglicher Größe berechnen –
jedoch lassen sich weder die Qualität der Ergebnisse noch die Aussagekraft der Studie nach-
vollziehen. Wird ein quantitativ-empirisches Forschungsdesign mit auf die Grundgesamtheit
schließenden inferenzstatistischen Verfahren angestrebt, lässt sich a priori der Umfang für
die probabilistisch zu erhebende Stichprobe berechnen. Dabei wird ein möglichst optimaler
Stichprobenumfang angestrebt, denn zu kleine Stichproben verringern die Teststärke und
zu große Stichproben erhöhen den Erhebungsaufwand unnötig. „Stichprobenumfänge sind
optimal, wenn sie einem Signifikanztest genügend Teststärke geben, um einen getesteten
Effekt bei vorgegebener Effektgröße entdecken und auf einem vorgegebenen Signifikanz-
niveau absichern zu können“ (Bortz/Döring 2006: 736). Statistisch gesehen hängen Teststärke,
Effektgröße, α-Fehlerniveau und Stichprobenumfang voneinander ab. Dies bedeutet, dass
sich die Stichprobengröße berechnen lässt, wenn man Teststärke, Effektgröße und α-Fehler-
niveau festlegt. Diese Berechnung ist auch abhängig vom gewählten statistischen Verfahren,
das auf die Daten angewendet werden soll. Das α-Fehlerniveau wird oftmals auf 5 % oder 1 %
festgelegt und die Teststärke (1-β) auf .80. Die Effektgröße hingegen ist stark abhängig vom
Forschungszusammenhang und wird oft in kleinere, mittlere und größere Effekte unterteilt.
Der optimale Stichprobenumfang lässt sich für spezifische statistische Tests beispielsweise mit
der Software G*Power berechnen oder in Tabellen nachschlagen (vgl. z. B. Cohen/Manion/
Morrison 2011: 147–8, Bortz/Döring 2006: 627–8).
Zusammenfassend lässt sich für die Planung eines quantitativen Samplings folgender Ab-
laufplan erstellen: Zuerst wird entschieden, ob es nötig ist, eine Stichprobe zu ziehen oder ob
eine Vollerhebung durchgeführt werden kann. Danach wird die Population in ihrer Größe
und ihren erhebungsrelevanten Merkmalen definiert. Anschließend erfolgt die Festlegung
auf eine für die Studie passende Sampling-Strategie. Zum Schluss wird überprüft, ob Zugang
zur Stichprobe besteht (gatekeepers) oder ggf. die Sampling-Strategie geändert werden muss.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Studie, eine Gruppe von 22 Informanten, die zum einen als typisch markierte Fälle gemäß
der Kriterien enthält, zum anderen eine maximale Variation der Teilnehmenden innerhalb
der Gesamtgruppe abbildet (Ehrenreich 2004: 158f).
Kimes-Link (2013) untersucht „welche Aufgaben und Methoden Lehrkräfte im englischen
Literaturunterricht der gymnasialen Oberstufe bei der Lektüre von Ganzschriften einsetzen
und inwiefern diese geeignet sind, die Interaktion zwischen den Lernenden und dem Text
sowie die Interaktion innerhalb der Lerngruppe zu intensivieren, gemeinsame Bedeutungs-
aushandlungen zu initiieren und vertiefte Verstehensprozesse zu begünstigen“ (Kimes-Link
2013: 85). Sie konstituiert theoriegeleitet die Stichprobe ihrer Studie aus insgesamt sieben
Kursgruppen gymnasialer Oberstufen, die zum einen unterschiedliche Schul- und Kurstypen
repräsentieren, zum anderen ein Spektrum unterschiedlicher literarischer Genres zum Ar-
beitsgegenstand haben (Dramen, Jugendromane, Romane und Kurzgeschichten).
A priori vorgenommene, kriterien- und theoriegeleitete Konstruktionen einer Stichprobe
werden, wenn es um die konkrete Realisierung des Projekts geht, von drei Aspekten beein-
flusst, die letzten Endes den Forschungsprozess beeinflussen und häufig für das Sampling
modifizierend wirken. Die Frage, wo und wie Forschende ihre Forschungspartner gewinnen,
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
bringt die Herausforderung auf den Begriff. Da ist zum einen der Aspekt der räumlichen
und institutionellen Zugänglichkeit. So kann es sein, dass ein räumlich naher und deshalb
forschungspragmatisch günstiger Kontext, der für die Bearbeitung der Forschungsfrage zu-
dem sehr vielversprechend wäre, nicht zugänglich ist, weil die gatekeepers unüberwindliche
Hürden errichten. Andererseits kann ein räumlich ferner Kontext zugänglich sein, der den
Forschenden jedoch einen größeren Zeitaufwand abnötigt und damit den Forschungsprozess
erheblich belastet. Damit ist auch der zweite Aspekt angesprochen, nämlich die Machbarkeit
des Projekts. Gerade für Qualifikationsarbeiten, die in der Regel von Individuen und nicht
von Forschergruppen geleistet werden und mit oft sehr begrenzten Zeitbudgets auskommen
müssen, ist die Frage, was unter den konkreten Bedingungen leistbar ist, von Bedeutung.
Machbarkeitsüberlegungen werden deshalb in das Sampling eingehen müssen. Die Kom-
bination von Machbarkeits- und Zugänglichkeitsüberlegungen kann zu einer Ad-hoc-Stich-
probe führen, die weniger kriterien- und zielgeleitet, als vielmehr pragmatisch bestimmt ist:
Die Forschende wendet sich Personen und Kontexten zu, die zur Verfügung stehen, wie die
Untersuchung von Roters (2012: 161–63) verdeutlicht. Roters befasst sich in ihrer explorati-
ven Studie mit dem Konstrukt der Reflexion, das in Diskursen zur Entwicklung von Lehrer-
professionalität als Schlüsselkompetenz markiert wird. Untersuchungsgegenstand sind die
Beschreibung und Analyse zweier Lehrerbildungsprogramme und -kontexte einer deutschen
und einer US-amerikanischen Universität. Die Auswahl der Stichprobe erfolgte zunächst
theoriegeleitet und über umfangreiche Dokumentenanalysen, dann aber nach Kriterien der
Zugänglichkeit und Machbarkeit, wobei nicht zuletzt formale und institutionelle Anforderun-
gen bestimmend wirkten.
Von Relevanz für die Bestimmung der Stichprobe ist schließlich die Bereitschaft der For-
schungspartner, sich auf die Belastungen des Forschungsprozesses einzulassen: etwa auf nar-
rative Interviews (Ehrenreich 2004) oder auf Videoaufnahmen im Klassenzimmer (Kimes-
Link 2013): „… wie kann [der Forscher] erreichen, dass eine entsprechende Bereitschaft nicht
nur geäußert wird, sondern zu konkreten Interviews und anderen Daten führt“ (Flick 2011:
143)?
von Englischlehrkräften in der Grundschule befasst, konzentriert sich auf Personen in den
Daten, die in Hinblick auf die Forschungsfrage über typische Eigenschaften, Merkmale
und/oder Erfahrungen verfügen (weibliche Lehrkräfte mit mehr als drei Jahren Berufs-
erfahrung, die Englisch nicht als Muttersprache mitbringen), auf Personen also, die typisch
für die Mehrzahl der untersuchten Fälle sind.
• Sampling maximaler Variation: Der Forscher interessiert sich besonders für Fälle, die sig-
nifikante Unterschiede aufweisen, um die Bandbreite und Variabilität von Erfahrungen der
untersuchten Gruppe zu erfassen und dabei mögliche Gemeinsamkeiten herauszuarbeiten.
• Sampling extremer oder abweichender Fälle: Die Strategie ähnelt der vorangegangenen.
Der Forscher fokussiert auf die Extremfälle, z. B. auf Lehrkräfte, die ihr berufliches Selbst-
verständnis besonders stark mit der Einschätzung ihrer L2-Kompetenz verknüpfen und
sich Muttersprachlern besonders unterlegen fühlen. Auch hier könnte von Interesse sein,
ob selbst solche Extremfälle Gemeinsamkeiten aufweisen.
• Event-Sampling: Diese Sampling-Strategie ist vorwiegend in der Videoforschung vertreten
und filtert bestimmte niedrig- oder hochinferente Phänomene (wie Partnerarbeit oder
mündliche Fehlerkorrekturen) aus dem Videomaterial heraus. Event-Sampling wird vom
Time-Sampling abgegrenzt. Beim Time-Sampling werden Kodierungen in bestimmten
Zeitabständen vorgenommen (z. B. alle 2 Minuten) (vgl. Appel/Rauin 2015).
• Sampling kritischer Fälle: Diese Strategie ist dem Event-Sampling ähnlich. Sie zielt auf
Fälle in den Daten, die als zentral für die untersuchten Zusammenhänge gelten können.
Schwab (2006), der mit Hilfe einer konversationsanalytischen Longitudinalstudie die Inter-
aktionsstrukturen im Englischunterricht einer Hauptschulklasse untersucht, konkretisiert
nach der ersten Durchsicht einer Grobtranskription der Daten die Gesprächspraktik „Schü-
lerinitiative“ als ein kritisches Phänomen und zentrales Element von Schülerpartizipation.
81 dieser kritischen Fälle werden dann im Detail transkribiert und einer differenzierten
3 Zu den einzelnen Strategien vgl.: Dörnyei 2007: 95ff; Flick 2011: 165–67; Cohen/Manion/Morrison 2011:
148–164.
Analyse unterzogen (Schwab 2006). Die Referenzarbeit von Schwab verdeutlicht, dass
Sampling-Prozesse in qualitativen Studien in der Regel offen und iterativ sind, denn die
zu untersuchenden Fälle gewinnen oftmals erst im Prozess der Datenbearbeitung an Ge-
stalt: die Grundgesamtheit kann nicht von vorneherein genau bestimmt werden, sondern
konstituiert sich durch einen Prozess der sukzessiven Differenzierung bereits gewonnener
Erkenntnisse und die daraus folgende, erneute Interpretation der Daten, die u. U. sogar
eine weitere Phase der Datengewinnung im Sinne der Forschungsfrage nahe legt. Die Aus-
wahlentscheidungen werden durchgängig von Relevanzkriterien für die Forschungsfrage
und durch die bereits formulierten Einsichten und Vermutungen und, nicht zuletzt, durch
vorhandene Wissensbestände (Vorwissen, Fachwissen) geleitet.
Dieses zyklisch voranschreitende Auswahlverfahren wird als Theoretical-Sampling bezeich-
net und wurde erstmals von Vertretern der empirischer Sozialforschung im Zusammenhang
der Grounded Theory beschrieben (s. Kapitel 5.3.3). Obwohl der Begriff ursprünglich in der
Grounded Theory-Methodologie verortet ist und dort den Prozess der datengeleiteten Theo-
riegenerierung bezeichnet, wird das Verfahren des Theoretical-Sampling auch mit anderen
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Methoden qualitativer Forschung verbunden (s. Kapitel 5.3.4). Alle oben genannten Sam-
pling-Strategien können im Verfahren des Theoretical-Sampling zur Anwendung kom-
men.4
4 Das methodische Vorgehen des Theoretical Sampling und seine methodologische Begründung werden im
Kapitel 5.3.3. ausführlich erörtert und mit Hinweisen auf Referenzarbeiten verdeutlicht. Eine Einzeldar-
stellung kann hier deshalb entfallen. S. auch Silverman 2000: 105–110.
4.3.4 Fazit
Auch wenn es sinnvoll ist, Sampling-Verfahren nach qualitativ und quantitativ zu unter-
scheiden, lassen sich Forschungsvorhaben nicht immer strikt in quantitative oder qualitative
Erhebungs- und Analyseverfahren unterteilen, so dass es auch Sampling-Strategien gibt,
bei denen quantitative und qualitative Verfahren kombiniert werden (Mixed-Methods-Sam-
pling). Hierzu gehören z. B. parallele, sequenzielle oder multi-level Auswahlverfahren (vgl.
z. B. Kuckartz 2014, Cohen/Manion/Morrison 2011: 162–3, Teddlie/Yu 2007, s. auch Ka-
pitel 3.3 und 6.4).
Prinzipiell sollte die Sampling-Strategie immer auf Basis der Forschungsfrage gewählt
werden und dem Forschungszweck dienen. Die gewählte Strategie muss transparent sein,
mögliche Einschränkungen berücksichtigen und zum gewählten Design passen. Alle diese As-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
pekte bestimmen letztendlich auch den Grad an Generalisierbarkeit, der für die gewonnenen
Ergebnisse erreicht werden kann bzw. die angestrebte Aussagekraft der Studie.
›› Literatur
5 Weitere Beispiele für solche Entscheidungsprozesse liefern die Arbeiten von Benitt (2015) und Zibelius
(2015).
*Roters, Bianca (2012). Professionalisierung durch Reflexion in der Lehrerbildung. Eine empirische
Studie an einer deutschen und einer US-amerikanischen Universität. Münster: Waxmann.
*Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden
für Deutsch als Fremdsprache. Hohengehren: Schneider. [Referenzarbeit, s. Kurzbeitrag Kapitel 7]
*Schwab, Götz (2009). Gesprächsanalyse und Fremdsprachenunterricht. Landau: Verlag Empirische
Pädagogik. [Referenzarbeit, s. Kurzbeitrag Kapitel 7]
Silverman, David (2000). Doing Qualitative Research. A Practical Handbook. London: Sage.
*Steininger, Ivo (2014). Modellierung literarischer Kompetenz. Eine qualitative Studie im Fremdspra-
chenunterricht der Sekundarstufe I. Tübingen: Narr.
Teddlie, Charles/Yu, Fen (2007). Mixed Methods Sampling. A Typology with Examples. Journal of
Mixed Methods Research 1/1, 77–100.
*Zibelius, Marja (2015). Cooperative Learning in Virtual Space. A Critical Look at New Ways of Teacher
Education. Tübingen: Narr.
4.4 Triangulation
4.4.1 Begriffsklärung
Mit Triangulation wird eine methodologische Strategie bezeichnet, bei der ein Forschungs-
gegenstand aus zwei oder mehreren Perspektiven betrachtet wird und es zu einer Kom-
bination verschiedener Methoden, Datenquellen, theoretischer Zugänge oder Einflüsse durch
mehrere Forschende kommt. Der Begriff ist der Landvermessung entlehnt und wird dort für
die exakte Lokalisierung eines Objektes durch die Verwendung bereits bekannter Fixpunkte
verwendet. Der Grundgedanke, durch den Einsatz mehrerer Bezugspunkte möglichst genaue
Ergebnisse zu erzielen, führte einst auch zur Verwendung des Begriffs als Metapher in der
sozialwissenschaftlichen Forschung (Campbell/Fiske 1959, Webb et al. 1966).
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
4.4.2 Datentriangulation
Von Datentriangulation wird gesprochen, wenn Datensätze kombiniert werden, die ver-
schiedenen Quellen entstammen (Denzin 1970). Allein nach dieser Definition könnte jedoch
jede Art der Methodentriangulation auch als Datentriangulation bezeichnet werden, denn der
Einsatz verschiedener Methoden führt immer auch zu unterschiedlichen Datensätzen (Agua-
do 2015: 207, Settinieri 2015: 23). Denzin spricht daher nur dann von Datentriangulation,
wenn dieselbe Methode verwendet und das gleiche Phänomen untersucht wurde (Denzin
1970: 301).
In Anlehnung an Denzin können drei Subtypen von Datentriangulation entsprechend der
Triangulation verschiedener Zeitpunkte, Personen und/oder Orte unterschieden werden. So
kann, wie z. B. in der Studie von Schwab (2009), die Datenerhebung zu mehreren Zeitpunkten
stattfinden. Obwohl es nicht um das Nachzeichnen einer Entwicklung ging, erstreckten sich
die Videomitschnitte von Unterrichtssequenzen in dieser Untersuchung über zwei Schuljahre.
Die Erhebung von Daten mit einer spezifischen Methode kann auch mit einer weiteren Person
oder Personengruppe durchgeführt werden, was geradezu den Regelfall darstellt und mit
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Blick auf Sampling-Prozeduren zu reflektieren ist (vgl. Kapitel 4.3). Der dritte Triangula
tionstyp beschreibt die Kombination von Datensätzen, die an mehreren verschiedenen Orten
erhoben wurden. In allen drei Fällen geht es nicht darum, auf diese Weise unterschiedliche
Variablen (verschiedene Zeitpunkte, Personen oder Orte) zu erfassen und bei der Analyse zu
berücksichtigen, sondern Datentriangulation dient grundsätzlich dazu, die Robustheit der
Studie zu erhöhen.
Die Beispiele machen deutlich, dass meist mehrere Triangulationsstrategien gleichzeitig
verwendet werden und Denzins Klassifizierungen nicht immer trennscharf sind. So ist die
lokale Datentriangulation auch zwingend immer eine Kombination verschiedener Per-
sonen(gruppen). In Bezug auf die zeitliche Triangulation wird mehrfach angemerkt, dass
demnach auch Longitudinalstudien triangulierende Untersuchungen wären, da hier die
Datensätze mehrerer Zeitpunkte in Beziehung zueinander gesetzt werden. Dieses Vorgehen
dient jedoch weder der Validierung noch der Vertiefung von Erkenntnissen, sondern der Er-
forschung von Prozessen (s. auch Aguado 2015: 207–8).
Im Unterschied zu Denzins Verwendung des Begriffs Datentriangulation als Oberbegriff
gehen andere Klassifizierungen von Datentriangulation (bezogen auf Personen als verschie-
dene Informationsquellen), von zeitlicher und örtlicher Triangulation als nebeneinander
stehende Triangulationstypen aus (Brown/Rodgers 2002, Cohen/Manion/Morrison 2011).
Denzin plädiert in Anlehnung an das theoretical sampling der Grounded Theory dafür,
innerhalb einer Studie nach möglichst vielen auf den Forschungsgegenstand bezogenen Da-
tenquellen zu suchen, um durch Vergleiche möglichst kontrastiver Settings entsprechende
theoretische Konzepte sukzessive herausarbeiten zu können (Denzin 1970: 301). Dem Prinzip
von Replikationsstudien (s. Kapitel 4.5) liegt ein ähnlicher Gedanke zugrunde, doch spricht
man von Triangulation nur in den Fällen, in denen Daten bei der Analyse direkt zueinander
in Beziehung gesetzt werden; dies ist in der Regel nur im Rahmen jeweils einer Studie der
Fall, da Replikationsstudien zwar die Befunde, in der Regel aber nicht die Daten von Vor-
gängerstudien mit den eigenen Daten in Beziehung setzen (s. auch Kapitel 4.5 zu Metaana-
lysen).
4.4.3 Methodentriangulation
Die Kombinationen mehrerer Methoden zur Erforschung eines Gegenstands ist die wohl
am häufigsten durchgeführte Art der Triangulation. Denzin (1970: 308–9) unterscheidet
hier zwei Formen: zum einen die Triangulation innerhalb einer Methode (within-method)
und zum anderen die Verwendung verschiedener Methoden zur Beantwortung einer For-
schungsfrage (between-method). Wenn z. B. in der Studie von Schart (2003) innerhalb eines
Fragebogens offene und geschlossene Fragen gestellt werden, kann hier von methoden-
interner Triangulation gesprochen werden. Schwab (2009) arbeitete in seiner Untersuchung
methodenübergreifend und triangulierte das Verfahren der videografischen Unterrichtsbeob-
achtung mit anschließenden retrospektiven Interviews mit den an der Studie teilnehmenden
Lehrenden; außerdem wurden die Schülerinnen und Schüler leitfadengestützt interviewt
(between method triangulation). Diese Referenzarbeit illustriert somit das Potential einer
Kombination von Beobachtungen zur Erfassung der sozialen Dimension mit Befragungen
zur Erfassung der mentalen Dimension. Doch auch innerhalb einer Perspektive lassen sich
Methoden triangulieren; beispielsweise kombinierte Arras (2007) die Methode des Lauten
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Denkens mit der Durchführung retrospektiver Interviews. Vergleichsweise selten findet der
methodentriangulatorische Fall Erwähnung, dass derselbe Datensatz mit unterschiedlichen
Auswertungsverfahren bearbeitet wird wie beispielsweise von Knorr (2015), die Planungs-
gespräche von angehenden Lehrpersonen sowohl inhaltsanalytisch als auch gesprächsana-
lytisch auswertete. Werden jedoch unterschiedliche Variablen mit unterschiedlichen Metho-
den erhoben, wie dies u. a. die Referenzarbeit von Biebricher (2008) illustriert, so handelt es
sich nicht um ein triangulatorisches, sondern um ein mehrmethodisches Vorgehen.
Eine spezielle Form der methodologischen Triangulation stellt die Verbindung quantita-
tiver und qualitativer Forschungsmethoden dar, die auch als mixed methods oder mixed
methodologies bezeichnet wird (s. Kapitel 3.3). Diese Mischung von Methoden, die ehemals
nahezu unvereinbare Paradigmen verknüpft, wird gegenwärtig nicht mehr in Frage gestellt;
es werden jedoch Diskussionen nach dem Verhältnis beider Positionen innerhalb eines For-
schungsdesigns, nach der Gewichtung der Ergebnisse, der Abfolge des Einsatzes der jeweili-
gen Methode und nach dem Umgang mit Divergenzen geführt (z. B. Flick 2011: 75–96, Kelle/
Erzberger 2004, Kuckartz 2014, Lamnek 2010: 245–265, Mayring 2001, Schründer-Lenzen
2010). Gerade divergierende Ergebnisse werden eher als Chance betrachtet, da die Suche
nach alternativen Erklärungen zur Modifikation von Theorien führen kann (Lamnek 2010:
259).
4.4.4 ForscherInnentriangulation
Als ForscherInnentriangulation wird der Fall bezeichnet, bei dem „das gleiche Phänomen von
unterschiedlichen Forschern (Beobachtern) untersucht und interpretiert [wird]; die Ergebnis-
se werden trianguliert, man erhofft sich so, den Einfluss von Forschern auf den Forschungs-
gegenstand ermitteln zu können“ (Kuckartz 2014: 46). Es ist damit also kein arbeitsteiliges
Vorgehen, sondern der Prozess der Zusammenführung von gemeinsam oder unabhängig
voneinander durchgeführten Erhebungs-, Aufbereitungs- und/oder Auswertungsschritten
gemeint. Dieser Prozess dient zumeist der Erhöhung der Reliabilität, in einigen Fällen auch
der Komplementarität von individuell bedingten Herangehensweisen.
Die Erhebung von Messwerten und deren statistische Auswertung im Rahmen des quan-
titativen Forschungsparadigmas erfordern in der Regel keine ForscherInnentriangulation,
doch bei der Quantifizierung qualitativer Daten (also beispielsweise bei der Überführung
von Video- und Videotranskriptdaten in Zahlenwerte) empfiehlt es sich in einigen Fällen,
die Inter-Coder- bzw. die Inter-Rater-Reliabilität zu überprüfen (vgl. Hugener et al. 2006).
Bei niedrig-inferenten Kodier- und Beurteilungsvorgängen (z. B. Welches Objekt hat die im
Morgenkreis erzählende Person in der Hand? Wie ruhig verhalten sich die Zuhörenden im
Erzählkreis?) ist dies möglicherweise unnötig, während es bei hoch-inferenten Kodier- und
Beurteilungsprozessen (z. B. Welche Art von Geschichte erzählt die Person? Wirkt sie moti-
viert?) jedoch sehr relevant erscheint.
Im Rahmen des qualitativen Forschungsparadigmas handelt es sich fast durchgängig um
hoch-inferente interpretative Analyseprozesse, die den Gütekriterien der Transparenz und der
intersubjektiven Nachvollziehbarkeit gerecht werden sollen (s. Kapitel 2). Dementsprechende
Beispiele für ForscherInnentriangulation reichen von der Präsentation und Diskussion eige-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
4.4.5 Theorientriangulation
Unter Theorientriangulation versteht man in Anlehnung an Denzin (1970: 303) in der Regel
die Annäherung an Daten aus verschiedenen theoretischen Perspektiven und mit unter-
schiedlichen Hypothesen, um auf diese Weise ggf. Hypothesen zu widerlegen und die Nütz-
lichkeit und Stärke verschiedener Theorien zu überprüfen. Laut Flick (2011: 14) „sollen hier
aber auch die Erkenntnismöglichkeiten fundiert und verbreitert werden“.
94
4.4 Triangulation
Betrachtung eines Forschungsgegenstands aus mehreren Perspektiven
Methodentriangulation Datentriangulation
s
ch
ta
between methods Theorientriangulation
Triangulation verschiedener Me-
For
nd
Annäherung an Daten aus
thoden
verschiedenen theoretischen
Perspektiven
mixed methods
Kombination qualitativer und
quantitativer Methoden ForscherInnentriangulation
Aguado (2014: 50) stellt fest, dass Theorientriangulation „in der Forschungsrealität kaum
vor[kommt]“, und vertritt die Auffassung, dass es „weder sonderlich zielführend noch sehr
ökonomisch [ist], mehrere theoretische Ansätze gleichzeitig in Anwendung zu bringen.“ Kon-
zept und Potential der Theorientriangulation lassen sich jedoch an der zweitsprachendidak-
tischen Dissertation von Gadow (2016) illustrieren, die mit Blick auf das bildungssprachliche
Handeln von ViertklässlerInnen bei Berichten über Experimente zum Sinken und Schwimmen
systematisch Theorien aus der Naturwissenschaftsdidaktik und aus der Linguistik zusammen-
führt. Sie arbeitet u. a. heraus, dass das auf das inhaltlich-konzeptionelle Lernen ausgerichtete
naturwissenschaftsdidaktische Konstrukt des evidenzbasierten Begründens gewinnbringend
mit den unter funktional-pragmatischer Perspektive entwickelten Konstrukten des (einfachen
und funktionalen) Beschreibens und des (einfachen und funktionalen) Erklärens in Verbin-
dung gebracht werden kann. Ihre empirische Untersuchung zeigt, dass sich eine Theorientri-
angulation in Form einer „bedeutsame[n] Integration“ (Aguado 2015: 208) im Gegensatz zur
„bloße[n] Akkumulation“ (ebd.) insbesondere als Grundlage von interdisziplinär angelegten
Forschungsarbeiten als sehr gewinnbringend erweisen kann. Dieser Aspekt ist für koope-
rative Projekte von besonderer Relevanz.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
4.4.6 Fazit
Allen Triangulationsarten liegt der Gedanke einer Integration im Gegensatz zu einer reinen
Akkumulation zugrunde. Daten- und Methodentriangulation spielen in der Fremd- und
Zweitsprachenforschung zweifellos eine prominentere Rolle als ForscherInnen- und Theorien-
triangulation. Der Einsatz mehrerer Methoden ist inzwischen fast zu einem Gütekriterium
qualitativer Forschung geworden, was vielfach kritisch hinterfragt wird (z. B. Aguado 2015,
Lamnek 2010, Settinieri 2015). Aguados Meinung nach sollte nicht der Eindruck entstehen,
„dass ein mehrmethodisches Vorgehen für eine hochwertige, aktuellen forschungsmethodo-
logischen Entwicklungen verpflichtende qualitative Forschung zwingend erforderlich sei“
(2015: 204). Als notwendige Voraussetzung für die Durchführung einer triangulierenden
Studie wird immer wieder die angemessene Auswahl an Methoden und deren sinnvolle
Kombination gefordert, um ein eklektisches Nebeneinander diverser Verfahren ohne direkten
Mehrwert zu vermeiden. Vor allem bei einer mixed-methods-Triangulation, aber auch bei
Triangulation innerhalb des qualitativen Paradigmas ist zu beachten, dass nicht alle Me-
thoden per se miteinander kombinierbar sind. Es muss daher sorgfältig abgewägt werden, ob
Untersuchungsgegenstand, Forschungsfrage(n) und Erhebungs- sowie Auswertungsmethode
optimal zueinander passen. Neben einem erhöhten Aufwand bei der Durchführung mehr-
methodischer Forschung ist ein höheres Maß an Methodenkompetenz und professioneller
Reflektiertheit nötig, um die Potentiale der Methodentriangulation voll ausschöpfen zu kön-
nen.
Grundsätzlich erscheint eine Annäherung an den Forschungsgegenstand notwendig, die
sich zunächst der Vielfalt theoretischer Perspektiven bewusst wird, um daran anschließend
Entscheidungen bezüglich der Verwendung verschiedener Methoden, Datensätze, Forsche-
rInnen oder Theorien gegenstandsangemessen und theoretisch begründet zu treffen.
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit
einem Sternchen markiert.
Aguado, Karin (2014). Triangulation. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gülte-
kin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd-
und Zweitsprache. Paderborn: Schöningh, 47–56.
Aguado, Karin (2015). Triangulation: Möglichkeiten, Grenzen, Desiderate. In: Elsner, Daniela/Viebrock,
Britta (Hg.). Triangulation in der Fremdsprachenforschung. Frankfurt/Main: Lang, 203–219.
*Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der
Beurteilung schriftlicher Leistungen in der Fremdsprache am Beispiel der Prüfung „Test Deutsch als
Fremdsprache“ (TestDaF). Tübingen: Narr. [Referenzarbeit]
Biebricher, Christine (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens.
Tübingen: Narr.
Brown, James D./Rodgers, Theodore S. (2002). Doing Second Language Research. Oxford: Oxford Uni-
versity Press.
Campbell, Donald T./Fiske, Donald W. (1959). Convergent and discriminant validation by the multi-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Mayring, Philipp (2001). Kombination und Integration qualitativer und quantitativer Analyse. In:
Forum Qualitative Sozialforschung/Forum Qualitative Social Research 2(1), Art. 6. [Online: http://
nbn-resolving.de/urn:nbn:de:0114-fqs010 162] (11. 8. 2015).
*Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden
für Deutsch als Fremdsprache. Baltmannsweiler: Schneider Verlag Hohengehren. [Referenzarbeit]
Schründer-Lenzen, Agi (2010). Triangulation – ein Konzept zur Qualitätssicherung von Forschung. In:
Friebertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungs-
methoden in der Erziehungswissenschaft. 3. vollständig überarbeitete Auflage. Weinheim: Juventa,
149–158.
*Schwab, Götz (2009). Gesprächsanalyse und Fremdsprachenunterricht. Landau: Verlag Empirische
Pädagogik. [Referenzarbeit]
Settinieri, Julia (2015). Forschst Du noch, oder triangulierst Du schon? In: Elsner, Daniela/Viebrock,
Britta (Hg.). Triangulation in der Fremdsprachenforschung. Frankfurt/Main: Lang, 17–35.
Webb, Eugene J./Campbell, Donald T./Schwartz, Richard D./Sechrest, Lee (1966). Unobtrusive Measure:
Nonreactive Research in the Social Sciences. Chicago: Rand McNally.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Flick, Uwe (2011). Triangulation. Eine Einführung. 3. aktualisierte Auflage. Wiesbaden: Verlag
für Sozialwissenschaften.
Bei der Monografie von Flick handelt es sich um einen gut lesbaren und komprimierten Überblick
über die Thematik der Triangulation. Flick gibt einen Abriss über Ursprung und Geschichte des Kon-
zepts und zeichnet kritische Diskussionen nach. Er arbeitet mit zahlreichen Verweisen auf Norman
Denzin als den Begründer der Triangulation im Bereich qualitativer Forschung sowie mit vielen
beispielhaften Veranschaulichungen aus der Forschungspraxis. Neben einem Fokus auf Methoden-
triangulation in der qualitativen Forschung, insbesondere in der Ethnographie, richtet Flick sein
Augenmerk auf die Kombination qualitativer und quantitativer Forschung und zeigt abschließend
praktische Durchführungsprobleme von Triangulationsstudien auf.
Settinieri, Julia (2015). Forschst Du noch, oder triangulierst Du schon? In: Elsner, Daniela/Vie-
brock, Britta (Hg.). Triangulation in der Fremdsprachenforschung. Frankfurt/Main: Peter
Lang, 17–35.
Dieser einführende und sehr verständlich geschriebene Beitrag leistet eine präzise Klärung des Tri-
angulationsbegriffs. Dazu wird erstens der Forschungsdiskurs zu den beiden Funktionen Validierung
und Erkenntniserweiterung seit den 1950er Jahren nachgezeichnet und zweitens ein informativer
Überblick über Daten-, Methoden-, Theorien- und ForscherInnentriangulation gegeben. Der Begriff
der Triangulation wird drittens in ebenso erhellender Weise auch auf die Diskussion von mixed
methods bezogen und viertens in der überraschenden Wendung der Titelfrage zu „Triangulierst Du
noch, oder forschst Du schon?“ auch als aktuelle Modeerscheinung kritisch hinterfragt.
Claudia Harsch
4.5.1 Einführung
Mit steigender Zahl an Studien und der Kumulierung von Forschungsergebnissen zu einem
bestimmten Bereich steigt auch der Bedarf an einer Synthese dieser Ergebnisse, ebenso wie
das Interesse an einer Replikation bestimmter Studien, um zu generalisierbaren Aussagen
über verschiedene Zielgruppen und Kontexte hinweg zu gelangen (z. B. Plonsky 2012a). Zur
Synthese empirischer Daten eignen sich Meta-Analysen: Ausgehend von einer umfassenden
Literaturrecherche werden systematisch empirische Daten gesammelt und analysiert, um zu
empiriegestützten Aussagen über eine Vielzahl von Studien hinweg zu gelangen; darüber
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
6 Ich möchte mich bei Yo In’nami und Eric A. Surface für den wertvollen Input ihres Pre-Conference Work-
shops auf dem Language Testing Research Colloquium (LTRC) im Juni 2014 in Amsterdam bedanken.
Meta-Analysen werden wegen ihres Umfangs meist von einem Team von Forschenden durch-
geführt; sie bestehen aus einer Abfolge von Schritten, welche im Folgenden kurz beschrieben
werden:
• Problemstellung;
• Literaturrecherche;
• Evaluation und Kodierung der ausgewählten Studien;
• Datenanalyse, Untersuchung der Ergebnisse, Interpretation;
• Berichterstattung, Publikation.
Die Formulierung der Problemstellung, der zu untersuchenden Fragestellung ist von zen-
traler Bedeutung. Sie kann sowohl theoriegeleitet als auch empirisch begründet sein. Eng
geführte Fragen eignen sich, um bekannte Hypothesen und Effekte zu prüfen, Forschungen
zu dieser Themestellung zusammenzufassen oder bestimmte Populationen und Kontexte zu
vergleichen. Offenere Problemstellungen eignen sich, um neue Erkenntnisse aus der Synthese
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
zu gewinnen. Die Fragestellung bestimmt somit, welche Studien in die Meta-Analyse ein-
fließen sollen; beispielsweise hängen die Auswahl und der Fokus auf konzeptionelle Fragen,
Methoden, Probanden, Messmodelle und berichtete empirische Indizes (outcome measures)
von der Fragestellung ab.
Die Literaturrecherche ist direkt von der Problemstellung geleitet. Hier gilt es, so umfassend
und systematisch wie möglich vorzugehen, um möglichst viele Studien und Replikationen in
der zu untersuchenden Problemstellung zu erfassen. Dabei sollten neben den einschlägigen
Zeitschriften, Buch- und Kongresspublikationen und Internetrecherchen (z. B. google scholar)
auch Datenbanken abgefragt werden (In’nami/Koizumi 2011). Bei der Recherche stellt sich
das Problem des so genannten publication bias, da in der Regel nur Studien mit signifikanten
Effekten publiziert werden; dadurch gehen für die Synthese wertvolle Informationen verloren,
welche zumindest teilweise durch statistische Verfahren abgefangen werden können (Hunter/
Schmidt 2004; s. unten die Ausführungen zu Datenanalyse und Untersuchung der Ergeb-
nisse). Darüber hinaus gibt es Datenbanken zu unveröffentlichten Studien, die herangezogen
werden können. Auch auf den so genannten English language bias darf verwiesen werden:
Publikationen in internationalen englischsprachigen Journals berichten oft stärkere Effekte
als Publikationen in anderen Sprachen; hier hilft es, auch anderssprachige Publikationen zu
beachten. Es gilt, transparente Kriterien zum Einschluss (und ggf. Ausschluss) von Studien zu
entwickeln; der Kriterienkatalog kann in einem iterativen Prozess während der Auseinander-
setzung mit der Literatur verfeinert werden. Hierbei sollten Forschungsstandards angelegt
werden, wie sie beispielsweise Porte (2010) beschreibt. Wichtig ist es, eine gesunde Balance
zwischen Ein- und Ausschlusskriterien zu finden, um nicht die Generalisierbarkeit durch den
Ausschluss zu vieler Studien zu gefährden, andererseits aber nicht die Qualität und Validität
der Ergebnisse der Meta-Analyse durch den Einschluss methodisch mangelhafter Studien zu
riskieren. Alle Schritte der Literaturrecherche und der eingesetzten Strategien und Kriterien
zur Suche und Auswahl sollten transparent dokumentiert werden.
Sind die Studien ausgewählt, müssen sie hinsichtlich ihrer Charakteristika und der be-
richteten Effektstärken evaluiert und kodiert werden. Hier helfen ein Kodierplan und ein
• Moderatorvariablen.
Abbildung 1: Kodiervorschläge nach In’nami (s. Fußnote 7)
Spätestens bei der Kodierung der Studien kann es sein, dass fehlende Daten zu Tage treten.
Hier kann es helfen, die Autoren direkt anzuschreiben, um gezielt nach fehlenden Infor-
mationen zu fragen. Im Zweifelsfall müssen Studien, zu denen keine hinreichenden Daten
vorliegen, ausgeschlossen oder die fehlenden Werte mittels statistischer Verfahren imputiert
werden. Auch dies sollte dokumentiert werden.
Das Konzept der Effektstärken sei hier kurz skizziert (s. auch Kapitel 5. 3. 10), da sie
die zentrale Analyseeinheit von Meta-Analysen darstellen (s. Borenstein et al. 2011, ins-
besondere Kapitel 3–9, Plonsky 2012b). Die Ergebnisse empirischer Studien werden in der
Regel mittels zweier Statistiken berichtet: Zum einen interessiert die Größe oder die Stärke
eines untersuchten Effekts (die so genannte Effektstärke), zum anderen ist die Signifikanz
der Effekte wichtig – man bedenke, dass nicht-signifikante Ergebnisse ebenso bedeutsam
sind wie signifikante Effekte, doch werden sie meist nicht publiziert (s. oben, publication
bias). Effektstärken sind statistische Indizes, welche grundsätzlich auf zwei Wegen bestimmt
werden können: mittels Korrelationen (die Gruppe der sogenannten r Indizes) oder mittels
(standardisierter) Unterschiede in Mittelwerten oder Standardabweichungen (die Gruppe der
d Indizes). Die in den für eine Meta-Analyse ausgewählten Studien berichteten Statistiken
lassen sich problemlos in die Effektstärken r oder d überführen8, je nachdem, welche Heran-
gehensweise für die Meta-Analyse verwendet werden soll. Johnson/Eagly (2000) empfehlen
r für Studien, die vorwiegend Korrelationen berichten, und d für Studien, welche ANOVA
und t-tests einsetzen.
7 Unveröffentlichte Präsentation aus dem Pre-Conference Workshop Meta-Analysis, LTRC 2014, Ams-
terdam.
8 In’nami empfiehlt den ES Calculator (http://mason.gmu.edu/~dwilsonb/ma.html: download „es_calcula
tor.zip“).
Zur eigentlichen Datenanalyse und zur Untersuchung der Ergebnisse gibt es eigens für
Meta-Analysen entwickelte Computerprogramme, beispielsweise das Programm Comprehen-
sive Meta-Analysis9. Eine Evaluation verschiedener Programme ist unter http://www.um.es/
metaanalysis/software.php zu finden. Es empfiehlt sich, Einführungen und Workshops zur
Nutzung eines bestimmten Programms zu besuchen, um sich mit den Spezifika, Modellen,
Annahmen und Anforderungen vertraut zu machen. Generell besteht die zentrale Daten-
analyse einer Meta-Analyse aus der Berechnung des Mittelwerts und der Varianz der in den
ausgewählten Studien berichteten Effektstärken (Plonsky/Oswald 2012b: 275). Dazu gibt es
verschiedene Modelle (die so genannten fixed-, random- oder mixed-effect Modelle, s. Boren-
stein et al. 2011, insb. Kapitel 10–14 und 19), von denen das angemessenste gewählt werden
muss. Ebenso müssen Entscheidungen getroffen werden hinsichtlich der zu nutzenden Effekt-
stärkeindizes (s. oben) und der Gewichtung bestimmter Studien. Zur Interpretation der Er-
gebnisse ist es nötig, sich die Effektstärken, Konfidenzintervalle und die Richtung der Effekte
der einzelnen Studien sowie Mittelwert und Varianz der Effekte über die Studien hinweg
zu betrachten, um die Homogenität der gefundenen Effektstärken beurteilen zu können.
Zur Interpretation helfen neben den statistischen Indizes so genannte forest plots, graphi-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
sche Darstellungen, welche von den Programmen erstellt werden. Es kann nötig sein, den
erwähnten publication bias statistisch zu korrigieren; hierzu gibt es verschiedene Möglich-
keiten (s. z.B. Banks/Kepes/Banks 2012, Borenstein et al. 2011, Kapitel 30), von denen die
graphische Methode des funnel plottings in der Fremdsprachenforschung die verbreiteste ist
(z. B. Norris/Ortega 2000). Es empfehlen sich weiterführende Moderator-Analysen, um den
Effekt bestimmter Moderatorvariablen auf die zu untersuchende Variable festzustellen; bei-
spielsweise haben Jeon/Yamashita (2014) Befunde zum Leseverstehen in der Fremdsprache in
einer groß angelegten Meta-Analyse zusammengestellt und dabei u. a. die Moderatoren Alter
und Vokabelwissen untersucht. Abschließend darf auf so genante Power Analysen verwiesen
werden (z. B. Cohen 1988, Plonsky 2013), um die Wahrscheinlichkeit zu bestimmen, dass ein
bestimmter statistischer Test einen gegebenen Effekt auch erfassen kann. Dazu werden die
notwendige minimale Stichprobengöße oder die minimal zu erwartende Effektgröße bei einer
gegebenen Stichprobengröße bestimmt. Power Analysen können für die Einzelstudien, die
in eine Meta-Analyse einfließen, ebenso wie retrospektiv für eine gegebene Meta-Analyse
durchgeführt werden.
Sind die Effektgrößen bestimmt und die Ergebnisse interpretiert, so schließt sich die Phase
der Berichterstattung und Publikation an. Hier darf auf die APA Meta-Analysis Reporting
Standards (APA 2008, American Psychological Association 2010) verwiesen werden, ebenso
wie auf die Hinweise in Plonsky (2012b); letztere eignen sich auch gut zur Evaluation publi-
zierter Meta-Analysen. Folgende Elemente sollte die Publikation minimal abdecken:
4.5.3 Replikationsstudien
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Während es, wie Schmidt (2009) ausführt, nur wenige Replikationsstudien in den Sozial-
wissenschaften gibt, erfreuen sich Meta-Analysen zunehmender Beliebtheit. Hier sollen drei
Meta-Analysen exemplarisch das Feld illustrieren.
Eine frühe, einflussreiche Meta-Analyse wurde von Norris/Ortega (2000) zur Effektivität
von L2 Instruktionen durchgeführt. Sie verglichen die Effektstärken von 49 experimentellen
und quasi-experimentellen Studien, die in den Jahren 1908 bis 1998 durchgeführt wurden.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Sie fanden u. a. heraus, dass explizite Formen des Unterrichtens effektiver sind als implizite
und dass fokussiertes Unterrichten zu langfristigen Lernerfolgen führt. Allerdings mussten
sie feststellen, dass die Effektstärke vom jeweils eingesetzten Messinstrument beeinflusst
wird und dass die Ergebnisse ihrer Meta-Analyse nur beschränkt generalisierbar sind, da es
damals dem Feld noch an empirisch rigorosen Operationalisierungen und Replikationen der
Konstrukte mangelte.
Eine wesentlich umfangreichere Meta-Analyse, die eine gewisse Generalisierbarkeit auf-
weist, führte Hattie (2009) durch. Die so genannte ‚Hattie-Studie‘ beeinflusste die bildungs-
politische Diskussion im In- und Ausland, weshalb sie hier erwähnt werden soll, wenngleich
die meisten Studien, die in Hatties Meta-Analyse eingingen, nicht aus dem fremdsprach-
lichen Unterricht stammen. Er unterzog über 800 Meta-Analysen einer Meta-Metaanalyse
und untersuchte 138 unterrichtsrelevante Variablen und ihre Effektivität auf das Lernen.
Das Novum an seinem Ansatz ist, dass er die Effektstärken inhaltlich interpretiert, indem
er sie in unterschiedliche Bereiche einteilt. Für den untersten Bereich (bis 0,15) behauptet
Hattie, dass diese Effekte auch erzielt würden, wenn kein Unterricht stattfinde; Effektstär-
ken im Bereich 0,15 bis 0,40 würden auch durch regulärem Unterricht einer durchschnitt-
lichen Lehrkraft erzielt; nur Effektstärken über 0,40 würden auf tatsächliche Effekte der
untersuchten Variablen deuten. Die stärksten Effekte fand Hattie in den Variablen ‚self-
reported grades‘, ‚Piagetian programmes‘ und ‚providing formative evaluation‘. Es wäre
interessant, diese Variablen gezielt für den fremdsprachlichen Unterricht zu untersuchen.
Hattie leitet auf Basis seiner Ergebnisse ein theoretisches Modell erfolgreichen (fachunab-
hängigen) Lehrens und Lernens ab; er nutzt die Meta-Analyse also zur Theorie-Generie-
rung.
Die dritte Meta-Analyse, die hier vorgestellt werden soll, wurde von Jeon/Yamashita
(2014) durchgeführt für den Bereich des Leseverstehens in der Fremdsprache. Diese Studie
soll die o. g. Moderatorenanalysen illustrieren. Jeon/Yamashita (2014) untersuchten u. a. die
Moderatoren Alter und Vokabelwissen. Die Befunde legen nahe, dass das fremdsprachliche
Leseverständnis am höchsten mit fremdsprachlichem Grammatik- und Vokabelwissen korre-
104
Meta-Analysen Replikationsstudien
Synthese empirischer Daten über einzelne Studien hinweg, Wiederholung von Studien zur
meist im Forschungsteam Überprüfung der Generalisier-
barkeit von Ergebnissen
Studie 2
Studie x
liert und dass Leseverstehen vom Alter und der Distanz zwischen erster und zweiter Sprache
beeinflusst wird.
4.5.5 Fazit
Die hier vorgestellten Möglichkeiten des ‚zweiten Blicks‘ auf existente Studien, sei es mit-
tels quantitativer Meta-Analysen oder mittels Replikationsstudien, stellen eine Möglichkeit
dar, existente Ergebnisse zu nutzen und zu transformieren. Auf diese Weise können, wie
es beispielsweise Hattie (2009) zeigt, Theorien entwickelt und untermauert werden, oder
es können Ergebnisse eines Bereichs oder Kontexts in neuen Kontexten überprüft werden,
wie es in Replikationsstudien geschieht. Diese Herangehensweisen bieten effektive Wege,
existente Ergebnisse zusammenzuführen, sie zu validieren und etwa zur evidenzbasierten
Entscheidungsfindung oder zur weiteren Forschungsplanung zu nutzen. Allerdings sollten
sie in ihrem Aufwand nicht unterschätzt werden.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit
einem Sternchen markiert.
Abbuhl, Rebekha (2012). Why, when, and how to replicate research. In: Mackey, Alison/Gass, Susan M.
(Hg.). Research Methods in Second Language Acquisition: A Practical Guide. London: Basil Black-
well, 296–312.
APA Publications and Communications Board Working Group on Journal Article Reporting Standards
(2008). Reporting standards for research in psychology: Why do we need them? What might they be?
In: American Psychologist 63, 848–849. [https://www.apa.org/pubs/authors/jars.pdf] (4. 12. 2015)
American Psychological Association (2010). Publication Manual of the American Psychological Asso-
ciation. 6. Auflage. Washington, DC: American Psychological Association.
Banks, Georges C./Kepes, Sven/Banks, Karen P. (2012). Publication bias: The antagonist of meta-analytic
reviews and effective policy making. In: Educational Evaluation and Policy Analysis 34, 259–277.
Borenstein, Michael/Hedges, Larry V./Higgins, Julian P. T. / Rothstein, Hannah R. (2011). Introduction
to Meta-Analysis. Chichester, UK: Wiley.
Cohen, Jacob (1988). Statistical Power Analysis for the Behavioral Sciences. 2nd edition. Hillsdale, NJ:
Erlbaum.
Eden, Dov (2002). Replication, meta-analysis, scientific progress, and AMJ’s publication policy. In:
Academy of Management Journal 45, 841–846.
Gass, Susan M./Mackey, Alison (2005). Second Language Research: Methodology and Design. Mahwah,
NJ: Lawrence Erlbaum.
*Hattie, John (2009). Visible Learning: A Synthesis of Over 800 Meta-Analyses Relating to Achievement.
Oxon: Routledge.
Hunter, John E./Schmidt, Frank L. (2004). Methods of Meta-Analysis: Correcting Error and Bias in
Research Findings. 2nd edition. Newbury Park, CA: Sage.
In’nami, Yo/Koizumi, Rie (2010). Database selection guidelines for meta-analysis in applied linguistics.
In: TESOL Quarterly 44, 169–184.
*Jeon, Eun H./Yamashita, Junko (2014). L2 reading comprehension and its correlates: A meta-analysis.
Language Learning 64(1), 160–212.
Johnson, Blair T./Eagly, Alice H. (2000). Quantitative synthesis of social psychological research. In: Reis,
Harry T./Judd, Charles M. (Hg.). Handbook of Research Methods in Social and Personality Psychology.
New York: Cambridge University Press, 496–528.
*Norris, John M./Ortega, Lourdes (2000). Effectiveness of L2 instruction: A research synthesis and
quantitative meta-analysis. Language Learning 50, 417–528.
Plonsky, Luke (2012a). Replication, meta-analysis and generalizability. In: Porte, Graeme K. (Hg.). Re-
plication Research in Applied Linguistics. New York: Cambridge University Press, 116–132.
Plonsky, Luke (2012b). Effect size. In: Robinson, Peter (Hg.). The Routledge Encyclopedia of Second
Language Acquisition. New York: Routledge, 200–202.
Plonsky, Luke (2013). Study quality in SLA: An assessment of designs, analyses, and reporting practices
in quantitative L2 research. In: Studies in Second Language Acquisition 35, 655–687.
Plonsky, Luke/Oswald, Frederick L. (2012a). Meta-analysis. In: Robinson, Peter (Hg.). The Routledge
Encyclopedia of Second Language Acquisition. New York: Routledge, 420–423.
Plonsky, Luke/Oswald, Frederick L. (2012b). How to do a meta-analysis. In: Mackey, Alison/Gass, Su-
san M. (Hg.). Research Methods in Second Language Acquisition: A Practical Guide. London: Basil
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Blackwell, 275–295.
Porte, Graeme K. (2010). Appraising Research in Second Language Learning. A Practical Approach to
Critical Analysis of Quantitative Research. Amsterdam: John Benjamins.
Rousseau, Denise M./McCarthy, Sharon (2007). Evidence-based management: Educating managers
from an evidence-based perspective. In: Academy of Management Learning and Education 6, 94–101.
Schmenk, Barbara (2008). Lernerautonomie. Karriere und Sloganisierung des Autonomiebegriffs. Tü-
bingen: Narr. [Referenzarbeit, Kapitel 7]
Schmidt, Stefan (2009). Shall we really do it again? The powerful concept of replication is neglected in
the social sciences. In: Review of General Psychology 13, 90–100.
Das Kapitel gibt eine leicht verständliche Einführung in die Planung und Durchführung von Meta-
Analysen, mit praktischen Tipps und Anregungen. Es eignet sich gut als erster Einstieg.
Porte, Graeme K. (Hg.) (2012). Replication Research in Applied Linguistics. New York: Cam-
bridge University Press.
Das Buch bringt Experten zusammen, die die Bedeutsamkeit von Replikationsstudien in der Ange-
wandten Linguistik unterstreichen. Die Autoren beleuchten Replikationsstudien von theoretischer
Seite, geben praktische Ratschläge zur Planung, Vorbereitung, Durchführung solcher Studien und
nicht zuletzt Hinweise dazu, wie die Studien und Ergebnisse berichtet werden können.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
4.6 Forschungsethik
4.6.1 Begriffsklärung
Der Gegenstandsbereich der Forschungsethik umfasst Prinzipien und Regeln, die das Handeln
der Forschenden leiten sollen. Er befasst sich mit Fragen wie: Was darf ich als Forschender?
Was ist erlaubt? Wem bin ich verantwortlich? (Bach/Viebrock 2012). Obwohl empirische
Studien in besonderer Weise ethischen Ansprüchen Rechnung tragen müssen, wie wir dar-
legen werden, unterliegen alle Typen von Forschung, egal welcher Forschungstradition sie
zuzuordnen sind, ethischen Codes. Küster (2011: 139) schlägt vor, den Komplex Ethik in der
Fremdsprachenforschung unter zwei Perspektiven in fünf Handlungsfelder zu strukturieren.
Er unterscheidet eine „prudentielle Perspektive“ mit den beiden Handlungsfeldern (1) „Ver-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
antwortung des Forschers vor und für sich selbst“ und (2) „Verantwortung des Fremdspra-
chenforschers gegenüber seinem privaten Umfeld“ sowie eine „moralische Perspektive“. Zur
letzteren gehört (3) die „Verantwortung des Fremdsprachenforschers gegenüber der scientific
community“. Diese zeigt sich u. a. in der Sorgfalt und Vertrauenswürdigkeit des Forschers
im Umgang mit anderen Forschungen und Quellen, in der Ehrlichkeit im Umgang mit Po-
sitionen und Forschungsergebnissen, der Strenge der Arbeitsweisen und Darstellung sowie
der Transparenz der Argumentationen, der Integrität und Lauterkeit des wissenschaftlichen
Arbeitsprozesses. Zur moralischen Perspektive gehören ferner (4) die „Verantwortung des
empirischen Fremdsprachenforschers gegenüber den unmittelbar Beforschten (quantitative
Forschung) bzw. den am Forschungsprozess unmittelbar Beteiligten (qualitative Forschung
und Handlungsforschung)“ (Küster 2011: 139) und schließlich (5) die „Verantwortung des
Fremdsprachenforschers gegenüber gesellschaftlichen und universitären Institutionen und
deren Anforderungen“ (Küster 2011: 139). Die Handlungsfelder 3 und 4 werden in diesem
Beitrag genauer bestimmt. Das fünfte Handlungsfeld ist u. a. Gegenstand des Kapitels 2 dieses
Handbuchs.
Nationale wie internationale Fachgesellschaften aus den Natur- und Sozialwissenschaften
haben Ethik-Kodizes entwickelt, die Forschenden eine Grundorientierung geben und deren
Prinzipien und Regeln sich auch für die Praxis der Fremdsprachenforschung fruchtbar machen
lassen.10 Zu den Grundprinzipien, die in diesen Kodizes in unterschiedlichen Graden der
Konkretisierung erscheinen, gehören: das Prinzip der Schadensvermeidung, das Prinzip des
Nutzens bzw. des Mehrwerts von Forschung, der Respekt vor anderen Menschen sowie das
10 Für die Fremdsprachenforschung sind besonders relevant: Teachers of English to Speakers of Other
Languages (TESOL) <http://www.tesol.org>; The American Association of Applied Linguistics (AAAL)
<http://www.aaal.org>; die Deutsche Gesellschaft für Erziehungswissenschaften (DGfE): <http://www.
dgfe.de/fileadmin/OrdnerRedakteure/Service/Satzung/Ethikkodex_2010.pdf>. Vgl. auch die Vorstel-
lungen der Deutsche Forschungsgemeinschaft (DFG) zur Sicherung guter wissenschaftlicher Praxis:
<http://www.dfg.de/download/pdf/dfg_im_profil/reden_stellungnahmen/download/empfehlung_wiss_
praxis_0198.pdf>. Die Ethik-Kodizes verwandter deutscher Fachgesellschaften werden dargestellt in
Viebrock 2015: 87–97.
Prinzip der Redlichkeit (vgl. Kitchener/Kitchener 2009: 13–16; Bach/Viebrock 2012). Im Fol-
genden werden wir die Implikationen solcher Prinzipien für verantwortungsvolles Handeln
in der Fremdsprachenforschung verdeutlichen.
rien der Länder), sondern auch, wie ein vertrauensvolles Arbeitsbündnis entwickelt wird,
das für den anvisierten Forschungsprozess tragfähig ist (vgl. dazu Holliday 2007: 75–104).
Die Personen(gruppen) haben Anspruch, dass ihre Interessen geschützt sind und ihre Pri-
vatsphäre respektiert wird, dass sie über das Vorhaben, über mögliche Belastungen11 und die
Nutzung der Daten (s. Kapitel 4.6.3 und 4.6.4) informiert werden. Arbeitsbündnisse können
dann besondere Produktivität entfalten, wenn es gelingt, Formen der Gegenseitigkeit zu ent-
wickeln, die von den am Forschungsprozess beteiligten Personen als gewinnbringend wahr-
genommen werden können, wenn es also gelingt, ein Verhältnis des Gebens und Nehmens zu
etablieren. Als Beispiele für das forscherseitige Geben sind neben einer möglichen Bezahlung
von Untersuchungsteilnehmenden etwa das Versenden der Forschungsergebnisse oder das
Angebot von Fortbildungen zu den Forschungsergebnissen zu nennen.12 Im Hinblick auf das
forscherseitige Nehmen ist beispielsweise zu reflektieren, dass es angesichts der von den For-
schungspartnern investierten Zeit und Mühe nicht gerechtfertigt erscheint, Daten zu erheben,
die anschließend nicht ausgewertet werden. Auch wird immer häufiger thematisiert, dass die
Forschungspartner (und nicht wie bisher zumeist der Forschende) als Eigentümer der Daten
zu konzeptualisieren seien und ihnen damit das Recht der Auswahl von Daten für Analyse-
prozesse zukomme.
Die ethische Forderung nach Transparenz der Ziele, Verfahren und Ergebnisse des Vor-
habens bringt allerdings eine doppelte Herausforderung für die Forscher mit sich. Denn
zum einen bedarf die Fachsprache der Wissenschaft, die die Beteiligten in der Regel als un-
zugänglich wahrnehmen, der angemessenen Übersetzung in die Alltagsprache. Verständ-
nis muss erarbeitet und ausgehandelt werden (Holliday 2007: 145–152). Das Dilemma
sprachlicher Vermittlung zwischen dem Forscher und den Forschungspartnern einerseits
und andererseits den Anforderungen, die an die Veröffentlichung der Ergebnisse von Sei-
ten der Wissenschaft gestellt werden, thematisiert die Referenzarbeit von Schart (2003:
51–52).
Ferner stellt sich die Frage, wie viel Transparenz aus ethischen Gründen nötig und aus for-
schungsmethodischen Anforderungen möglich ist, ohne das Vorhaben selbst zu gefährden.
Wenn Forschungspartnern aus Gründen des Forschungsdesigns bestimmte Informationen
vorenthalten oder sie getäuscht werden, ist von Seiten der Forschenden explizit zu reflek-
tieren, ob dies für das Design tatsächlich unabdingbar ist und ob den Teilnehmenden da-
durch in psychologischer Hinsicht Schaden wie beispielsweise Stress oder Unbehaglichkeit
entsteht. In der Debriefing-Phase einer solchen Studie sollten die Verantwortlichen dann
gewissenhaft dafür Sorge tragen, dass die Teilnehmenden über die Täuschung und die Gründe
für die Täuschung aufgeklärt werden (dehoaxing) und dass sie jegliche, durch die Studie ver-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Einwilligung bitten oder wenn Eltern bei Nicht-Teilnahme ihrer Kinder Nachteile für diese
in der Schule befürchten. Forscher stehen in der Verantwortung, proaktiv Maßnahmen gegen
derartigen sanften oder unbeabsichtigten Druck zu ergreifen (beispielsweise mit der Lehrerin
abzusprechen, dass sie bei der Datenerhebung nicht anwesend ist).
Die informierte Einwilligungserklärung sollte grundsätzlich auch auf die Tatsache auf-
merksam machen, dass die Teilnahme an der Studie jederzeit (während und auch nach der
Datenerhebung) ohne weitere Erklärung zurückgezogen werden kann; zu diesem Zweck
sollte der Forscher die entsprechenden Kontaktinformationen bereitstellen. Darüber hinaus
müssen die Forschungspartner über die weitere Verwendung der Daten informiert werden.
Dazu gehört, dass sie vor ihrer informierten Einwilligungserklärung erfahren, wie lange die
Daten verwahrt werden, wer Zugang zu den Daten hat und in welcher Form die Daten in
Publikationen oder Vorträgen präsentiert werden.
Darüber hinaus sind ethische Prinzipien auch dann zu bedenken und in den entsprechenden
Publikationen zu thematisieren, wenn Zweifel bestehen, inwieweit die Forschungspartner
in der Lage sind, die Einwilligungserklärung zu verstehen. Dies ist in der Fremdsprachen-
forschung in sprachlicher Hinsicht insbesondere im Hinblick auf die Zusammenarbeit mit
Migranten von Bedeutung, denen die entsprechenden Einwilligungserklärungen bei ent-
sprechenden Zweifeln in ihrer Erstsprache vorgelegt oder mündlich in der Erstsprache erläu-
tert werden sollten. Doch auch konzeptuelle Verständnisschwierigkeiten schutzbedürftiger
Gruppen wie beispielsweise schriftunkundiger Zweitsprachenlerner, Kinder, dementer oder
geistig behinderter Personen sind ggf. zu reflektieren und angemessen zu berücksichtigen. Bei
Kindern und Jugendlichen unter 18 Jahren sind darüber hinaus ebenfalls die Eltern um ihre
Einverständniserklärung zu bitten; bei Untersuchungen in Schulen ist beim entsprechenden
Kultusministerium eine Genehmigung zu erwirken, was in der Regel einen längeren zeitli-
chen Vorlauf von mehreren Monaten erfordert.
Noch virulenter sind solche ethischen Problemlagen häufig bei Internetforschungen, bei
denen schwerer zu beurteilen ist, ob die Forschungspartner die Informationen zum For-
schungsvorhaben tatsächlich verstanden haben und ob sie in der Lage oder alt genug sind,
112
4.6 Forschungsethik
Forschung = dynamisches Arbeitsbündnis im sozialen Gefüge
Verantwortung
handlungsleitende 1) für sich selbst prudentielle
2) für das Umfeld Perspektive
Prinzipien und
3) gegenüber der scientific community
Regeln (*) 4) gegenüber den Beteiligten moralische
5) gegenüber Institutionen Perspektive
he r/in
sc Ethik-Kodizes
or
F
F
Mehrwert, Respekt, Redlichkeit, Schadensvermeidung
o
(*) Transparenz
rsc
Ehrlichkeit
Geben und Nehmen Gesetze
Zugang zum Feld informierte Einwilligungserklärung, Datensicherheit,
Rückzug aus dem Feld Pseudonymisierung / Anonymisierung
nity
Freiwilligkeit
Vertraulichkeit
mu
m
Manipulation von Daten, Verleugnen der
o c
tifi c sci e n Autorschaft, Plagiarismus
Pseudonymisierung bedeutet hingegen, dass dem datenerhebenden Forscher die Namen der
Forschungspartner bekannt sind, diese aber bei der Aufbereitung der Daten durch Pseudo-
nyme ersetzt werden, sodass weder bei der Bearbeitung der Daten noch bei der Präsentation
der Ergebnisse die Identität der Forschungspartner bekannt wird.13
Die Referenzarbeit von Ehrenreich (2004: 457) illustriert den Einbezug der Forschungs-
partnerinnen in die Pseudonymisierung der Transkripte. Die Autorin gibt den interview-
ten Fremdsprachenassistentinnen neben der Korrektur inhaltlicher Fehler hinaus auch die
Möglichkeit, über die von der Autorin vorgenommene Pseudonymisierung14 hinaus auch
bestimmte Wörter zu neutralisieren oder zu streichen. Fürsorglich weist sie im Sinne eines
Schutzes der Forschungspartnerinnen auch darauf hin, dass niemand aufgrund der für die
Mündlichkeit charakteristischen Satzbrüche und anderer Phänomene der Mündlichkeit an der
eigenen Ausdrucksfähigkeit zweifeln solle.
Pseudonymisierung stellt insbesondere bei der Arbeit mit Bild- und Videomaterial eine
Herausforderung dar, da arbeitsaufwändige Verpixelungen oder Balken über Gesichtern die
Identitäten von Forschungspartnern unter Umständen nicht hinreichend verdecken, mög
licherweise aber sogar die Datenauswertung behindern. So ist es bei Einwilligungserklä-
rungen hinsichtlich videographischer Fremdsprachenforschung insbesondere von Interesse,
den Forschungspartnern alternative Präsentationsweisen der audiovisuellen Daten (von der
Begrenzung auf pseudonymisierte Transkripte bis hin zu Filmvorführungen bei Vorträgen auf
wissenschaftlichen Konferenzen und in der Lehreraus- und -weiterbildung) anzubieten und
ihr schriftliches Einverständnis einzuholen.
Ethisch zu reflektieren ist auch der Wunsch einiger Forschungspartner, ihre Identität zu
benennen, um auf diese Weise ihren Forschungsbeitrag zu würdigen. Wie Miethe (2010:
931–932) ausführt, ist bei De-Anonymisierung jedoch insbesondere zu bedenken, inwie-
weit die Betroffenen, vor allem Kinder, die Reichweite einer solchen Entscheidung absehen
13 Auch bereits während der Datenerhebung ist darauf zu achten, dass auf Nachfrage der Forschungspartner
keine Weitergabe der Informationen von anderen Personen erfolgt.
14 Allerdings spricht Ehrenreich (2004: 457) selbst von Anonymisierung.
können und inwieweit damit auch andere Personen wie Familienmitglieder oder Kollegen
de-anonymisiert werden.
Ebenfalls reflexionsbedürftig erscheint bei Internetforschung beispielsweise das Zitieren
von Postings in Diskussionsforen, da diese im Internet unmittelbar aufgefunden werden
können und möglicherweise die Identität der Beforschten preisgeben; auch die sichere Daten-
übertragung bei Befragungen bzw. der mögliche Zugriff Dritter auf die Daten muss Internet-
forscher in besonderer Weise beschäftigen (vgl. Eynon/Fry/Schroeder 2008). Da bei Internet-
forschung keine klaren nationalen Grenzen gegeben sind und somit rechtliche Grauzonen
entstehen, erscheint in diesen Fällen die ethische Reflexion durch das Forscherteam in be-
sonderer Weise geboten (s. ebd.).
Neben dem Betrug wie beispielsweise dem Fälschen von Daten oder dem Manipulieren
von Ergebnissen sind als wissenschaftliches Fehlverhalten auch solche Fälle zu bezeichnen,
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
in denen der Umgang mit gefälschten Daten von Kollegen bewusst übersehen wird, be-
stimmte (widersprüchliche) Daten gezielt zurückgehalten werden oder das Forschungs-
design auf Druck des Geldgebers verändert wird (Johnson/Christensen 2008: 104; s. Ka-
pitel 2).
Bei Publikationsaktivitäten ist im Hinblick auf wissenschaftliches Fehlverhalten zum einen
die Frage der Autorenschaft von besonderer Relevanz. Autorenschaft gebührt denjenigen,
die entscheidend zur Entwicklung und Durchführung des Forschungsprojekts beigetragen
haben; besondere Sensibilität ist diesbezüglich bei einem hierarchischen Gefälle der Betei-
ligten bzw. bei Kooperationen von etablierten Forschern mit Nachwuchswissenschaftlern
angebracht. Zum anderen steht der Plagiarismus immer wieder im Mittelpunkt der univer-
sitären und der öffentlichen Diskussion, da der Diebstahl geistigen Eigentums einen grund-
legenden Verstoß gegen die ethischen Prinzipien des wissenschaftlichen Arbeitens sowie auch
gegen das Urheberrecht und damit ein strafbares Vergehen darstellt, das rechtliche Kon-
sequenzen nach sich zieht (Ackermann 2003; Aeppli/Gasser/Gutzwiller/Tettenborn 2010:
57).
4.6.6 Fazit
Die hier erörterten Handlungsmaximen sind nicht als abzuarbeitender Regelkatalog miss-
zuverstehen. Vielmehr sollen sie die Sensibilität für die Implikationen forschenden Handelns
fördern. Forschende sind gehalten, sich immer wieder neu der Konsequenzen ihres Handelns
bewusst zu werden. Abweichungen von Prinzipien sind im Kontext konkreter Forschungs-
projekte nicht zu vermeiden; solche Abweichungen bedürfen jedoch der genauen Begründung
und der kritischen Abwägung, die auch den Rat von Experten mit einbezieht (vgl. Dens-
combe 2010: 77). Macfarlane (2009) entwickelt seine Forschungsethik auf der Grundlage
von sechs Tugenden. Zu diesen gehört neben Mut, Respekt, Entschlossenheit, Ernsthaftigkeit
und Bescheidenheit die Schlüsseltugend der Reflexivität, die Fähigkeit Abstand zu nehmen,
zu fragen, ob ich als Forscherin, als Forscher meinen Verantwortlichkeiten gerecht werde und
wie ich mein Handeln begründe. Es ist genau jene Tugend, der wir mit diesem Kapitel das
Wort reden.
›› Literatur
Ackermann, Kathrin (2003). Plagiat. In: Ueding, Gert (Hg.). Historisches Wörterbuch der Rhetorik.
6. Auflage. Darmstadt: Wissenschaftliche Buchgesellschaft, 1223–1230.
Aeppli, Jürg/Gasser, Luciano/Gutzwiller, Eveline/Tettenborn, Annette (2010). Empirisches wissenschaft-
liches Arbeiten. Ein Studienbuch für die Bildungswissenschaften. Bad Heilbrunn: Klinkhardt.
Bach, Gerhard/Viebrock, Britta (2012). Was ist erlaubt? Forschungsethik in der Fremdsprachenfor-
schung. In: Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch erforschen: Grundlagen, Metho-
den, Anwendung. Tübingen: Narr, 19–35.
Denscombe, Martyn (2010). Ground Rules for Social Research. Guidelines for Good Practice. 2. Auflage.
Maidenhead: Open University Press.
Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. München: Langen-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Viebrock, Britta (2007). Kommunikative und argumentative Validierung: Zwischen Gütekriterien, Sub-
jektivität und forschungsethischen Fragestellungen. In: Vollmer, Helmut Johannes (Hg.). Empirische
Zugänge in der Fremdsprachenforschung. Herausforderungen und Perspektiven. Frankfurt/Main:
Lang, 73–87.
Viebrock, Britta (2015). Forschungsethik in der Fremdsprachenforschung. Eine systematische Betrach-
tung. Frankfurt/Main: Lang.
Holliday, Adrian (2007). Doing and Writing Qualitative Research. 2. Auflage [Kap. 7: Writing
about Relations]. Los Angeles, CA: Sage, 137–163.
Auf der Grundlage extensiver Beispiele aus der fremdsprachendidaktischen Forschungspraxis werden
in diesem Handbuchkapitel Problemfälle beim Feldzugang und insbesondere bei der Gestaltung
der Beziehung mit den Forschungspartnern thematisiert. Angesichts der Tatsache, dass das Unter-
suchungsfeld eine andere Kultur als die der Forscherin aufweist, plädiert Holliday für konsequentes
kulturelles Lernen und eine culture of dealing, bei der sich die Forscherin der zu untersuchenden
Welt unterordnet.
Miethe, Ingrid (2010). Forschungsethik. In: Friebertshäuser, Barbara/Langer, Antje/Prengel, An-
nedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft.
Weinheim: Juventa, 927–937.
In diesem erziehungswissenschaftlichen Handbuchartikel behandelt die Autorin die Themen (a) in-
formierte Einwilligung als Basis der Forschungsbeziehung, (b) Anonymisierung und (c) Publikation
bzw. die Frage der Rückmeldung von Ergebnissen. Dabei arbeitet sie besonders deutlich die jeweils
kontroversen Aspekte dieser drei Themen heraus.
Rallis, Sharon F./Rossman, Gretchen B. (2009). Ethics and trustworthiness. In: Heigham, Juanita/
Croker, Robert A. (Hg.). Qualitative Research in Applied Linguistics. A Practical Introducti-
on. New York: Palgrave Macmillan, 263–287.
Dieser von Erziehungswissenschaftlerinnen publizierte Artikel ist spezifisch für eine fremdsprachen-
didaktische Leserschaft verfasst worden und behandelt Ethik – neben kompetenter Praxis – als einen
Aspekt der Vertrauenswürdigkeit von Forschung. Glaubwürdigkeit, Genauigkeit und Nutzen fremd-
sprachendidaktischer Forschung werden deshalb ebenso thematisiert wie ethiktheoretische Ansätze
und ethische Aspekte wie Wahrung der Privatsphäre, Geheimhaltung und Vertraulichkeit sowie auch
Täuschung und Einwilligung, Vertrauen und Betrug.
Viebrock, Britta (2015) Forschungsethik in der Fremdsprachenforschung. Eine systematische
Betrachtung. Frankfurt/Main: Lang.
Diese erste umfassende Darstellung der Forschungsethik für den Gegenstandsbereich Fremdsprachen-
forschung bietet differenzierte Vertiefungen zu grundsätzlichen Fragestellungen (z. B. zur Integrität
des Forschers, der Forscherin), zu theoretischen Konzepten und Hintergründen (z. B. Ethik-Theorien)
und praxisnahen Problemstellungen, die in dem vorliegenden Kapitel angesprochen werden.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
5.1 Grundsatzüberlegungen
Friederike Klippel
das umfangreichste des Handbuchs. Die einzelnen Teilkapitel wurden von ausgewiesenen
Expert_innen für das jeweilige Verfahren verfasst; wie in Kapitel 4 illustrieren auch hier klare
Grafiken die zentralen Vorgehensweisen und Elemente der unterschiedlichen Forschungs-
methoden. Während Kapitel 4 die grundsätzlichen Forschungsentscheidungen im Hinblick
auf das zu wählende Design, auf Fragen des Sampling oder der Forschungsethik behandelt,
also Aspekte der Forschungsmethodologie, geht es hier vor allem um einzelne Forschungs-
methoden. Wir verstehen den Begriff Forschungsmethode bzw. Forschungsverfahren relativ
breit; Methoden oder Verfahren der Forschung bedienen sich unterschiedlicher Instrumente
oder Werkzeuge. So arbeitet die Methode der Befragung etwa mit dem Instrument Fra-
gebogen, zu dessen quantitativer Auswertung das Werkzeug SPSS in Anwendung kommen
kann. Auch das Interview ist ein Verfahren der Befragung; bei seiner Durchführung kann
als Instrument der Interviewleitfaden eingesetzt werden. Bei der Inhaltsanalyse etwa ist ein
Instrument das Kodierschema; dazu hilft als Werkzeug eine Software wie z. B. MAXQDA. Al-
lerdings lassen sich Werkzeuge und Instrumente nicht für jedes Forschungsverfahren sauber
voneinander trennen. Zugleich sind einige Werkzeuge bei der Anwendung unterschiedlicher
Verfahren einsetzbar.
Wenn im Folgenden die Verfahren für historische, theoretische und empirische Forschung
in dieser Reihenfolge im Einzelnen vorgestellt werden, dann bedeutet diese Reihung kei-
nerlei Wertung. Desgleichen ist mit der vergleichsweise breiten Darstellung von Verfahren
für die empirische Forschung nicht ausgesagt, dass diese Art von Forschung grundsätzlich
bedeutsamer sei als andere Forschungsansätze. Es ist jedoch unübersehbar, dass sich die
aktuelle Diskussion zu und Beschreibung von Forschungsmethoden fast ausschließlich auf
empirische Forschung bezieht, während historische und theoretisch-konzeptuelle Forschung
in den gängigen Handbüchern nur selten überhaupt beachtet werden. Insofern betritt dieses
Kapitel Neuland, indem es auch diese Herangehensweisen unter forschungsmethodischer
Perspektive thematisiert.
Die 19 Teilkapitel bieten eine breite Palette an geeigneten Forschungsmethoden für die
Fremdsprachendidaktik, wobei wir selbstverständlich keinen Anspruch auf Vollständigkeit
erheben. Da sehr viele Autor_innen an Kapitel 5 mitgewirkt haben, ergibt sich an dieser
Stelle des Handbuchs eine gewisse Vielfalt der Stile und Sichtweisen. Zudem wird deutlich,
dass sich einzelne Instrumente und Werkzeuge nicht nur einem, sondern mehreren Verfah-
ren zuordnen lassen, da gewisse Affinitäten zwischen unterschiedlichen Verfahren bestehen.
In einem Handbuch, das Hilfen für die eigene Forschungsarbeit oder zur Betreuung von
Qualifikationsarbeiten bereitstellen möchte, sollte es vor allem um eine klare und konkrete
Darstellung der einzelnen Verfahren und Instrumente gehen. Diesem Ziel dienen die Über-
sichts-Grafiken, die fast allen Kapiteln zugeordnet sind. Weniger wichtig erschien es daher
aus Sicht der Herausgeber_innen, historische Entwicklungen von einzelnen Methoden, be-
stimmte Schulenbildungen oder Kontroversen zu einzelnen Forschungsmethoden detailliert
zu referieren.
Dieses Kapitel, in dem sehr viele Forschungsmethoden vorgestellt werden, mag vielleicht
den Charakter eines Menüs suggerieren, aus dem man nach Geschmack beliebig auswählen
kann. Sich über unterschiedliche Zugangsweisen in der Forschung zu informieren, hat jedoch
immer das Ziel, die für das jeweilige Forchungsvorhaben am besten geeignete Methode zu
finden. Die Passung von Forschungsfrage und Forschungsmethode spielt in jeder Forschungs-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
arbeit eine zentrale Rolle. Nicht jedes Verfahren eignet sich zur Bearbeitung jeder Forschungs-
frage; vielmehr muss auf der Basis des treibenden Erkenntnisinteresses überlegt werden,
wie man am besten zu Ergebnissen gelangt. Die eingesetzten Forschungsmethoden und ihre
Instrumente sind zudem nicht wertneutral, sondern tragen eine bestimmte Perspektive, ein
bestimmtes Menschenbild in sich. Daher gibt es durchaus gewisse Affinitäten zwischen dem
Wissenschafts- und Forschungsverständnis individueller Forscher_innen und deren bevor-
zugter Wahl von bestimmten Forschungsmethoden.
Neben die individuellen Präferenzen treten zeitbedingte Strömungen. Jede Epoche besitzt
häufiger und weniger beachtete Ausprägungen von Forschung, und zwar sowohl im Hinblick
auf die beforschten Bereiche und Themen als auch auf die forschungsmethodischen Ansätze.
Schließlich durchläuft auch die Forschungsmethodologie generell durch die fortwährende
Forschertätigkeit eine Entwicklung, die zur Verfeinerung, Ausweitung, Schärfung, Neuent-
wicklung oder auch zum Aufgeben bestimmter Verfahren führen kann. Noviz_innen in der
Forschung sollten daher bestehende Methoden oder Designs nicht einfach unreflektiert über-
nehmen, sondern – abhängig von der Forschungsfrage – durch ihre Ideen und Experimentier-
freude dazu beitragen, auch die Forschungsverfahren weiter zu entwickeln. Anregungen dazu
können aus der Kombination unterschiedlicher Methodologien, der Modifikation bekannter
Verfahren oder aus benachbarten Disziplinen kommen. Allerdings muss dabei beachtet wer-
den, dass sich nicht alles mit allem sinnvoll kombinieren lässt, da den einzelnen Ansätzen
unterschiedliche Auffassungen von Forschung zugrundeliegen können (s. Kapitel 2). Dass
solche forschungsmethodischen Innovationen in Qualifikationsarbeiten zudem nur in Ab-
sprache mit den betreuenden Wissenschaftler_innen vorgenommen werden sollten, ist selbst-
verständlich.
Betrachtet man die in diesem Kapitel vorgestellten Verfahren mit dem Ziel, unterschiedli-
che Arten des Forschens zu unterscheiden, dann ließe sich eine grobe Differenzierung in eher
zyklische und eher lineare Vorgehensweisen treffen. Hermeneutische, inhaltsanalytische und
hypothesen-generierende Ansätze beruhen ebenso wie die historische Forschung auf einer
wiederholten Befassung mit den zu analysierenden Texten, Dokumenten und Daten. Dem-
gegenüber ist die hypothesenprüfende Vorgehensweise stärker linear und umfasst eine Reihe
von klar definierten, aufeinanderfolgenden Schritten. Eine Rückbindung an die theoretische
Grundlegung, die man als zyklisches Element ansehen könnte, erfolgt in diesen Verfahren
vor allem im Zuge der Interpretation und Diskussion der Ergebnisse.
Angesichts der Fülle der möglichen forschungsmethodischen Zugriffe ist es für Forschungs-
noviz_innen oft schwer, sich für ein bestimmtes Verfahren zu entscheiden. Die Wahl der
Forschungsmethode ist eine zentrale Weichenstellung für die gesamte Arbeit und bedarf
gründlicher Überlegungen. Dieses Kapitel soll dabei helfen, die gesamte Breite der for-
schungsmethodischen Optionen und deren besondere Stärken bewusst werden zu lassen.
Als Illustration für ein spezifisches Vorgehen dienen jeweils Referenzarbeiten, die als Bei-
spiele ausgewählt wurden, weil in ihnen die forschungsmethodische Umsetzung besonders
gelungen ist. Insofern liefert dieses Großkapitel auch die Möglichkeit, an guten Beispielen
zu lernen.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Karen Schramm
Dieser Abschnitt thematisiert Verfahren der Dokumenten-, Text- und Datengewinnung. Diese
stellen einen zentralen Arbeitsschritt im Forschungsprozess dar, der zwar prinzipiell nach
der forschungsfragebasierten Design-Erstellung (s. Kapitel 3 und 4) und vor der Datenauf-
bereitung und -analyse (s. Kapitel 5.3) zu verorten ist. Dennoch ist zu betonen, dass sich diese
Arbeitsschritte – insbesondere bei explorativ-interpretativen Forschungsarbeiten – nicht ein-
fach in linearer Abfolge sukzessiv abarbeiten lassen, sondern dass aufgrund der komplexen
Zusammenhänge spiralförmig voranschreitende Vorgehensweisen bzw. dabei vorzunehmen-
de kontinuierliche Verfeinerungen notwendig sind.
Gelingt es, das Forschungsdesign und die entsprechende Größe des Dokumenten-, Text-
oder Datenkorpus hinreichend zu präzisieren, so lässt sich bei der Gewinnung dieses Korpus
eine überdimensionierte Ansammlung vermeiden. Die Forschungspraxis zeigt jedoch, dass
die gezielte Eingrenzung allzu häufig Schwierigkeiten bereitet. Im Bereich der empirischen
Forschung wird darauf scherzhaft mit der Metapher von Datenfriedhöfen Bezug genommen;
damit ist die Ansammlung von Daten gemeint, die aufgrund der für die Auswertung zur
Verfügung stehenden zeitlichen Ressourcen nicht analysiert werden können. Diesen unglück-
seligen Fall schon im Vorfeld zu vermeiden, erscheint mit Rücksicht auf die Anstrengungen,
die eine Datenerhebung den Forschungspartner_innen abverlangt, genauso wichtig wie im
Hinblick auf die begrenzten Ressourcen der erhebenden Forschenden selbst.
Grundlegend unterscheiden wir in diesem Handbuch zwischen dem Erfassen und dem
Erheben und nutzen den Begriff der Gewinnung von Dokumenten, Texten und Daten (s.
zu dieser Unterscheidung Kapitel 4.1) als Oberbegriff für beide Verfahren. Das Konzept des
Erfassens bezieht sich dabei auf Dokumente, Texte und Daten, die unabhängig von der jewei-
ligen Forschungsarbeit vorzufinden sind. Wie Abbildung 1 verdeutlicht, kann dieses Erfassen
sich erstens konkret auf den Unterricht beziehen (beispielsweise auf das Einsammeln von
lehrer- und lernerseitigen Arbeitsprodukten wie Unterrichtsplanungen oder Aufsätze). Es
wurde in der forschungsmethodischen Diskussion bislang kaum thematisiert; das in die-
ser Hinsicht innovative Kapitel 5.2.7 ist solchen Verfahren gewidmet. Zweitens ist für die
Fremdsprachendidaktik auch die Erfassung von Dokumenten und Texten von Interesse, die
über konkrete Unterrichtssituationen hinausreichen und die entweder auf eine Dokumenten-
sammlung für historische Forschungsarbeiten (s. Kapitel 5.2.1) oder eine Textsammlung für
theoretische Studien (s. Kapitel 5.2.2) hinauslaufen.
Im Gegensatz zum Erfassen ist für das Erheben die Tatsache charakteristisch, dass die
gewonnenen Daten ohne die Forschungsarbeit nicht existierten. Abbildung 1 zeigt die vielen
Verfahren zur Datenerhebung, die in der Fremdsprachendidaktik Beachtung finden: Hier
ist zunächst einmal die häufig getroffene Unterscheidung von Beobachten und Befragen
relevant. Die vielfältigen Formen des Beobachtens (unter anderem die ethnographisch moti-
vierte teilnehmende Beobachtung mit Feldnotizen, die gesteuerte Beobachtung anhand von
Beobachtungsbögen oder die videographische Beobachtung) werden in Kapitel 5.2.3 thema-
tisiert. Befragungen in Form von Fragebögen und Interviews stellt Kapitel 5.2.4 vor. Die in
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Kapitel 5.2.5 aufgefächerten Verfahren der Introspektion sind in Abbildung 1 zwischen dem
Beobachten und Befragen abgebildet, da Verfahren des Lauten Denkens und des Lauten Er-
innerns einerseits ähnlich wie Befragungen auf Impulsen der Forschenden beruhen, aber
andererseits ähnlich wie Beobachtungen nicht-kommunikativ bzw. auch in Abwesenheit der
Forschenden ablaufen können. Auch der Themenbereich des Testens ließe sich begrifflich
der Befragung zuordnen; aufgrund der Bedeutung dieses Bereichs wurde er in Abbildung 1
jedoch ausgegliedert und wird in einem eigenen Kapitel (5.2.8) ausführlich behandelt. Im Fall
des Kapitels zur Lernersprache und Korpuserstellung (5.2.6) hat es sich als gewinnbringend
erwiesen, das Erfassen und Erheben gemeinsam zu thematisieren, sodass dieses Kapitel in
Abbildung 1 entsprechend platziert ist.
Als wesentlich für die Charakterisierung von empirischen Unterrichtsdaten wird seit spä-
testens den 1980er Jahren die Unterscheidung von Produkt- und Prozessdaten betrachtet.
In Abbildung 1 weist die hell- und dunkelgraue Markierung auf diese (nicht immer trenn-
scharfe) Dichotomie hin, die zwischen den punktuellen Ergebnissen des Lernens, dem Pro-
dukt, und dem zeitlich ausgedehnten Vorgang des Lernens, dem Prozess, unterscheidet: Als
eher produktorientiert sind die unterrichtsbezogene Erfassung von Daten, das Erfassen und
Erheben von Lernersprache und das Testen zu charakterisieren, während das Beobachten, das
Befragen und die Introspektion sich besonders für die Erforschung von (meta-)kognitiven,
affektiven und sozialen Prozessen eignen.
Steht bei einer Untersuchung die sprachliche oder kulturelle Entwicklung von Lernenden
über einen längeren Zeitraum im Vordergrund, erweist sich auch die begriffliche Unterschei-
dung von Längs- und Querschnittdaten als zentral. Dabei zeichnen Längsschnittdaten die
tatsächliche Entwicklung von Personen über einen längeren Untersuchungszeitraum nach,
während Querschnittdaten Personengruppen in unterschiedlichen Entwicklungsstadien (z. B.
Klassenstufen oder Sprachniveaus) untersuchen, um auf der Grundlage einer Datenerhebung
zu einem einzigen Zeitpunkt Aussagen über angenommene Entwicklungsprozesse zu treffen.
Erfassen
Erfassen unterrichts-
terricht
im Un-
eher prozessbezogen
bezogener Produkte
erstellung
Design-
(5.2.7)
(3 & 4)
Dokumentensammlung
für historische Studien
außerhalb des
(5.2.1)
Unterrichts
Textsammlung für
theoretische Studien
(5.2.2)
eher produktbezogen
© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Dokumenten-,
Korpuserstellung
gewinnung
(5.2.6)
(5.2)
Erheben
Beobachtung
(5.2.3)
Introspektion
(5.2.5)
bereitung und
Befragungen
(5.2.4)
Datenauf-
Analyse
(5.3)
Testen
(5.2.8)
Abbildung 1: Übersicht über Verfahren zur Gewinnung von Dokumenten, Texten und Daten
5.2.1 Dokumentensammlung
Wenn das Erkenntnisinteresse einer Forschungsarbeit darin liegt, gegenwärtige Prozesse und
Zustände oder vergangene Epochen und Ereignisse zu beschreiben, zu interpretieren und
zu bewerten, so ist es nötig, sich auf Dokumente zu stützen, die diese Gegebenheiten reprä-
sentieren. Um tatsächlich gültige Aussagen treffen zu können, muss diese Analyse auf einer
möglichst breiten, objektiven, systematischen, repräsentativen und validen Basis an Belegen
beruhen. Daher sind wichtige Forschungsstrategien die Suche, Sammlung, Auswahl und An-
ordnung von Dokumenten. Dabei ist der Begriff ‚Dokument‘ ganz allgemein zu verstehen als
„a record of an event or process“ (McCulloch 2011: 249) und kann je nach Forschungsinteres-
se unterschiedliche Realisierungen aufweisen. Dokumente können von Daten derart unter-
schieden werden, dass erstere jegliche Art von schriftlichen oder gegenständlichen Belegen
umfassen, die nicht speziell für das Forschungsprojekt generiert wurden, wohingegen Daten
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
erst durch die eingesetzten Erhebungsverfahren geschaffen werden. Während mit Heuristik
der erste Schritt des Auffindens von Dokumenten beschrieben ist, verlangt die anschließende
Korpuserstellung begründete Entscheidungen dazu, welche der gefundenen Dokumente aus-
gewählt und analysiert werden sollen. Im Folgenden werden 1. für fremdsprachdidaktische
Forschung relevante Dokumenttypen vorgestellt, 2. die Schritte bei Heuristik und Korpuser-
stellung erläutert und 3. konkrete Verfahrensweisen, Schwierigkeiten bei der Sammlung ver-
schiedener Dokumente und der Umgang damit dargestellt.
Grundsätzlich werden in Abgrenzung zu 5.3.1 unter Dokumenten Texte, Materialien und Me-
dien verstanden, die nicht im Kontext aktueller wissenschaftlicher Arbeit als wissenschaftliche
(Sekundär-)Literatur entstanden sind, sondern ursprünglich einem anderen Zweck dienen.1
Während die Bezeichnung Dokument vor allem in der sozialwissenschaftlichen Forschung
Verwendung findet, wird in der Geschichtswissenschaft eher von Quellen gesprochen; diese
Begrifflichkeit differenziert nach gegenwärtiger bzw. vergangener Entstehungszeit (Glaser
2010: 366–367). Allerdings ist insbesondere für historische Forschungsarbeiten diese Kate-
gorisierung nicht eindeutig: So können beispielsweise Zeitschriftenaufsätze oder Rezensionen
in ihrer Entstehungszeit Dokumente gewesen sein, während sie jetzt als Quellen zur Rekon-
struktion vergangener Geschehnisse oder Zeitabschnitte herangezogen werden.
Weiterhin können Primär- und Sekundärdokumente unterschieden werden: Während ers-
tere von Zeitzeugen oder direkt Beteiligten produziert werden, verwenden letztere Primär-
dokumente, um ein Ereignis oder eine Epoche zu rekonstruieren und zu beschreiben. Auch
hier gibt es fließende Übergänge zwischen diesen beiden Polen: Ein Zeitgenosse kann mit
1 Somit werden vor allem diejenigen Texte ausgeschlossen, die bei jeder Forschungsarbeit gefunden werden
müssen, um den Stand der Forschung zu referieren. Dennoch ist das heuristische Verfahren jeweils ganz
ähnlich beschaffen (vgl. Kapitel 6.3).
Für die fremdsprachendidaktische Forschung äußerst relevant ist die Einteilung nach den
Urhebern der Dokumente sowie nach dem Vertriebsweg bzw. der Zugänglichkeit der Doku-
mente (vgl. Scott 1990: 14–18). Ausgehend von der Zugehörigkeit zu verschiedenen Kom-
munikationsbereichen können hauptsächlich offizielle, halboffizielle, öffentliche und private
Dokumente unterschieden werden.
• Offizielle Dokumente werden von staatlichen Institutionen veröffentlicht und in erster
Linie auch rezipiert. Dazu gehören z. B. Gesetze, Lehrpläne, Stundentafeln, Verordnungen
und Verträge. Sie zeigen, wie der Staat als Akteur Organisation und Ablauf von (Fremd-
sprachen-)Unterricht konzeptionell vorgibt. Diese Dokumente erlauben nur in begrenztem
Maß Rückschlüsse auf die Unterrichtswirklichkeit und sind vielmehr als Absichtserklärun-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
gen auf der Makroebene der Schul- und Unterrichtsorganisation zu sehen (Fend 2006: 167;
Kolb 2013: 38–40).
• Halboffizielle Dokumente entstehen in der Kommunikation zwischen Institutionen und
Privatpersonen. Wenn auch die Zuordnung nicht immer eindeutig ist, so können dazu
Schulprogrammschriften, Stoffverteilungspläne, schulinterne Curricula, Unterrichtsent-
würfe, Jahresberichte, Klassenbücher, Schülerzeitungen, Zeugnisse, Tests usw. gezählt
werden (s. Kapitel 5.2.7). Während einige dieser Dokumenttypen eher innerhalb der In-
stitution Schule rezipiert werden, haben andere auch außerhalb ein Publikum, z. B. Eltern.
Sie spiegeln amtliche Positionen wider, sind aber gleichzeitig als Dokumente der Meso-
ebene der schulischen Institutionen oder als Dokumente der Mikroebene des Unterrichts
auch näher an der Unterrichtsrealität (Fend 2006: 167).
• Zu den privaten Dokumenten, die von unterschiedlichen Beteiligten stammen können,
zählen beispielsweise Tagebücher von Lernenden und Lehrenden, Interviews, Briefe oder
(Auto-)Biographien von Bildungspolitikern, Fremdsprachendidaktikern oder Sprachenler-
nenden. Am Übergang zwischen halboffiziellen und privaten Dokumenten befinden sich
Lernertexte (z. B. ausgefüllte Arbeitsblätter, Klassenarbeiten, Aufsätze oder Portfolios) (s.
Kapitel 5.2.7). Diese und viele weitere Dokumente geben kleine, subjektiv gefärbte Aus-
schnitte aus verschiedenen Bereichen wieder und müssen daher, was Zuverlässigkeit und
Korrektheit betrifft, vorsichtig rezipiert und interpretiert werden (s. Kapitel. 5.3.1).
• Als öffentlich können Dokumente bezeichnet werden, wenn sie in irgendeiner Form ver-
öffentlicht sind, so dass sie bei Interesse relativ leicht zugänglich sind. Dazu sind verschie-
dene Dokumente und Quellen zu zählen wie Rezensionen, Zeitschriften- und Zeitungs-
artikel, Konferenzberichte, Statistiken, kommerzielle Selbstlernmaterialien, Lehrwerke und
zugehörige Medien, Plakate, Anzeigen, Graffiti oder auch literarische Texte.
Was die Zugänglichkeit betrifft, so können schriftliche Dokumente beispielsweise frei im
Buchhandel erhältlich sein oder in Bibliotheken bereitgestellt werden, sie können in Archiven
vorhanden sein, oder sie können nur intern einem begrenzten Adressatenkreis (z. B. als Ar-
beitspapier oder als private Nachricht) verfügbar sein (vgl. Scott 1990: 14–18). Schriftliche
Dokumente aus allen o. g. Kategorien, die nicht öffentlich zugänglich sind, sondern inner-
halb eines bestimmten Rezipientenkreises zirkulieren, werden als graue Literatur bezeichnet
(Bortz/Döring 2006: 360). Da sie meist schwierig aufzufinden sind, werden sie oft vernach-
lässigt; sie bieten jedoch viele Gelegenheiten, neue Erkenntnisse zu bestimmten Diskursen
zu gewinnen, etablierte Sichtweisen zu ergänzen und möglicherweise gar zu revidieren. Im
Internet werden solche Texte zwar gelegentlich auf privaten Webseiten oder in Foren ver-
öffentlicht; dadurch sind sie aber nicht automatisch leichter zu finden.
Ein weiterer wichtiger Anhaltspunkt, um zu analysierende Dokumente auszuwählen, ist
das Medium. Neben gedruckten Texten sollten auch andere mediale Realisierungsformen be-
achtet werden. Lohnend kann beispielsweise die Analyse von (audio-)visuellen Dokumenten
wie Bildern, Fotografien, Cartoons, (Spiel-)Filmen, CDs oder Overheadfolien sein, wobei
diese visuellen bzw. audiovisuellen Dokumente sowohl die Perspektive der Lehr- und Unter-
richtsmaterialien als auch die der Lernerprodukte verkörpern können. Für fachhistorische
Untersuchungen sind etwa Lehrbuchillustrationen, frühe Formen von Unterrichtsmedien
oder verwendete Realien des Ziellandes aufschlussreich. Auch an multimediale und elektro-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
nische Quellen und Software (Blogs, Webseiten, Chat-Daten, Emails, Lernmaterialien auf
CD-Rom etc.) ist zu denken. Für einige methodische Ansätze sind bestimmte reale Gegen-
stände konstitutiv, etwa die cuisenaire rods und fidel charts für den Silent Way. Selbstver-
ständlich können Realien und Objekte wie Gebäude, Klassenzimmerausstattungen, Sprach-
labore, technische Hilfsmittel (Hardware), Wandtafeln usw. in eine Untersuchung einbezogen
werden; diese Arten von Dokumenten werden auch Relikte genannt (Johnson/Christensen
2012: 416).
Natürlich ist es durchaus möglich, verschiedene Dokumententypen für eine einzelne Studie
zu sammeln und auszuwerten. Dabei werden zuweilen halboffizielle oder private Dokumente,
die im Unterrichtsbetrieb ohnehin anfallen (etwa Lernertexte) kombiniert mit gezielt er-
hobenen Daten für den Forschungszweck. So werden beispielsweise in der Referenzarbeit
von Schmidt (2007, s. Kapitel 7) Anfangs- und Abschlussfragebögen, Video- und Audioauf-
nahmen aus dem Unterricht, Feldnotizen, Lernertexte, Interviews und Lerntagebücher ver-
wendet (Schmidt 2007: 186–203). Ähnlich sieht es bei Bellingrodt (2011) aus, die Fragebögen,
Interviews und verschiedene Dokumente aus den Portfolios der Lernenden einbezieht. Wenn
unterschiedliche Dokumentarten für eine gemeinsame Fragestellung herangezogen werden,
muss im Rahmen der Triangulation eine Verknüpfung der verschiedenen Perspektiven erfol-
gen (siehe dazu Kapitel 4.4).
Es ist wichtig, diese Aspekte sorgfältig zu bestimmen, damit die nachfolgende Suche und
Auswahl der Dokumente eingegrenzt werden können und nicht zu wenig oder zu viele Do-
kumente eingeschlossen werden (vgl. Keller 2011: 80–87). Vielfach finden sich in der gesich-
teten Forschungsliteratur zum Forschungsfeld bereits Hinweise auf aufschlussreiche Arten
von Dokumenten.
In einem zweiten Schritt sind folgende Überlegungen anzustellen:
• Anhand welcher Dokumente kann den Forschungsfragen nachgegangen werden?
• Welche örtliche und zeitliche Eingrenzung der Dokumentenauswahl ist sinnvoll?
Diese Vorgehensweise zeigt sich sehr gut in der Referenzarbeit von Doff (2002, s. Kapitel 7),
in der eine Konzentration auf Preußen und auf das späte 19. Jahrhundert erfolgt. Genauso
geht Kolb (2013) vor, wenn sie verschiedene europäische Länder und den Zeitraum von
1975 bis 2011 auswählt. Derartige lokale und temporale Beschränkungen können von den
Forschungsfragen abhängen, aber auch ganz pragmatisch durch die Verfügbarkeit von Doku-
menten bedingt sein. Letzerer Aspekt zeigt sich oft erst, wenn Heuristik und Korpuserstellung
bereits begonnen haben. Allerdings kann es auch notwendig sein, den betrachteten Zeitraum
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
auszuweiten, wenn relevante Dokumente auch noch später veröffentlicht wurden oder das
Forschungsthema nur im Vergleich mit früheren oder späteren Entwicklungen zufrieden-
stellend bearbeitet werden kann. Dies ist z. B. gerade bei Lehrplänen der Fall, die häufig
Fortschreibungen früherer Versionen sind (Kolb 2013).
Nach diesen beiden vorbereitenden Schritten beginnt die eigentliche Heuristik, bei der zu
klären ist, wo und wie sich die Dokumente ausfindig machen lassen. Ausgeschlossen bleiben
soll hier die selbstständige Gewinnung von Daten durch Beobachtung oder Befragung (s.
Kapitel 5.2.3 und 5.2.4). Bei der Suche und Auswahl von bereits existierenden Dokumenten
sind verschiedene Verfahren denkbar, die sich gegenseitig ergänzen können:
• Systematische Suche oder Suche nach dem Schneeballprinzip (vgl. Roos/Leutwyler 2011:
25–46)
• Vollständige Erfassung aller möglichen Dokumente oder Auswahl einer Stichprobe
Sowohl das Schneeballverfahren als auch die systematische Suche werden in der Referen-
zarbeit von Doff (2002) und bei Kolb (2013) angewendet. Bei ersterem Verfahren werden
neuere Sekundärliteratur oder Quellensammlungen zum gewählten Thema gesucht und an-
hand deren Bibliographien weitere Dokumente ausfindig gemacht (Doff 2002: 16; Kolb 2013:
140–142, 237–241, 306–309). Dieser Vorgang wird so oft wiederholt, bis genügend Doku-
mente vorliegen, wobei sich meist zeigt, dass gewisse Dokumente und Quellen als Standard
in unterschiedlicher Literatur immer wieder genannt werden (Roos/Leutwyler 2011: 30). Bei
letzterer Vorgehensweise werden beispielsweise Bibliographien und komplette Zeitschriften-
jahrgänge nach relevantem Material durchgesehen (Doff 2002: 16) oder Datenbanken und
Bibliothekskataloge anhand von Stichwörtern oder Autorennamen durchsucht (Kolb 2013:
142, 239, 308).
Zu Beginn der Suche sollte darauf geachtet werden, so breit wie möglich vorzugehen, um
nicht zu früh potentiell interessante und ergiebige Dokumente auszuschließen. Dabei hän-
gen Forschungsinteresse und Sammlung von Materialien eng zusammen: Einerseits werden
Dokumente, die sich beim ersten Durchsehen als zur Fragestellung passend erweisen, einbe-
Sättigung erreicht ist. Dies bedeutet, dass keine weiteren Dokumente mehr gefunden werden
können, die neue Erkenntnisse liefern (s. Glaser/Strauss 2010: 76–78). Das Material für den
entsprechenden Aspekt der Forschungsfrage kann dann als vollständig angesehen und, falls
nötig, die Suche für einen anderen Gesichtspunkt fortgesetzt werden.
Aus der Gesamtheit der gefundenen Dokumente ist das Korpus zu erstellen, mit dem
weitergearbeitet wird. Begrifflich lassen sich so imaginäres Korpus (Menge aller jemals
existierenden Dokumente zu einem Thema), virtuelles Korpus (Menge der noch erhaltenen
Dokumente) und konkretes Korpus (Menge der tatsächlich analysierten Dokumente) unter-
scheiden (s. Landwehr 2008: 102–103). Kriterien für die Auswahl von Dokumenten sind ihre
Repräsentativität, ihre genügend große Anzahl und ihre thematische und zeitliche Breite (s.
Landwehr 2008: 103). In manchen Untersuchungen kann es wichtig sein, die Gesamtheit aller
auffindbaren Dokumente einzubeziehen (s. Kolb 2013 für die Analyse aller Lehrplanversio-
nen im Untersuchungszeitraum); in anderen Fällen ist die Auswahl einer Stichprobe für die
Fallanalyse einer bestimmten Frage möglicherweise sinnvoller: So konzentriert sich Doff
(2008) auf die durch eine Umfrage unter Experten bestimmten Standardwerke bzw. auf durch
Zitationsanalyse ausgewählte Zeitschriftenartikel (Doff 2008: 72–84). Dokumente, die näher
analysiert werden sollen, können entweder dem Prinzip der maximalen Kontrastierung – also
nach größtmöglicher Unterschiedlichkeit – oder dem Prinzip der minimalen Kontrastierung
folgend – nach einer möglichst starken Ähnlichkeit – ausgewählt und angeordnet werden (s.
Keller 2011: 92).
den. Die Erstellung einiger dieser Angaben, aber auch weitere Elemente des Prozesses der
Dokumentensammlung können Probleme bereiten. So können die Autoren unbekannt sein
oder bewusst anonym gehalten werden; dies ist beispielsweise bei Lehrplänen häufig der Fall.
Besonders bei älteren Dokumenten kann die Datierung schwierig sein. Sollte eine Klärung
von Autorschaft und Datum nicht möglich sein, so ist dies ebenfalls zu vermerken. Auch kön-
nen die Dokumente unvollständig sein oder Unklarheiten enthalten. Hier kann nur versucht
werden, durch Vergleich mit anderen Quellen und Dokumenten die fehlenden Informationen
zu erschließen.
Entscheidend dafür, wie aufwendig die Dokumentensammlung ist, ist jedoch hauptsächlich
die Frage, um welche Art von Dokumenten es sich handelt. Soll unveröffentlichtes Material
aus der Gegenwart verwendet werden, so kann es hilfreich sein, sich direkt an Autoren und
andere Akteure zu wenden und um Manuskripte und die Erlaubnis, diese zu verwenden,
zu bitten (vgl. Kolb 2013: 254, 307). Bei historischen Dokumenten sind Archive die Haupt-
anlaufstelle, während neuere Dokumente sich häufig über Datenbanken, Bibliotheks- und
Buchhandelskataloge oder das Internet recherchieren lassen. Teilweise gibt es für historische
Forschung auch Quellen- und Dokumentensammlungen, auf die man sich bei der Recherche
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
stützen kann (vgl. Doff 2002: 16–17). Beispiele hierfür sind Kössler (1987) für Schulpro-
grammschriften, Schröder (1975) für Lehrwerke und Unterrichtsmaterialien bis 1900 sowie
Christ/Rang (1985) und Christ/Müllner (1985) für Lehrpläne. Lehrwerke werden durch das
Georg-Eckert-Institut für internationale Schulbuchforschung zugänglich gemacht (http://
www.gei.de).
Zur Suche von Monographien bietet sich nach den jeweiligen Hochschulbibliotheken die
Metasuche über den Karlsruher Virtuellen Katalog (KVK) an, mit der weltweit nach Me-
dien gesucht werden kann (http://www.ubka.uni-karlsruhe.de/kvk.html). Für Zeitschriften
ist die Elektronische Zeitschriftenbibliothek der Universität Regensburg (EZB, http://rzblx1.
uni-regensburg.de/ezeit/) nützlich. Gerade für die deutschsprachige Pädagogik und Didaktik
lassen sich die FIS Literaturdatenbanken (http://www.fachportal-paedagogik.de/start.html)
sowie besondere Fachdatenbanken, die über die Hochschulbibliotheken ausfindig gemacht
werden können, verwenden. Über das Informationszentrum für Fremdsprachenforschung in
Marburg können Bibliographien aus der dortigen Literaturdatenbank angefordert werden
(http://www.uni-marburg.de/ifs). In gedruckter Form liegt die ebenfalls in Marburg verant-
wortete Bibliographie Moderner Fremdsprachenunterricht vor, die seit 1970 fremdsprachen-
didaktische Veröffentlichungen und auch graue Literatur bibliographiert. Über die Deutsche
Nationalbibliographie können außer Printmedien auch audiovisuelle Medien, elektronische
Medien, Karten und Online-Ressourcen recherchiert werden (http://dnb.dnb.de). Weitere
Hilfen zur Literaturrecherche im Internet und in Bibliotheken finden sich bei Franke/Klein/
Schüller-Zwierlein (2010).
Die Suche nach Dokumenten jeder Art erfordert Findigkeit, Geduld und Gründlichkeit.
Diese wichtige Phase im Forschungsprozess sollte nicht unterschätzt werden, da im kumula-
tiven Prozess des Suchens, Findens, Einordnens und Aussortierens sich auch die Forschungs-
fragen weiter klären und man mit dem zu analysierenden Material zunehmend vertraut wird.
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit
einem Sternchen markiert.
*Bellingrodt, Lena Christine (2011). ePortfolios im Fremdsprachenunterricht. Empirische Studien zur
Förderung autonomen Lernens. Frankfurt/M.: Peter Lang.
Bortz, Jürgen/Döring, Nicola (2006). Forschungsmethoden und Evaluation für Human- und Sozialwis-
senschaftler. Heidelberg: Springer.
Christ, Herbert/Müllner, Klaus (1985). Richtlinien für den Unterricht in den neueren Fremdsprachen in
den Schulen der BRD 1945–1984. Eine systematische Bibliographie. Tübingen: Narr.
Christ, Herbert/Rang, Hans-Joachim (1985). Fremdsprachenunterricht unter staatlicher Verwaltung.
7 Bände. Tübingen: Narr.
*Doff, Sabine (2002). Englischlernen zwischen Tradition und Innovation. München: Langenscheidt-
Longman. [Referenzarbeit, s. Kapitel 7]
*Doff, Sabine (2008). Englischdidaktik in der BRD 1949–1989. Konzeptuelle Genese einer Wissenschaft
im Dialog von Theorie und Praxis. München: Langenscheidt.
Fend, Helmut (2006). Neue Theorie der Schule. Einführung in das Verstehen von Bildungssystemen.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
5.2.1 Dokumentensammlung
Forschungsgegenstand
Forschungsfrage(n)
Eingrenzung
zeitlich, örtlich, bildungspolitisch, etc.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Dokumente
offiziell, halboffiziell, privat, öffentlich
frei bzw. nicht frei zugänglich
unterschiedliche Kommunikationsbereiche
Art der Urheberschaft
Suche
systematisch oder Schneeballsuche
imaginäres Korpus
Untersuchungskorpus
virtuelles Korpus
konkretes Korpus
repräsentativ
genügend breit
genau erfasst
*Summer, Theresa (2011). An Evaluation of Methodological Options for Grammar Instruction in EFL
Textbooks. Are Methods Dead? Heidelberg: Winter.
»» Webseiten
McCulloch, Gary (2004). Documentary Research in Education, History and the Social Sciences.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Barbara Schmenk
Empirische Studien bzw. ihre Publikation in Aufsätzen und Büchern stellen Primärtexte dar,
wenn es um die Erfassung des status quo eines spezifischen Forschungsthemas innerhalb der
Fremdsprachenforschung geht. Welcher Art die jeweiligen empirischen Studien sind, näm-
lich ob eher quantitativ-nomologisch oder qualitativ-interpretatorisch, ist dabei zunächst
irrelevant. Jede Publikation empirischer Daten zu einem bestimmten Thema vermag auf je
spezifische Weise Licht auf bestimmte Aspekte zu werfen, die in den gewählten Gegenstands-
bereich fallen (vgl. auch Grotjahn 1999).
den gewählten Gegenstandsbereich zu erhellen vermögen (z. B. Arbeiten aus anderen Fach-
didaktiken, der Psychologie, Soziologie, Pädagogik). Diese stellen zwar in Bezug auf ihre
unmittelbare empirische Evidenz ebenfalls Primärtexte dar, sind jedoch meist von denen der
Fremdsprachenforschung zu unterscheiden, insofern sie sich nicht unmittelbar dem Lernen
und Lehren von neuen Sprachen widmen. Sie können deshalb als affine primäre Texte ver-
standen werden. Man trifft hier mitunter auf andere forschungsgeschichtliche und wissen-
schaftssoziologische Gegebenheiten, die das Lesen solcher Publikationen mitunter erschweren
bzw. die eine eingehende Beschäftigung mit den jeweiligen fachspezifischen Voraussetzungen
erfordern, damit man den entsprechenden Beitrag in seinem Entstehungskontext nachvoll-
ziehen und einordnen kann. Viele Arbeiten in der Psychologie etwa basieren auf Daten, die
in experimentellen Forschungsdesigns gewonnen wurden und die nicht ohne weiteres auf
den Gegenstandsbereich Fremdsprachenlernen und -lehren übertragen werden können. Eine
Beschäftigung mit experimentellen Designs, Datengewinnung und Interpretation ist dabei
oft unabdingbar (z. B. Bierhoff/Petermann 2014). Bei der Verwendung affiner primärer Texte
aus anderen Fachbereichen ist immer auch Vorsicht und Augenmaß geraten, im Idealfall
auch Austausch mit Forschenden der betreffenden Disziplinen, wenn man im Rahmen einer
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Von Darstellungen empirischer Studien sind solche zu unterscheiden, die sich zwar auf empi-
rische Arbeiten beziehen, diese jedoch in einem Überblick zusammenfassen mit dem Ziel, den
Forschungsstand in einem bestimmten Gegenstandsbereich darzustellen. Das Spektrum der
Texte reicht von der kompakten Darstellung in Handbüchern und Lexika (wie Burwitz-Mel-
zer et al. 2016; Surkamp 2010) bis hin zu differenzierten Forschungsüberblicken in Mono-
graphien (z. B. Ellis 2008). Dabei wird häufig auch auf einige der oben als „affine primäre
Texte“ bezeichneten Publikationen Bezug genommen, so dass diese Gruppe von Texten bereits
eine interdisziplinäre Tendenz aufweist. Sie stellen insofern sekundäre Texte dar und können
sowohl ihren Schwerpunkt im Bereich der Fremdsprachenforschung als auch in anderen
Fachbereichen haben. Von besonderer Bedeutung für diese sekundären Texte (und deshalb
für Forschende immer bei der Lektüre und Arbeit mit ihnen zu bedenken) ist, dass hier eine
zusätzliche interpretatorische Dimension zu berücksichtigen ist, da die jeweiligen Autorin-
nen und Autoren ihrerseits primäre Texte zusammenfassen, gruppieren, auswerten und in
einem Zusammenhang darstellen. Zu bedenken ist außerdem, dass zahlreiche primäre Texte
auch Anteile aufweisen, die in die Gruppe der sekundären Texte fallen können. Dies verhilft
einerseits zu einer strukturierten Darstellung und vermittelt einen konzisen Überblick über
einen bestimmten Forschungsbereich aus einem bestimmten Zeitraum, die man als LeserIn
sicherlich zu schätzen weiß. Andererseits handelt es sich bei der Strukturierung aber natür-
lich um eine Form der Interpretation, die ggf. für die eigene Arbeit überdacht werden muss.
Forschungsüberblicke finden sich nicht nur in Handbüchern, Lexika oder sonstigen über-
greifenden Darstellungen, sondern auch in jeder Veröffentlichung empirischer Befunde; und
häufig finden wir hier eindeutige interpretatorische Tendenzen, die die jeweiligen Verfasserin-
nen und Verfasser aufgrund der eigenen Sichtweisen und Forschungsinteressen entsprechend
zusammengestellt und dargelegt haben. Solche Forschungsüberblicke in primären Texten er-
fordern deshalb dieselbe Lesehaltung wie sekundäre Texte, insofern hier zwischen primären
Textanteilen (Darstellung und Auswertung eigener empirischer Forschung) einerseits und
sekundären Teilen (der Interpretation anderer primärer Texte durch die jeweiligen Verfasse-
rinnen und Verfasser) andererseits unterschieden werden muss (s. Kapitel 6.3).
Theoretische Arbeiten
Zu unterscheiden von primären und sekundären Texten sind solche, die sich eher beiläu-
fig und z.T. auch nicht systematisch auf empirische Forschung beziehen, sondern die den
Anspruch erheben, theoretische Fragestellungen und Zusammenhänge zu erkunden und zu
entwickeln, indem sie beispielsweise Diskurse bündeln, kritisch hinterfragen und neu per-
spektivieren. Theoretische Arbeiten in der Fremdsprachenforschung basieren zudem ihrer-
seits meist auch auf theoretischen Schriften aus anderen Fachbereichen. So wurde z. B. bei der
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Arbeiten von Hallet (2002) und Hu (2003) auf kulturwissenschaftliche Schriften (z. B. Bhabha
1994), in der Arbeit von Schmenk (2002) auf Titel aus dem Bereich der Gender Studies zu-
rück gegriffen (z. B. Butler 2000), für die Arbeiten von Küster (2003), Breidbach (2007) und
Schmenk (2008) wurden bildungstheoretische Schriften herangezogen (z. B. Humboldt 1995;
Meyer-Drawe 1990).
in den eigenen Interessensbereich zu fallen scheint (zeitliche wie auch sprachliche Grenzen be-
sitzt nun einmal jede/r). Ein gangbarer (wenn auch nicht gänzlich befriedigender) Weg ist es,
eine möglichst umfangreiche Sammlung deutschsprachiger Publikationen zusammenzustellen
und dann die englischsprachige Literatur gezielt zu sichten (s. u.). Da mittlerweile auch im
deutschen Sprachraum zunehmend englischsprachige Texte rezipiert und veröffentlicht wer-
den, scheint eine Sichtung und Sammlung von primären und sekundären Texten, die auf Eng-
lisch verfasst wurden, unumgänglich. Hinzu kommt, dass auch Forschungsarbeiten anderer
Herkunft oft auf Englisch publiziert werden (z. B. aus den skandinavischen Ländern), so dass
man mit den Wissenschaftssprachen Deutsch und Englisch durchaus viele verschiedene Her-
kunftsorte von Forschungsergebnissen berücksichtigen kann. Daneben ist nicht nur bei Ar-
beiten im Bereich der romanischen Sprachen eine Sichtung von Publikationen in französischer
und/oder spanischer Sprache sinnvoll. In der Sprachenwahl der Texte liegt einerseits immer
ein limitierendes Moment, das man letztlich nicht aufheben kann, zum anderen ermöglicht
sie u. U. ein größere Differenziertheit und Breite der Diskussion.
Eine zweite Entscheidung betrifft dann die Auswahl derjenigen Arbeiten, die man für das
eigene Forschungsprojekt tatsächlich berücksichtigen möchte. Aufgrund der oben erwähnten
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Um einen spezifischen Forschungsdiskurs überblicken und erfassen zu können, also die Vo-
raussetzungen für die Abfassung einer theoretischen Arbeit zu schaffen, sollten bei der Text-
zusammenstellung möglichst verschiedenartige primäre Texte ausgewählt werden. Das gilt
sowohl für die Forschungsmethodologie und das Design der Studien (qualitative wie auch
quantitative Designs, Daten von unterschiedlichen Populationen und ggf. aus unterschiedli-
chen Lern- und Lehrkontexten und Regionen) als auch für die Ergebnisse (um die Bandbreite
der Forschungsresultate zu erfassen). Bei Schmenk (2002) wurden Studien aus dem eng-
lisch- und deutschsprachigen Raum berücksichtigt, die sich mit dem Geschlecht von Fremd-
sprachenlernenden und -lehrenden beschäftigen. Hier war zu beobachten, dass bereits diese
erste Sichtung zeigte, dass verbreitete und in sekundären Texten übereinstimmend attestierte
„Wahrheiten“ über das Geschlecht nicht haltbar sind. Die Fülle der unterschiedlichen und
bisweilen inkonsistenten Resultate empirischer Forschungsarbeiten zum Geschlecht wird in
sekundären Texten zugunsten konsistenter Aussagen etwa über das bessere Lernergeschlecht
nicht kenntlich gemacht bzw. nicht erwähnt.
Quantitative Entscheidungen zur Textzusammenstellung: Wie viele Texte sind nötig, wie
viele hinreichend?
Hat man nach dem ersten Kriterium eine Liste von Texten zusammengestellt, gilt es nach dem
zweiten Kriterium zu entscheiden, mit wie vielen Texten man sich für das jeweilige Arbeits-
vorhaben tatsächlich genauer beschäftigen sollte bzw. kann. Für den bzw. die Forschende ist
es schon nach einer ersten Sichtung nach Kriterium 1 der qualitativen Variation möglich,
Tendenzen der Forschung zu erkennen und einen Überblick über die Forschungslage zu ge-
ben. Damit lässt sich ein spezifischer Forschungsdiskurs zumindest oberflächlich beschreiben
(im Falle von Schmenk [2002] ist das z. B. der Überblick über die Forschungsergebnisse von
Untersuchungen des Lernerfolgs der Geschlechter: Sind weibliche oder männliche Lernende
„besser“ oder erfolgreicher?).
Um einen Forschungsdiskurs genauer zu durchdringen, bedarf es jedoch einer weit intensi-
veren Beschäftigung mit einzelnen primären (auch sekundären) Texten. Hier geht es nun
um das Kriterium der Quantität: Wie viele Arbeiten kann man tatsächlich im Detail unter-
suchen? Diese Frage lässt sich letztlich nur im Einzelfall beantworten, jedoch ist zumindest zu
bedenken, dass man für bestimmte Argumentationsmuster jeweils verschiedene Texte unter-
suchen muss, damit man Gemeinsamkeiten und Unterschiede sowie die Muster selbst exakter
bestimmen kann, die in Forschungsarbeiten erkennbar sind. Schmenk (2002) unterscheidet
verschiedene Faktoren, die im Zusammenhang mit dem Lernergeschlecht untersucht und
mit diesem korreliert worden sind, wie etwa Motivation und Lernstile. Für jeden dieser Fak-
toren wurden verschiedene Einzelstudien herangezogen, um anhand von deren Ergebnissen
sowie den Argumentationen ihrer VerfasserInnen nachzuzeichnen, welche Rolle bzw. welcher
Effekt jeweils dem Geschlecht der Lernenden attestiert wird und inwiefern es mit den jeweils
untersuchten Faktoren korreliert bzw. in welchen argumentativen Zusammenhang die Ver-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
fasserInnen das Geschlecht stellen, wenn sie davon ausgehen, dass es mit anderen Faktoren
korreliert. Da es in diesem Fall eine deutliche Tendenz gab, Argumentationen nach demselben
Muster aufzubauen, wurden nur wenige Arbeiten knapp skizziert. Generell ist eine Beschrän-
kung auf wenige Texte bei eingehenderen Untersuchungen von Texten dann möglich, wenn
sich eine Tendenz zu gleichförmigen Argumentationsfiguren abzeichnet. Im Fall von gender
war das die Neigung, bestimmte Einflussfaktoren als binär zu konzipieren (z. B. holistische
vs. analytische kognitive Stile oder integrative vs. instrumentelle Motivation) und diese dann
unmittelbar mit einem Geschlecht zu assoziieren (männlich-weiblich), was zu einerseits stark
polarisierten geschlechtsspezifischen Lerner- und Lernbildern führt, sich andererseits jedoch
in Bezug auf die zugrunde liegende Lerntheorie als problematisch erweist (da z. B. Motivation
eher als Kontinuum zu verstehen ist und zudem nicht als statisches Merkmal von Lernenden
angesehen werden kann; vgl. Schmenk 2002: 48–61).
Das letztlich entscheidende Kriterium zur Textauswahl ist bedingt durch den ausgewählten
theoretischen Rahmen der Arbeit. Da Fremdsprachenforschende in der Regel nicht bereits
über umfangreiche Kenntnisse etwa philosophischer Debatten verfügen, ist neben der Lektüre
und Arbeit mit primären und sekundären Texten auch eine vertiefte Lektüre theoretischer
Arbeiten notwendig. Selbst wenn man von Beginn an eine theoretische Frage- oder Problem-
stellung im Kopf hat, die man gern im Rahmen der Fremdsprachenforschung genauer ver-
folgen oder anwenden möchte, wird man im Laufe der Lektüre von primären und sekundären
Texten meist feststellen, dass weitere Aspekte zu bedenken, die theoretischen Hintergründe
zu differenzieren und ggf. auch zu modifizieren sind. Diese theoretischen Überlegungen sind
schließlich ausschlaggebend sowohl für die Untersuchung von primären und sekundären
Texten als auch für weitere Überlegungen, Vorschläge und Kritik im Rahmen des spezifischen
Forschungsdiskurses der Fremdsprachenforschung. Theoretische Arbeiten weisen deshalb
immer auch den Charakter von Diskursanalysen auf, wenn es um die möglichst präzise Er-
fassung eines spezifischen Forschungsgegenstands geht. Dies stellt die Voraussetzung dar für
das Entwickeln eigener Theorien und Modelle wie auch für andere theoretische Studien zu
Aspekten des Fremdsprachenlehrens und -lernens.
So entwickelt Breidbach (2007) anhand seiner differenzierten Untersuchung von Über-
legungen zur Begründung und Praxis des bilingualen Unterrichts sowie von Bildungs-
diskursen unter postmodernen Bedingungen eine reflexive Didaktik für den bilingualen
Sachfachunterricht, die sowohl fachwissenschaftliche als auch allgemeinpädagogische und
bildungstheoretische Dimensionen berücksichtigt. Schmenk (2002) verhilft die Orientierung
an den Gender Studies u. a. zu einer Klassifikation von Geschlechtsbegriffen in der Fremd-
sprachenforschung (sex versus gender, gender als Substantiv vs. gender als Verb), die für die
Auswahl von primären Texten zur eingehenden Analyse herangezogen wird (vgl. Referenz-
arbeit Schmenk 2002). Die größte Herausforderung besteht für VerfasserInnen von theoreti-
schen Arbeiten sicherlich darin, sich Einblick in solche Theorien zu verschaffen, die nicht aus
der Fremdsprachenforschung stammen. Um in der Lage zu sein, Kerntexte zu identifizieren,
zentrale Diskussionspunkte zu kennen und sich selbst auch kritisch damit auseinander setzen
zu können, ist häufig ein Selbststudium in entsprechenden Fachbereichen und deren Theorie-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
bildung unvermeidlich, ebenso wie sehr viel Lesen und Wiederlesen sowie Kommunizieren
mit FachvertreterInnen. Im Laufe der Lektüre kommt man dann an den Punkt, an dem man
Kerntitel kennt und wiedererkennt, weil auf diese immer wieder in verschiedenen Arbeiten
verwiesen wird. (Für die Heuristik und Korpuserstellung vgl. außerdem die Hinweise in
Kapitel 5.1.2).
5.2.2 Textzusammenstellung
für theoretische Arbeiten
Forschungslandschaft
wissenschaftliche Publikationen (Texte),
Dokumente, Videos, Lehrmaterialien etc.
theoretisches Erkenntnisinteresse
Erfassen und Durchdringen eines Themas bzw.
einer Fragestellung der Fremdsprachendidaktik
Interdisziplinarität
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
bibliographische Recherche
primäre (empirische) Texte LLBA,
RIC, MLA,
sekundäre (zusammenfassende) Texte IFS etc.
theoretische Texte
Begrenzungskriterien
theoretischer Rahmen, Sprach(en), Gegenstands-
bereich, Vielfalt der dargestellten Methoden und
Ergebnisse
Auswahlentscheidung
inhaltliche Tendenzen
erkennbare Argumentationsmuster
Textzusammenstellung
Neben diesen Datenbasen gibt es auch die Möglichkeit, Bibliographien über folgende Res-
sourcen zusammenzustellen:
• USA: Library of Congress (http://www.loc.gov), ca. 14 Millionen Einträge, nicht nur in
englischer Sprache
• Kanada: Canadian National Catalogue (Amicus) (http://amicus.collectionscanada.ca/aa-
web/aalogine.htm)
• Australien: National Library of Australia, (http://catalogue.nla.gov.au/)
• Großbritannien: British Library Public Catalogue (http://catalogue.bl.uk/primo_library/
libweb/action/search.do?dscnt=1&dstmp=1 394 914 136 152&vid=BLVU1&fromLogin=
true)
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Gee, James Paul/Handford, Michael (Hg.) (2012). The Routledge Handbook of Discourse Ana-
lysis. London: Routledge.
In diesem Band werden Formen und Aufgaben von Diskursanalysen dargestellt. Zahlreiche Bei-
spiele und verschiedene Formen von Diskursanalysen werden detailliert erläutert. Für theoretische
Arbeiten bietet der Band eine Reihe von methodischen Ideen zum Umgang mit Texten mit dem
Zweck, Diskurse zu analysieren.
Jorgensen, Marianne & Phillips. Louise J. (2002). Discourse Analysis as Theory and Method.
London: Sage.
In diesem Band geben die Verfasserinnen einen Überblick über Theorien und Methoden von Diskurs-
analysen, die sich hauptsächlich auf neuere poststrukturalistische Theorien stützen. Wer eine theo-
retische Arbeit verfassen will, die sich zur Aufgabe macht, Forschungsdiskurse in ihrer Entstehung zu
begreifen sowie Tendenzen in bestimmten Diskursen darzustellen, findet in diesem Band wertvolle
Tipps und Hintergründe für den Umgang mit Texten.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
5.2.3 Beobachtung
1 Begriffsklärung
Im Gegensatz zu Befragungen (s. Kapitel 5.2.4), welche insbesondere zur Erforschung innerer
Aspekte wie Einstellungen, Meinungen und Gefühle geeignet sind, richten sich Beobach-
tungen auf äußerlich wahrnehmbares Verhalten. Beobachtet werden können beispielsweise
die fremdsprachliche Interaktion oder Produktion mit ihren verbalen Handlungen, also den
sprachlichen Äußerungen, mit ihren nonverbalen Handlungen wie beispielsweise Zeigen,
Nicken usw. und mit ihren begleitenden aktionalen Handlungen wie beispielsweise dem
Umgang mit Gegenständen. Nicht direkt beobachtbar sind dagegen diesen Prozessen zu-
grundeliegende Kognitionen und Emotionen sowie auch die fremdsprachliche Rezeption. Da
Ansichten, wie sie in Befragungen kundgetan werden, und tatsächliches Verhalten, wie es be-
obachtet werden kann, in einigen Fällen divergieren, ist in einigen Untersuchungen die Kom-
bination von Befragungen und Beobachtungen von besonderem Interesse. Im Forschungs-
programm Subjektive Theorien (s. Kapitel 4.2) ist beispielsweise nach einer kommunikativen
Validierung von Interviewdaten auch eine zweite Phase der explanativen Validierung durch
Beobachtung der handelnden Subjekte vorgesehen (Scheele/Groeben 1998: 24–29).
Beobachtungen basieren zu einem gewissen Anteil immer auch auf dem Vorwissen der
Beobachtenden. Im Gegensatz zu anderen Erhebungsmethoden ist für die Beobachtung cha-
rakteristisch, dass sich dabei Erhebungs- und Interpretationsprozesse stark mischen, denn Be-
obachtung ist per se durch Selektion, Abstraktion und Klassifikation charakterisiert. Wichtig
erscheint es deshalb, die verschiedenen Herangehensweisen an Beobachtungen aus einer
emischen von solchen aus einer etischen Forschungsperspektive zu unterscheiden (s. Ka-
pitel 2; Watson-Gegeo 1988: 579–582, Markee/Kasper 2004: 493–495).
Dient die Beobachtung einer Rekonstruktion der Innenperspektive der Akteur_innen, also
einer emischen Zielsetzung, dann sind die Vertrautheit mit den beobachteten Forschungs-
partner_innen sowie ein umfassendes Kontextwissen zentral für die Datenerhebung. Aus
der emischen Perspektive, die insbesondere für die Ethnographie konstitutiv ist (s. dazu
genauer Abschnitt 3), geht es beim Beobachten um ein Fremdverstehen, um ein Sich-Hinein-
versetzen in die Kultur der Forschungspartner_innen. So laufen Forscher_innen aufgrund der
Bedeutung des Vorwissens für die Informationsaufnahme Gefahr ethnozentrischer bzw. „zu
weit gehende[r] Interpretationen […], wenn der Beobachter dem Beobachteten sein eigenes
Sinnverständnis unterlegt“ (Lamnek 2010: 501) – genau dies gilt es jedoch aus emischer Per-
spektive zu vermeiden.
Eine etisch motivierte Beobachtung ist dagegen nicht am Fremdverstehen interessiert, son-
dern setzt ein bestimmtes theoretisches Verständnis des zu beobachtenden Untersuchungs-
gegenstands bereits voraus und wendet es konsequent auf ihn an. Zur Qualitätssicherung
legen Beobachtungsstudien aus etischer Perspektive deshalb in der Regel Wert darauf, mit-
hilfe von Beobachtungsleitfäden, von Beobachtungstraining mit entsprechendem Feedback
und von Reliabilitätsüberprüfungen einen hohen Grad an intersubjektiver Übereinstimmung
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Der Unterschied zwischen teilnehmender und nicht-teilnehmender Beobachtung besteht darin, dass
bei der teilnehmenden Beobachtung der Beobachter selbst Element des zu beobachtenden sozialen
Feldes wird, wohingegen bei der nicht teilnehmenden Beobachtung der Beobachter gleichsam von
außen her das ihn interessierende Verhalten beobachtet. (Lamnek 2010: 511)
Die nicht-teilnehmende Beobachtung in der Referenzarbeit von Schwab (2009) fand beispiels-
weise durch eine Kamera im vorderen Teil des Klassenzimmers in der Nähe des Fensters statt.
In der Forschungsliteratur werden in der Regel vier verschiedene Ausprägungen auf einem
Kontinuum des Partizipationsgrads von complete participant über participant-as-observer,
observer-as-participant und complete observer unterschieden (vgl. Tab. 1), die im Folgenden
in enger Anlehnung an Johnson/Christensen (2012: 209) erläutert werden.
complete participant Der/ die Forscher_in wird Mitglied der untersuchten Gruppe
und teilt den Gruppenmitgliedern nicht mit, dass sie untersucht
werden.
participant-as-observer Der/die Forscher_in verbringt als Insider_in ausgedehnte Zeit
mit der Gruppe und teilt den Gruppenmitgliedern mit, dass sie
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
untersucht werden.
observer-as-participant Der/die Forscher_in verbringt begrenzte Zeit mit der Beo-
achtung von Gruppenmitgliedern und teilt ihnen mit, dass sie
untersucht werden.
complete observer Der/die Forscher_in beobachtet die Gruppenmitglieder als
Außenseiter_in und teilt den Beobachteten dies nicht mit.
Tabelle 1: Rollen bei der Feldforschung (zusammengestellt und übersetzt aus Johnson/Christensen 2012:
209)
Die Rolle als complete participant läuft auf eine verdeckte Beobachtung hinaus und erscheint
deshalb aus forschungsethischen Gründen nicht akzeptabel, da datenschutzrechtliche Aspekte
grundsätzlich eine offene Beobachtung erforderlich machen (zu Fragen der Offenlegung des
Untersuchungsinteresses und zu Fällen von Täuschung über das Untersuchungsinteresse, s.
Kapitel 4.6). Eine Beobachterrolle als participant-as-observer nimmt dagegen in Kauf, dass
die Gruppenmitglieder von der Beobachtung wissen und sich deshalb unter Umständen we-
niger natürlich verhalten, vertraut aber darauf, dass sich mit zunehmender Gewöhnung an
den oder die Beobachter_in und mit wachsendem Vertrauen die Natürlichkeit ihres Verhaltens
wieder einstellt. Ein observer-as-participant dagegen verbringt deutlich weniger Zeit mit den
Gruppenmitgliedern und ist deshalb in geringerem Maße durch Identifikation und in stärke-
rem Maße durch Distanz charakterisiert. Schließlich wird ein complete observer die Gruppe
vollkommen von außen und in verdeckter Weise beobachten, um das Beobachterparadoxon
bzw. die Reaktivität der Erhebungsmethode zu umgehen – aufgrund datenschutzrechtlicher
Vorgaben handelt es sich um einen abstrahierten Pol des Kontinuums, der in dieser Form
praktisch nicht vorkommen sollte.
Weiterhin wird mit dem Begriffspaar online/offline unterschieden, ob die Beobachtung
im Moment des Geschehens selbst erfolgt (online) oder auf Basis von Audio- und Videoauf-
zeichnungen im Anschluss an das Geschehen (offline), wobei in letzterem Fall ein iteratives
Beobachten möglich ist. Oftmals werden aber auch beide Verfahren miteinander verbunden,
indem z. B. bei Filmaufnahmen nebenher Notizen erstellt werden (z. B. Schwab 2009).
Typischerweise sind Beobachtungen im authentischen Feld angesiedelt. Seltener, weil
auch deutlich kostenaufwändiger ist die Unterrichtsbeobachtung in einer Laborsituation:
Hier stehen technisch entsprechend ausgerüstete Laborklassenzimmer zur Verfügung, in
der zahlreiche Kameras aus unterschiedlichen Perspektiven den Unterricht dokumentieren,
beispielsweise können in der Decke installierte Kameras von oben die Schreibprozesse der
Schüler_innen dokumentieren. Für die Beobachtung von einzelnen Personen, beispielsweise
Lernenden im Lernprozess oder Lehrpersonen bei der Unterrichtsplanung, ist dagegen der
Verzicht auf Feldbedingungen einfacher zu realisieren, so dass in diesen Fällen zwischen den
Vorteilen der Natürlichkeit des Feldes und Ungestörtheit des Labors abzuwägen ist.
Schließlich werden auch die Fremd- und die Selbstbeobachtung unterschieden, wobei die
Fremdbeobachtung im Folgenden im Zentrum des Kapitels steht, während die Selbstbeobach-
tung vor allem mit der Aktionsforschung (s. Kapitel 4.2) verbunden ist und der Introspektion
nahesteht (s. Kapitel 5.2.5).
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Essentiell ist für die teilnehmende Beobachtung in der Ethnographie das Anfertigen von
stichwortartigen Feldnotizen und von darauf aufbauenden Beobachtungsberichten, in denen
die Feldforscher_innen ihre Eindrücke „nachträglich sinnhaft verdichten, in Zusammenhänge
einordnen und textförmig in nachvollziehbare Protokolle gießen“ (Lüders 2013: 396). Zu
beachten ist, dass sich in solchen Beobachtungsprotokollen Beschreibungen und Interpre-
tationen mischen (Friebertshäuser/Panagiotopoulou 2013: 313) und dass die vertiefte Re-
flexion durch die Verschriftlichung der Beobachtungen auch auf die Feldkontakte zurückwirkt
(Legewie 1995: 192). Ein Forschungstagebuch dient vielen Ethnograph_innen darüber hinaus
für die Dokumentation und Selbstreflexion.
Die sprachdidaktisch motivierte Studie von Heath (1983) stellt ein frühes und prototypi-
sches Beispiel einer solchen ethnographischen Vorgehensweise dar.2 Auf der Grundlage einer
langjährigen teilnehmenden Beobachtung am Alltagsleben von zwei Arbeitergemeinden in
den Südstaaten der USA, die sie als Trackton and Roadville bezeichnet, charakterisiert die
Forscherin die oralen und literalen Sprachpraktiken der jeweiligen Bewohner_innen. Feld-
notizen, Forschertagebuch und Audioaufnahmen dienen ihr beispielsweise dazu, die kulturell
divergierenden Vorstellungen von einer gelungenen mündlichen Erzählung in beiden Ge-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Hinführung/Einstieg
• Wie geschieht die Hinführung zum Thema?
• Wie wird die Sprachhandlungssituation, in der frei gesprochen werden soll, eingeführt?
Inhaltliche und sprachliche Vorbereitung
• Wie werden die TN inhaltlich und sprachlich auf das freie Sprechen vorbereitet?
• Wie erarbeitet die KL inhaltliche und sprachliche Hilfen für das freie Sprechen?
Arbeitsform
• Welche Arbeitsformen werden eingesetzt, in denen freies Sprechen möglich wird (z. B.
Simulation, Rollenspiele, Diskussionen usw.?)
Korrekturverhalten
• Lässt die KL die TN frei sprechen, ohne sie zu unterbrechen und zu korrigieren?
• Wann und wie wird korrigiert?
Erweiterung der Sprechfertigkeit
• Entwickeln die TN spürbar die Bereitschaft und Fähigkeit, das neu Gelernte in der simu-
lierten Sprachhandlungssitatuion angemessen einzusetzen?
• Woran ist dies zu beobachten?
• Verwenden die TN die neu erworbene Lexik und die neuen Stukturen im freien Sprechen?
Lernziel(e)
• Welches Lernziel/Welche Lernziele werden im Rahmen dieser Unterrichtseinheit mit Blick
auf das freie Sprechen erreicht?
• Woran ist das zu beobachten?
Sprachlernstrategien
• Gibt es Anregungen, Aufgaben, Unterstützung für autonomes Weiterlernen und die An-
wendung außerhalb des Unterrichts?
• Welche?
Abbildung 1: Fragen auf einem Beobachtungsbogen zum freien Sprechen (zusammengestellt aus Ziebell/
Schmidjell 2012: 58)
auf der Grundlage von Videos oder auf der Grundlage von Transkriptionen – entweder mit
Kodierungen oder mit Beurteilungen:
Kodierende Beobachtungsverfahren zielen darauf ab, das Auftreten und ggf. die Dauer bestimm-
ter Ereignisse oder Verhaltensweisen zu erfassen und festzuhalten. Die erzeugten Daten geben
Aufschluss über die Häufigkeit, Verteilung oder zeitlichen Anteile bestimmter Verhaltens- oder
Interaktionsmerkmale. Demgegenüber geht es bei Schätzverfahren (oft auch englisch als „Ratings“
bezeichnet) um eine Einschätzung oder Beurteilung des Beobachtungsgegenstandes, indem anhand
von Schätzskalen die Ausprägung bestimmter Merkmale (z. B. bestimmter Qualitätsdimensionen)
eingestuft wird. (Pauli 2012: 47; vgl. einführend auch Appel/Rauin 2015).
3).
Die Abbildungen 2 und 3 aus einer Untersuchung von Strube (2014) zum Erwerb mündli-
cher Kompetenzen in Niederländischkursen durch Teilnehmer_innen mit wenig Schulerfah-
rung zeigen Beispielbögen für Ereigniskodierungen. Der Beobachtungsbogen in Abbildung 2
ist auf größere pädagogische Aspekte wie inhaltlicher Fokus, Sozialformen und Materialien
bezogen. Auch wenn dieser Bogen von der Forscherin auf der Grundlage von Transkripten
ausgefüllt wurde, so zeigt er doch den Fall vergleichsweise niedrig-inferenter Ereigniskodie-
rungen, die auch zeitgleich mit dem Unterrichtsgeschehen, also direkt im Klassenzimmer
erfasst werden könnten. Das zweite Beispiel in Abbildung 3 zu korrektivem Feedback illus-
triert dagegen den Fall einer geradezu mikroskopischen Ereigniskodierung, die vergleichs-
weise hoch-inferent und nur mit entsprechendem Zeitaufwand und auf der Grundlage von
Transkripten durchführbar ist.
unterricht vs. Partner- und Gruppenarbeit geeignet sind; denkbar ist allerdings auch der
Einsatz von einfacheren Aufnahmegeräten im Alltag (z. B. Smartphones), wie die zweit-
sprachendidaktisch motivierten Studien von Levine (2008) oder Pietzuch (2015) illustrieren,
bei denen die Forschungspartner_innen Sprachaufnahmen in ihrem Alltagsleben machten.
Dass auch allein auf der Grundlage von Audioaufnahmen bahnbrechende Forschungsergeb-
nisse zu erzielen sind, zeigen die die bis heute grundlegende Untersuchung von Sinclair/
Coulthard (1975) zu typischen Interaktionsmustern im lehrerzentrierten Unterricht und die
als klassisch zu bezeichnende Arbeit von Wong-Fillmore (1979) zu Strategien von Kindern
beim L2-Erwerb Englisch.
Bei Videoaufnahmen ist zu klären, mit wie vielen Kameras (und entsprechend Mikrofo-
nen) gearbeitet werden soll und wie diese unter Berücksichtigung der Lichtverhältnisse und
insbesondere des Untersuchungsgegenstands positioniert werden sollen. In der Regel wird
vom Fenster weg und mithilfe eines Stativs, ggf. mit Kameraschwenks, gefilmt, doch für
geübte Kameraleute kommt auch der Einsatz beweglicher Kameras in Frage. Insbesondere bei
größeren Forschungsprojekten findet oft ein Kameraskript Einsatz, das im Vorfeld der Unter-
suchung Details zu diesbezüglichen Entscheidungen festlegt und somit die Einheitlichkeit
der Aufnahmen in einem Projekt absichert (s. bspw. Ricart Brede 2011: Anhang). Wird bei
den Aufnahmen mit mehreren Kameras gearbeitet, ist bei der Aufbereitung und Analyse die
Synchronisierung in Split-Screen-Formaten von Interesse. Bei der Erforschung eines fremd-
sprachlichen Kurses für Sprecher_innen von Gebärdensprache ist es beispielsweise unerläss-
lich, mit zwei synchronisierten Videoaufnahmen zu arbeiten, um die Interaktion von frontaler
Lehrperson und Lernergruppe dokumentieren zu können.
Die Referenzarbeit von Schmidt (2007: 190–192) illustriert den Fall, dass Partnerarbeiten
am Computer videographiert wurden. Dazu wurde per Zufallssampling regelmäßig jeweils
ein Paar bei der Bearbeitung von Softwareübungen videographiert. Ergänzend wurde mittels
einer Bildschirmaufzeichnungssoftware (Camtasia) dokumentiert, wie die Schüler_innen die
Übungen am Bildschirm bearbeiteten. Zudem wurde auch der größere Unterrichtskontext
videographisch und mittels Feldnotizen dokumentiert.
Für die Aufbereitung und Analyse von Videodaten stehen inzwischen zahlreiche Soft-
warepakete zur Verfügung, welche teils auch mehrere Audio- und Videospuren gleichzeitig
darstellen können (z. B. Transana). Einige Beispiele sind:
• Anvil (http://www.anvil-software.org),
• Interact (s. http://www.mangold-international.com/de/software/interact),
• Observer (http://www.noldus.com/human-behavior-research/products/the-observer-xt),
• Transana (http://www.transana.org) und
• Videograph (http://www.dervideograph.de).
Die videogestützte Erforschung von Fremdsprachenunterricht hat ungefähr seit der Jahr
tausendwende einen regelrechten Boom erlebt (s. Überblick in Schramm/Aguado 2010),
sodass sich inzwischen verschiedene Ansätze herausgebildet haben. Schramm (2016) unter-
scheidet diesbezüglich drei Typen videogestützter Forschung zu fremdsprachendidaktischen
Fragen: Erstens untersuchen in pragmalinguistischer Tradition stehende Videointeraktions-
analysen in deskriptiver Absicht den (Fremdsprachen-)Unterrichtsdiskurs (s. beispielsweise
die Referenzarbeit von Schwab 2009, Méron-Minuth 2009; s. auch Kapitel 5.3.6). Im Un-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
6 Fazit
Für die Beforschung und Untersuchung von fremdsprachendidaktischen Untersuchungs-
feldern, insbesondere zur Erforschung der fremdsprachlichen Klassenzimmerinteraktion,
stellt die Beobachtung ein zentrales Erhebungsinstrumentarium dar. Bei teilnehmenden Be-
obachtungen im Feld, bei der nicht-teilnehmenden Beobachtung mittels mehr oder wenig
strukturierter Beobachtungsbögen und bei audio- und videographischen Aufzeichnungen
ist gleichermaßen bereits im Vorfeld genau zu bedenken, wie und in welcher Form die Be-
obachtung vorgenommen werden kann und soll. Dies bedeutet auch darüber nachzudenken,
welche Auswirkungen der Beobachtungsprozess auf die eigentliche Forschungsintention hat.
Entscheidend ist dabei u. a., wie invasiv der oder die Forschende ist und wie gegenstandsan-
gemessen das Vorgehen ist. Aus ethischer Sicht scheint es von zentraler Relevanz, die Vor-
gehensweise klar und deutlich mit den Forschungssubjekten abzusprechen und allen Betei-
ligten gegenüber offen darzulegen (z. B. auch den Schulbehörden oder Eltern). Wichtig ist
darüber hinaus, die Beobachtungsmodalitäten beim Publizieren der Ergebnisse deutlich und
umfassend darzustellen.
emische Forschungsperspektive
Gefahr ethnozentrischer Interpretationen (oder fehlender Distanz)
Auswertung
ethnographisches
Erhebung
participant-as-observer
Beobachtungsprotokoll
oberserver-as-participant offener Beobachtungsbogen
quantifizierende
complete observer Kodierung / Schätzung
im Labor nicht-teilnehmend strukturiert
5.2.3 Beobachtung
etische Forschungsperspektive
Gefahr der Ausblendung nicht-modellierter Sinnstrukturen
© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
152 5. Forschungsverfahren
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit
einem Sternchen markiert.
Aguado, Karin/Schramm, Karen/Vollmer, H. Johannes (Hg.) (2010). Fremdsprachliches Handeln be-
obachten, messen und evaluieren. Neue methodische Ansätze der Kompetenzforschung und Video-
graphie. Frankfurt a. M.: Lang.
Appel, Johannes/Rauin, Udo (2015). Methoden videogestützter Beobachtungsverfahren in der Lehr-
und Lernforschung. In: Daniela Elsner/Britta Viebrock (Hg.). Triangulation in der Fremdsprachen-
forschung. Frankfurt a. M.: Lang, 59–79.
Atkinson, Paul/Hammersley, Martin (1994). Ethnography and participant observation. In: Denzin,
Norman K./Lincoln, Yvanna S. (Hg.). Handbook of Qualitative Research. London: Sage, 248–261.
Breidenstein, Georg (2012). Ethnographisches Beobachten. In: De Boer, Heike/Reh, Sabine (Hg.), 27–44.
De Boer, Heike/Reh, Sabine (Hg.) (2012). Beobachtung in der Schule. Beobachtung lernen. Wiesbaden:
Springer VS.
Dörnyei, Zoltán (2007). Research Methods in Applied Linguistics. Oxford: Oxford University Press.
*Feick, Diana (2016). Autonomie in der Lernendengruppe. Entscheidungsdiskurs und Mitbestimmung
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Markee, Numa/Kasper, Gabriele (2004). Classroom talks: An introduction. In: The Modern Language
Journal 88, 491–500.
*Méron-Minuth, Sylvie (2009). Kommunikationsstrategien von Grundschülern im Französischunter-
richt. Tübingen: Narr.
Moskowitz, Gertrude (1971). Interaction analysis – a new modern language for supervisors. In: Foreign
Language Annals 5, 211–221.
Pauli, Christine (2012). Kodierende Beobachtung. In: De Boer, Heike/Reh, Sabine (Hg.), 45–63.
*Pietzuch, Anja (2015). Hochqualifizierte in Integrationskursen – eine fallstudienorientierte Analyse zu
Zweitspracherwerb, Identität und Partizipation. München: iudicium.
*Ricart Brede, Julia (2011). Videobasierte Qualitätsanalyse vorschulischer Sprachfördersituationen.
Freiburg i.B.: Klett Fillibach.
Ricart Brede, Julia (2014). Beobachtung. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/
Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als
Fremd- und Zweitsprache. Paderborn: Schöningh (UTB), 137–146.
Ricart Brede, Julia/Knapp, Werner/Gasteiger-Klicpera, Barbara/Kucharz, Diemut (2010). Die Entwick-
lung von Beobachtungssystemen in der videobasierten Forschung am Beispiel von Qualitätsanalysen
vorschulischer Sprachfördereinheiten. In: Aguado, Karin/Schramm, Karen/Vollmer, Helmut J. (Hg.),
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
257–275.
*Riegel, Ulrich/Macha, Klaas (Hg.) (2013). Videobasierte Kompetenzforschung in den Fachdidaktiken.
Münster: Waxmann.
Scheele, Birgit/Groeben, Norbert (1998). Das Forschungsprogramm Subjektive Theorien. Theoretische
und methodologische Grundzüge in ihrer Relevanz für den Fremdsprachenunterricht. In: Fremd-
sprachen lehren und lernen 27, 12–32.
*Schmidt, Torben (2007). Gemeinsames Lernen mit Selbstlernsoftware im Englischunterricht. Eine em-
pirische Analyse lernprogrammgestützter Partnerarbeitsphasen. Tübingen: Narr. [Referenzarbeit,
Kapitel 7]
Schramm, Karen (2014). Besondere Forschungsansätze: Videobasierte Unterrichtsforschung. In: Setti-
nieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.).
Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh,
243–254.
Schramm, Karen (2016). Unterrichtsforschung und Videographie. In: Burwitz-Melzer, Eva/Mehlhorn,
Grit /Riemer, Claudia/Bausch, Karl-Richard/Krumm, Hans-Jürgen (Hg.). Handbuch Fremdsprachen-
unterricht. 6. vollständig neu bearbeitete Auflage. Tübingen: A. Francke, 587–592.
Schramm, Karen/Aguado, Karin (2010). Videographie in den Fremdsprachendidaktiken – Ein Überblick,
in: Aguado, Karin/Schramm, Karen/Vollmer, Helmut J. (Hg.). Fremdsprachliches Handeln beobach-
ten, messen und evaluieren. Neue methodische Ansätze der Kompetenzforschung und Videographie.
Frankfurt a. M.: Lang, 185–214.
*Schwab, Götz (2009). Fremdsprachenunterricht und Konversationsanalyse. Landau: Verlag empirische
Pädagogik. [Referenzarbeit, Kapitel 7]
*Sinclair, John McH./Coulthard, Richard M. (1975). Towards an Analysis of Discourse. The English Used
by Teachers and Pupils. Oxford: Oxford University Press.
*Strube, Susanna (2014). Grappling with the Oral Skills. The Learning and Teaching of the Low-Literate
Adult Second Language Learner. Utrecht: Landelijke Onderzoekschool Taalwetenschap.
van Lier, Leo (1990). Ethnography: Bandaid, Bandwagon, or Contraband? In: Brumfit, Christopher/Mit-
chell, Rosamond (Hg.). Research in the Language Classroom. London: Modern English Publications,
33–53.
*Waggershauser, Elena (2015). Schreiben als soziale Praxis. Eine ethnographische Untersuchung er-
wachsener russischsprachiger Zweitschriftlernender. Tübingen: Stauffenburg.
Watson-Gegeo, Karen Ann (1988). Ethnography in ESL: Defining the essentials. In: TESOL Quarterly
22, 575–592.
*Wong-Fillmore, Lily (1979). Individual differences in second language acquisition. In: Fillmore,
Charles/Kempler, Daniel/Wang, William S.-Y. (Hg.). Individual Differences in Language Ability and
Language Behavior. New York: Academic Press, 203–228.
Ziebell, Barbara/Schmidjell, Annegret (2012). Unterrichtsbeobachtung und kollegiale Beratung. Berlin:
Langenscheidt.
5.2.4 Befragung
Claudia Riemer
die Protagonisten – die Lehrenden und Lernenden – selbst mit ihrer Binnensicht zu Wort
kommen zu lassen. Es hat aber auch damit zu tun, dass viele Untersuchungsgegenstände
(wie etwa Erfahrungen, Einstellungen, Motivationen oder Haltungen von Lehrenden und
Lernenden) nicht aus der Außenperspektive beobachtbar sind und dann eine Operationali-
sierung in Form von Selbstauskünften befragter Personen sinnvoll ist. Es spielt aber sicher
auch eine Rolle, dass Befragungsmethoden an alltäglichen kommunikativen Erfahrungen
des Fragens und Antwortens anknüpfen und daher insbesondere Forschungsnovizen hier
weniger methodische Zugangshürden antizipieren; einen Fragebogen zu entwickeln oder
ein Interview durchzuführen erscheint zunächst eine leicht(er) zu bewältigende Aufgabe zu
sein.
Wie bei anderen Datenerhebungsmethoden auch, spielt die Qualität des Erhebungsinstru-
ments die entscheidende Rolle für die Qualität von Befragungsdaten. Befragungsdaten sind
allerdings das Ergebnis von Selbstauskünften (engl. self reports) und daher mit der generellen
Problematik verbunden, dass ihre Zuverlässigkeit eingeschränkt ist. Dies hängt u. a. von der
Bereitschaft und Fähigkeit der Befragten zu wahrheitsgemäßen und relevanten Aussagen ab;
auch Erinnerungsfehler, sozial erwünschte Antworten, Gefälligkeitsaussagen und Einflüsse
persönlicher Antworttendenzen (engl. response set), wie z. B. die Akquieszenz (Ja-Sage-Ten-
denz), sind nie auszuschließen. Möglichst unverfälschte Daten durch Befragung zu erheben,
muss daher durch die jeweiligen Verfahren so weit es nur geht sichergestellt werden. Ein Bei-
spiel für gute Reflexion der Effekte sozialer Erwünschtheit bei Fragebogenbefragungen sowie
deren Berücksichtigung bei der Fragebogenkonstruktion findet sich in der Studie von Özkul
(2011: 94–95), die Berufswahlmotive von Lehramtsstudierenden untersucht.
Zu unterscheiden sind schriftliche (Fragebogen) und mündliche Formen (Interview) der
Befragung sowie der Grad ihrer Standardisierung. Fragebögen werden gewöhnlich dann
eingesetzt, wenn größere Probandengruppen erfasst werden sollen und/oder die Anony-
mität schon in der Befragungssituation gewahrt bleiben soll. In der Regel sind Fragebögen
stark standardisiert. Die Erhebung der Fragebogendaten selbst sowie deren Aufbereitung und
Auswertung ist relativ unaufwändig – was allerdings auf die Erstellung eines geeigneten Fra-
gebogens nicht zutrifft. Interviews haben den Vorteil, dass für viele Befragten der mündliche
Modus einfacher ist und Befragte sich intensiver mit den Fragen auseinandersetzen; ihre
Anonymität kann allerdings frühestens während der Datenaufbereitung (Transkription) her-
gestellt werden. Interviews werden als Einzelinterviews oder als Gruppeninterviews bzw.
Gruppendiskussionen durchgeführt, was im Vergleich zu schriftlichen Befragungen einen
erheblich größeren Zeitaufwand für die Datenerhebung (und auch für die darauf folgende
Transkription und Datenanalyse) erforderlich macht und daher in der Regel den Umfang der
Probandengruppen einschränkt. Beide Formen sind im Rahmen qualitativer und quantitativer
Forschungsansätze einsetzbar, wobei sich der jeweils erforderliche bzw. erwünschte Grad der
Standardisierung unterscheidet.
Die Standardisierung von Befragungen umfasst verschiedene Aspekte: die Geschlossenheit
der Fragen, die Festlegung der Fragenreihenfolge sowie die Gestaltung der Befragungssituati-
on. Standardisierte Befragungen (auch als „strukturierte“ Befragung bezeichnet) sind typisch
für einen zugrundegelegten quantitativen, hypothesentestenden Forschungsansatz und sehen
v. a. geschlossene Fragen in festgelegter Reihenfolge sowie eine exakte Kontrolle der Daten-
erhebungssituation vor (gleiche Bedingungen für alle Probanden, gleiches Verhalten der Inter-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
2 Fragebogen
Der Einsatz von Fragebögen ist mit einer Reihe von Vorteilen verbunden: Befragungen kön-
nen mittels Fragebögen sehr exakt vorstrukturiert werden; Fragen können klar festgelegt wer-
den und präzise formuliert werden. Fragebögen sind relativ leicht und räumlich wie zeitlich
flexibel einsetzbar; große Mengen an Daten können mit überschaubarem Aufwand erhoben
werden. Sie können auf Papier ausgeteilt werden und nach kurzer Zeit wieder eingesammelt
werden. Alternativ können sie auf postalischem oder elektronischem Wege versandt und er-
hoben werden; darüber hinaus kann bei elektronisch unterstützten Befragungen mittels Ein-
satz von Fragebogensoftware sichergestellt werden, dass alle Fragen beantwortet werden. Die
Anonymität der Befragten kann bewahrt werden. Die gewonnenen Daten sind vergleichbar
und – abhängig vom Grad ihrer Standardisierung – leicht quantifizierbar und quantitativen
Analyseverfahren zuzuführen. Aber: Wenn Fragebögen zu schnell erstellt und eingesetzt wer-
den, geht dies meistens zu Lasten der Datenqualität, was die Güte von Fragebogenstudien
erheblich einschränken kann. So fordert u. a. Dörnyei (2010: XIII) für die Fremdsprachenfor-
schung, dass der Einsatz von Fragebögen besser forschungsmethodisch und -methodologisch
reflektiert und vorbereitet werden muss, als dies in vielen Studien der Fall ist.
Skalentypen
Fragen können als geschlossene oder offene Fragen gestellt werden. In standardisierten Fra-
gebögen überwiegen die geschlossenen Fragen, für die Antwortoptionen in Form unterschied-
licher Skalen vorgegeben sind (zu ausführlichen Erläuterungen zum Skalenniveau, vgl. auch
Porst 2014: 71–97). Offene Fragen haben oft den Charakter eines Annex und werden häufig
von den Untersuchungsteilnehmern gar nicht beantwortet – oder spielen bei der Datenana-
lyse keine wichtige Rolle.
Oft enthalten Fragebögen gar keine Fragen, auf die die Befragten mittels vorgegebener
oder (seltener) freier Antworten reagieren sollen. Häufig zu finden sind Rating-Skalen, ins-
besondere so genannte Likert-Skalen, die positiv oder negativ formulierte Statements vor-
Beispiel 1: Item aus dem Fragebogen zur Messung der fremdsprachenspezifischen Angst
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
1. I never feel quite sure of myself when I am speaking in my foreign language class.
Strongly agree – Agree – Neither agree nor disagree – Disagree – Strongly disagree
Beispiel 2: Item aus dem Fragebogen zur Messung der integrativen und instrumentellen
Orientierung zum Fremdsprachenlernen von Gardner (1985: 179)
1. Studying French can be important for me only because I’ll need it for my future
career.
halten, die den Befragten zur (Selbst-)Einschätzung auf einer vorgegebenen, anzukreuzenden
Ratingskala vorgelegt werden (vgl. Porst ebda, Dörnyei 2010: 26–33). Mittels solcher Items
werden z. B. Einstellungen, Haltungen und Erfahrungen operationalisiert. Empfohlen werden
fünf bis neun Skalenpunkte, wobei zu berücksichtigen ist, dass bei einer hohen Anzahl mit
pseudodifferenzierten Antworten zu rechnen ist. Die Anzahl der skalierten Ankreuzmöglich-
keiten kann gerade oder ungerade sein; beides ist in der Forschung üblich. Zu bedenken ist
aber stets, dass eine ungerade Anzahl Unschärfen bei der Datenerhebung (und späteren Da-
tenauswertung) ergeben kann, weil Untersuchungsteilnehmer die Mittelposition einer Skala
unterschiedlich interpretieren. Wenn sie die Mittelposition ankreuzen, kann dies bedeuten,
dass sie keine Meinung dazu haben – aber evtl. auch, dass sie die Frage uninteressant finden;
evtl. sind sie aber wirklich neutral. Alternativ könnte bei einer ungeraden Anzahl eine zusätz-
liche Antwortkategorie, wie die Option „weiß nicht“/„nicht zutreffend“ vorgegeben werden.
Eine gerade Anzahl wiederum zwingt die Befragten, sich für eine Seite zu entscheiden, auch
wenn sie vielleicht unentschieden sind.
Die Punkte auf den Ratingskalen werden mittels geeigneter Begriffe sprachlich festgelegt
(vgl. Bsp. 1 für eine 5stufige Skala, Bsp. 2 für eine 7stufige Skala in anderer Zustimmungs-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
richtung, Bsp. 3 für eine 4stufige Skala, die die Befragten zu einer Antwortrichtung zwingt);
alternativ können auch Piktogramme, wie z. B. Smileys für Skalenpunktmarkierungen ver-
wendet werden (z. B. für den Einsatz von Likert-Skalen bei Kindern; vgl. Dörnyei 2010:
28–29). Schwieriger ist die Benennung der Skalenpunkte bei Häufigkeitsangaben, da An-
gaben wie „selten“ oder „häufig“ unterschiedlich interpretiert werden können (vgl. Beispiel 4
für eine häufig anzutreffende Lösung). Als Alternative bieten sich ausschließlich endpunkt-
benannte Skalen an, da so die Gleichabständigkeit der Zwischenstufen besser erreicht wird,
insbesondere wenn die Benennung vieler Zwischenstufen nicht uneindeutig möglich ist. Der
Grad der Gleichabständigkeit der Skalen ist eine wesentliche Voraussetzung für die Art der
Quantifizierung der mit solchen Items gewonnenen Daten. In der Regel sind Likert-Skalen
nicht äquidistant; daher sind damit gewonnene Daten im strengen Sinn keine intervallskalier-
ten Daten, sondern ordinale bzw. rangskalierte Daten, die nicht allen statistischen Verfahren
zugänglich sind (vgl. Kapitel 5. 3. 10).
Eine schriftliche Befragung ist nur so gut wie ihr Fragebogen – und ein Fragebogen ist nur
so gut wie seine Items. Im Vergleich zu den Vorteilen einer Fragebogenbefragung in Bezug
auf den Zeitaufwand der Erhebung und Auswertung ist nicht zu unterschätzen, welcher
Aufwand bei der Erstellung eines Fragebogens zu leisten ist. Entscheidende Schritte sind die
Formulierung sowie Zusammenstellung der Items. Gerade bei Untersuchungsgegenständen,
für die es noch keine geprüften Verfahren gibt, und bei abstrakten Konstrukten, wie z. B.
Einstellungen, Meinungen oder anderen Persönlichkeitsvariablen, sind Multi-Items gegen-
über Einfach-Items vorzuziehen, d. h. mehrere, gewöhnlich vier bis zehn Items werden in
Annäherung an das zu erfassende Konstrukt formuliert (zur Verwendung von Multi-Items,
vgl. Dörnyei 2007: 103–104, Dörnyei 2010: 23–26).
Es gibt keine harten Regeln für die Itemformulierung – und vorhandene Empfehlungen
bleiben in gewisser Weise immer abstrakt. Aus der Vielzahl von Methodeneinführungen (vgl.
Daase/Hinrichs/Settinieri 2014: 105, Dörnyei 2007: 108–109, Dörnyei 2010: 40–46, Meyer
2013: 91, Porst 2014: 20–31, 98–118) können jedoch einige Faustregeln abgeleitet werden,
da sie insbesondere Forschungsnovizen vor vermeidbaren Fehlern bewahren können; alle
Regeln sind besonders sorgsam zu beachten, wenn die Sprache des Fragebogens nicht die L1
der Befragten ist.
Zur Festlegung der Items gehört neben der Formulierung der Fragen oder Statements auch
die der Auswahl der Skalentypen (s. o.) bzw. Antwortoptionen. Bei Faktenfragen (z. B. nach
demographischen Variablen wie Alter, Bildungslaufbahn, Geschlecht) sind geeignete Ant-
wortoptionen festzulegen, z. B. im Multiple-Choice-Format. Statements müssen entsprechen-
de Rating-Skalen zugeordnet werden, wobei begründete Entscheidungen getroffen werden
müssen, was die Anzahl der Zwischenstufen betrifft und ob diese gerade oder ungerade
sein soll. Auch sollte bedacht werden, dass es bei Mehrfachantworten die häufige Tendenz
gibt, dass Befragte die ersten (primacy-effect) oder letzten Antwortkategorien (recency-effect)
vermehrt ankreuzen (dieser Effekt verstärkt sich bei standardisierten mündlichen Befragun-
gen).
Bei der Anordnung der Fragen ist zu beachten, dass sie der Aufmerksamkeitsspanne des
Befragten entspricht. Zum Einstieg in den Fragebogen sollten möglichst inhaltliche und
forschern geschrieben werden (die Autoren in den oben genannten Studien waren auch die
Tagebuchschreiber!). Ein anderes Beispiel ist das Instrument der mittels eines relativ offenen
Frageimpulses erhobenen schriftlichen Sprachlernbiographie, die in der deutschen Sprach-
lehrforschung zur Untersuchung von Lernervariablen eingesetzt wird (vgl. exemplarisch
Edmondson 1997, Riemer 2011).
3 Interview
Zu unterscheiden sind quantitative von qualitativen Interviews. Quantitative, strukturierte
Interviews spielen in der deutschen wie internationalen Fremdsprachenforschung keine große
Rolle. Sie sind eine Sonderform der standardisierten Befragung, für die die oben genannten
Regeln und Grundlagen der Fragebogenbefragung gelten; Frageformulierungen und Ant-
wortoptionen sind vorgegeben. Die Durchführung eines strukturierten Interviews ist eine
mündliche Administration eines vorgegebenen Fragebogens; allerdings mit dem Vorteil,
dass die direkte (oder telefonische) mündliche Befragung das Risiko vermindert, dass Items
ausgelassen oder viel zu flüchtig durchgegangen werden. Aus Gründen der notwendigen
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Gleichbehandlung geschieht dies allerdings um den Preis einer recht künstlichen Gesprächs-
situation, bei der keine Spielräume für Frageanpassungen, Nachfragen oder auf den jeweili-
gen Untersuchungsteilnehmer bezogene Erläuterungen bestehen.
Qualitative Interviews
Das Leitfadeninterview
Das Leitfadeninterview ist eine häufig anzutreffende, semi-offene Form des qualitativen Inter-
views. Die wesentlichen Aspekte des Untersuchungsgegenstands und der Forschungsfrage(n)
werden vorab in Stichworten und (offenen) Fragen festgehalten. Durch die Entscheidung für
diese etwas stärker vorstrukturierte mündliche Befragung kann gewährleistet werden, dass
die interessierenden Aspekte des Untersuchungsgegenstands zur Sprache kommen – sie wer-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
den durch entsprechende Impulsfragen des Interviewers eingebracht. Dabei muss allerdings
in Kauf genommen werden, dass die erhobenen Daten etwas stärkeren Elizitierungscharakter
haben, was mit der reinen Lehre der qualitativen Forschungsmethodologie nicht völlig im
Einklang steht. Die Leitfragen sollen aus diesem Grund so offen gehalten sein, dass die Unter-
suchungsteilnehmer ausreichend Möglichkeit haben, eigene Sinnzusammenhänge zu elabo-
rieren bzw. eigene Schwerpunkte zu setzen. Der Leitfaden sollte daher nicht zu umfangreich
sein und eher als Orientierung und weniger als ein strikter Ablaufplan gehandhabt werden
(zum Dilemma der „Leitfadenbürokratie“ vgl. die frühen Ausführungen von Hopf 1978).
Fragenreihenfolge und exakte Formulierungen werden nicht vorgegeben, sondern sollen sich
möglichst harmonisch in den Gesprächsfluss, der v. a. durch den Untersuchungsteilnehmer be-
stimmt wird, einfügen. Die Befragten sollen zu möglichst ausführlichen Antworten ermutigt
werden; auch sollte ihnen der Raum für offene Erzählungen gegeben werden. Nachfragen
sind ein wichtiges Instrument der Gesprächslenkung (s. u.). Wie offen ein Leitfadeninterview
tatsächlich ist, hängt von der Gestaltung durch den Interviewer ab bzw. von seiner Fähig-
keit, den Befragten in ein Gespräch zu verwickeln, das diesen zu tiefgründigen Aussagen
ermuntert. Dabei ist stets zu beachten, dass Fragen per se Aufforderungscharakter an die
Interviewten haben und der Fragestil eine motivierte Teilnahme des Interviewten fördern soll.
Es ist eine Kunst, die ‚richtigen‘ Fragen zum richtigen Zeitpunkt zu stellen. Fehler dabei sind
unvermeidbar (was jeder Forschende spätestens bei der Transkription und Auswertung der
Interviews feststellen wird); es kommt aber darauf an, mit Fragen in der Gesprächssituation
bewusst und kontrolliert umgehen zu können.
Faustregeln für Leitfäden sowie Fragen in offenen und semi-offenen Interviews (vgl. Dörnyei
2007: 136 – 138, Helfferich 2011: 102 – 114, Kvale 2007: 60 – 65)
Leitfäden
• sollen nicht zu lang sein, d. h. es sollen nicht zu viele Fragen vorgesehen werden;
• sollen formal so gestaltet sein, dass sich Interviewer während des Interviews leicht darin
zurechtfinden: Fragen sollen auf keinen Fall vorgelesen werden;
Fragen
• sind stets verständlich, widerspruchsfrei und möglichst kurz zu halten (keine Fremdwörter
oder Fachausdrücke). Diese Regel ist doppelt zu beachten, wenn die Sprache des Interviews
nicht die L1 der Befragten ist;
• sollen nicht nur mit ja oder nein zu beantworten sein;
• sollen nicht als geschlossene Fragen gestellt werden;
• sollen nicht zu viele Aspekte auf einmal ansprechen;
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
• Insbesondere Nachfragen sollen möglichst nicht mit „warum“, „wieso“, „weshalb“ beginnen,
da sie als indirekte Kritik verstanden werden können oder zu vorschnellen Ursache-Wirkungs-
Zusammenhängen einladen;
• Insbesondere erzählgenerierende Fragen sind daraufhin zu prüfen, ob sie Präsuppositionen,
also Vorannahmen, enthalten;
• Aufrechterhaltungsfragen sollen keine neuen inhaltlichen Impulse liefern, sondern zu wei-
teren Elaborationen führen (z. B. „Können Sie das etwas genauer erzählen?“, „Wie war diese
Situation für Sie?“) oder die Erzählung voranbringen (z. B. „Wie ist es dann weitergegan-
gen?“);
• Steuerungsfragen können das Gespräch wieder zum Thema zurückführen, indem z. B. ein
bereits gefallenen Stichwort aufgegriffen oder ein vorher fallengelassenes Thema wieder
eingebracht wird;
• Nachfragen sorgen für die Tiefgründigkeit und Reichhaltigkeit der Daten, indem z. B. um Er-
läuterungen und Beispiele gebeten wird (z. B. „Ich bin unsicher, ob ich das richtig verstanden
habe; können Sie das bitte noch einmal erklären?“, „Können Sie bitte ein Beispiel geben?“),
Zusammenhänge hergestellt werden (z. B. „Wie kommen Sie jetzt auf diesen Punkt?“) sowie
die Genauigkeit oder Vollständigkeit überprüft wird (z. B. „Ich versuche mal zusammenzufas-
sen, was Sie bisher gesagt haben …“; „Sie haben also aus folgenden Gründen damals mit
dem Lernen der deutschen Sprache begonnen …?“);
• Themen, die vom Interviewten nicht selbstständig angesprochen werden, sollten behutsam
eingebracht werden;
• Besondere Vorsicht ist bei Tabu-Fragen angezeigt.
Abbildung 3: Faustregeln für die Erstellung von Fragebögen
zusammenhang auch flexibel gehandhabt werden kann, sondern eher in ihrer Zielsetzung
(z. B. Untersuchung von spezifischen Problemlagen) und Berücksichtigung hervorgehobener
Teilnehmergruppen (z. B. Experten). Auch in der Fremdsprachenforschung finden einige die-
ser Varianten zunehmend Verwendung.
angesprochen wurden. Bereits vor Beginn des Interviews werden relevante demographische
Variablen mit einem Kurzfragebogen eingeholt.
Als Variante kann das in den Sozialwissenschaften bereits länger zum Einsatz kommende
fokussierte Interview (vgl. Merton/Kendall 1993) gelten, das sich thematisch auf ausgewählte
Aspekte einer gemeinsamen Erfahrung der Untersuchungsteilnehmer bezieht, deren sub-
jektive Sichtweisen und Reaktionen erhoben werden sollen. Fokussiert wird die nicht kon-
struierte, erlebte spezifische Erfahrung der Untersuchungsteilnehmer in Bezug auf den ge-
wählten Gegenstand. Die Aufforderung, sich an ein bestimmtes Ereignis zu erinnern, bzw.
ein Gesprächsstimulus eröffnet das Interview. Dies kann beispielsweise – auf den Fremd-
sprachenunterricht bezogen – eingesetzte Lehr-Lern-Materialien betreffen, welche vorab zur
Konstruktion eines Gesprächsleitfadens einer Inhaltsanalyse unterzogen wurden. Der wei-
tere Gesprächsverlauf wird nicht durch den Interviewer strikt gesteuert, der Leitfaden dient
lediglich als Orientierungsrahmen.
Von diesen an Leitfäden orientierten Interviewformen sind offenere Formen zu unterschei-
den: das narrative Interview und die Gruppendiskussion.
Das narrative Interview setzt im Unterschied zu den leitfadengestützten Interviews nicht da-
rauf, dass Themensetzungen und Impulse durch den Interviewer in das Gespräch eingebracht
werden (können). In Idealform stellt es den Typ eines maximal offenen Interviews dar, der
den Zielen und forschungsmethodologischen Erwägungen qualitativer Forschung am besten
entspricht. Es stellt eine stärker monologisch geprägte, erzählgenerierende Interviewform dar,
die in ihrem Hauptteil daraus besteht, dass auf der Grundlage einer vorformulierten Erzähl
aufforderung durch den Interviewer der Befragte eine längere selbstgestaltete und selbst-
reflexive Stegreiferzählung produziert, die durch inhärente Gestalterschließungs-, Konden-
Die Gruppendiskussion
Die Gruppendiskussion (seltener als Gruppeninterview bezeichnet; engl. focus group inter-
view) stellt eine Sonderform der qualitativen mündlichen Befragung dar (vgl. Barbour 2007,
Daase/Hinrichs/Settinieri 2014: 115–119, Dörnyei 2007: 144–146), in der Gruppen (emp-
fohlen werden mindestens sechs, maximal acht bis zwölf Personen) gemeinsam eine bis
zwei Stunden über ein festgelegtes Thema diskutieren. Damit die Gesprächssituation nicht
von gruppendynamischen Prozessen sowie stillschweigender Übereinkunft dominiert wird,
sollten die Untersuchungsteilnehmer nicht Teil einer Realgruppe sein; das Gesprächsthema
sollte sie aber als gruppenspezifisches Problem betreffen. Der Interviewer hat die Funktion
eines Gesprächseröffners und Moderators, nach einer offen gestellten Einstiegsfrage sollte
er sich stark zurückhalten und nur noch Zuhörersignale geben; Steuerung und Vorstruktu-
rierung spielen insgesamt eine marginale Rolle. Gruppendiskussionen erlauben im Idealfall
ökologisch valide und reichhaltige Daten; sie sind als Verfahren relativ unaufwändig, was
aber nicht auf den Aufwand der zeitlichen Organisation, Datenaufbereitung und -analyse
zutrifft. Dörnyei (2007: 145) empfiehlt die Erhebung von mindestens vier bis fünf Gruppen-
diskussionen, um einen ausreichend großen Datenkorpus zu erhalten.
Alternativ kommen Gruppendiskussionen als ergänzende Methode auch im Rahmen von
mixed-methods-designs zum Einsatz (vgl. Barbour 2007). Ein Beispiel hierfür stellt die Studie
von Hochstetter (2011; s. Kapitel 7) zur diagnostischen Kompetenz von Englischgrund-
schullehrenden dar, bei der ergänzend zu Leitfadeninterviews sog. Gruppengespräche zur
Gewinnung von individualisierten Aussagen von Lehrkräften zum reflexiven Abschluss einer
längeren Untersuchungsphase durchgeführt werden. Tassinari (2010; s. Kapitel 7) setzt u. a.
Gruppendiskussionen mit Experten (hier: Lehrkräften) ein, um kollektive Orientierungen
zur Validierung eines entwickelten Modells autonomen Fremdsprachenlernens einschließlich
seiner Deskriptoren zu erheben.
Retrospektive Interviews
Eine Sonderform der mündlichen Befragung stellen retrospektive Interviews dar, mit denen
Befragte im Nachgang zu einer Situation oder Handlung (z. B. Befragung von Lehrkräften
zu Korrekturen im Fremdsprachenunterricht) aufgefordert werden, sich laut zu erinnern und
dabei Erläuterungen und Interpretationen zu liefern. Solche Verfahren können von einer me-
dialen Untersützung stark profitieren (im Idealfall mittels videographierten Auszügen oder
zumindest Audioaufnahmen oder Gesprächstranskripten). Dabei erhobene Daten unterliegen
wie alle introspektiven Daten methodologischen Einschränkungen, insbesondere was die
Gedächtnisleistung und Verbalisierungsfähigkeit der Befragten betrifft. Retrospektive Inter-
views sind zu unterscheiden von Erhebungen, bei denen simultan zu mentalen oder inter-
aktiven Handlungen Gedanken und Emotionen von Untersuchungsteilnehmern durch Lautes
Denken an die Oberfläche gebracht werden sollen (vgl. hierzu Kapitel 5.2.5).
Das Experteninterview
‚Quer‘ zu den aufgeführten Formen von Interviews liegt die in letzter Zeit verstärkt ver-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Interviewerverhalten
Wie bereits deutlich wurde, kommt dem Interviewer in Bezug auf die Vorbereitung und
Gestaltung des Interviews eine besondere Verantwortung zu. Ein Interview unterliegt nicht
den Kommunikationsregeln eines Alltagsgesprächs (vgl. Helfferich 2011: 46–48), bei dem
die Beteiligten unterschiedliche Rollen abwechselnd übernehmen; es sollte aber gleich-
zeitig möglichst „natürlich“ sein – dies sind Anforderungen, die immer in einem gewissen
Widerspruch bleiben. Die notwendigen Kompetenzen bringen unerfahrene Interviewer in
der Regel nicht mit, sie müssen durch Training und v. a. Probe-Interviews eingeübt werden;
auch die Beobachtung der Interviewführung erfahrener Forscher kann dies unterstützen.
Schwerpunkte dabei sollten die Gestaltung der Intervieweröffnung sein (z. B. Was sind geeig-
nete Eingangsfragen?), die Aufrechterhaltung des Gesprächsflusses inkl. der Fähigkeit, unter
Zeitdruck passende Formulierungen zu finden (z. B. für Nachfragen und Vertiefungsfragen)
sowie die Beendigung des Interviews (z. B. Sicherstellung, dass alles Wichtige aus Sicht der
4 Stolpersteine
Es gilt der Grundsatz: Jede Befragung beinhaltet Befragungsfehler, die teilweise unvermeid-
lich sind, teilweise erst bei der Datenanalyse sichtbar werden. Aus solchen Fehlern kann
man selbst (und auch die scientific community) für Folgeuntersuchungen lernen, sie sollten
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
nicht verschwiegen und bei der Datenanalyse durchgängig reflektiert werden. Da es sich
bei Befragungsdaten um Selbstauskünfte handelt, kann nie ganz ausgeschlossen werden,
dass die Güte der Daten durch Selbstdarstellungseffekte (Wer gibt schon gern vermeintlich
Negatives über sich preis?), schlichtes Nicht-Wissen, Über- oder Unterforderung, Unkonzen-
tration, mangelnde Ausdrucksmöglichkeiten u. v. a. m. eingeschränkt ist.
Trotz aller Sorgfalt bei der Erstellung ist die Pilotierung von Fragebögen notwendig. Wird
darauf verzichtet, ist dies als forschungsmethodischer Mangel festzuhalten. Schwerpunkt
der Überprüfung sollten die typischerweise auftretenden methodischen Schwächen wie die
folgenden sein: Frageformulierungen, Positionseffekte (z. B. Ausstrahlungseffekte von sensi-
blen Fragen auf andere Fragen, bei Auswahlantworten werden häufig die erstaufgeführten
Elemente gehäuft angekreuzt), Neigung von Untersuchungsteilnehmern, eher positiv, neutral
oder negativ zu bewerten (engl. response set) – aber auch das Einsammeln von Rückmel-
dungen zum Layout und Länge sowie zur Administration des Fragebogens.
Zum Stolperstein kann auch das Sampling der Untersuchungsteilnehmer werden (vgl.
Kapitel 4.3). Wenn v. a. auf freiwillige Teilnahme durch Selbstselektion gesetzt wird (z. B. Mel-
dung auf Aushänge und breite Versendung von Anfragen), kann dies Rücklaufverzerrungen
bedeuten und das Ergebnis der Untersuchung insgesamt verfälschen, wenn nicht nachgewie-
sen werden kann, dass die zustande gekommene Stichprobe hinreichend repräsentativ ist.
Auch wenn geringe Rücklaufquoten in den Sozialwissenschaften als normal gelten, so sollten
doch – allein aus Gründen der Minimierung von Rücklaufverzerrungen gerade bei überschau-
baren Teilnehmergruppen (z. B. Lernende oder Lehrende bestimmter Schulen) – keine Mühen
gescheut werden, durch persönlichen Einsatz möglichst viele Teilnehmer zu bewegen, an der
Befragung teilzunehmen. Nicht ausreichend große Stichproben werden auch dann zum Pro-
blem, wenn quantitative Datenanalysen (hier: Statistik) geplant sind: Eine Mindestgrenze von
50 auswertbaren Fragebögen bzw. bei multivariaten Verfahren von 100 Fragebögen wird als
Faustregel angesehen (vgl. Dörnyei 2010: 62–63). Dass auch bei postalischer Versendung von
des Handlungsfeldes
© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
170 5. Forschungsverfahren
Fragebögen gute Rücklaufquoten erreicht werden können, zeigt die Studie von Özkul (2011)
zur Untersuchung der Berufswahlmotive von Anglistik-Lehramtstudierenden: Bei über 2500
verschickten (teilstandardisierten) Fragebögen konnten über 1700 Untersuchungsteilnehmer
gewonnen werden; allerdings können Rücklaufverzerrungen aufgrund der unausgewogenen
Beteiligung der Studierenden unterschiedlicher Bundesländer (Niedersachsen und Bayern
sind überrepräsentiert) nicht ausgeschlossen werden.
Bereits oben wurde ausgeführt, wie wichtig das Training des Interviewerverhaltens und das
Führen von Probeinterviews sind. Trotz bester Vorbereitung wird die Rolle des Interviewers
in der konkreten Interviewsituation aber immer ambig bleiben und permanent ad hoc-Ent-
scheidungen verlagen, die retrospektiv betrachtet als Fehler erscheinen. Interviewer sollen
eine gute Gesprächsatmosphäre herstellen und – je nach spezifischem Format – mehr oder
weniger ausgeprägt Zurückhaltung wahren, aber auch steuernd eingreifen sowie „auf Augen-
höhe“ mit den Befragten kommunizieren. Nichtsdestotrotz bleibt die Situation asymmetrisch
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
und die Rollenbeziehung zwischen Interviewer und Befragtem komplex; persönliche Merk-
male des Interviewers (Alter, Geschlecht, Sprache, akademischer und kultureller Hintergrund,
unbewusst repräsentierter Habitus qua Auftreten und Kleidung) verstärken dies. Auch solche
Aspekte müssen bei der Interpretation der Daten reflektiert werden.
Ein Aspekt semi-offener Interviews sollte im Vorfeld eines Interviews gesondert beachtet
werden: Oft sind Leitfäden viel zu lang – auch der Leitfaden muss sorgfältig erstellt und
pilotiert werden. Eine gute Möglichkeit, wie Leitfäden sinnvoll erstellt werden können, liefert
Helfferich (2011: 161–169) mit dem von ihr vorgeschlagenen SPSS-Prinzip (Sammeln – Prü-
fen – Sortieren – Subsumieren). Die von ihr vorgeschlagene Form des Leitfadens listet nicht
einfach gruppierte Leitfragen auf, sondern weist inhaltlich bedeutsame Bezugspunkte aus und
hält Vorformulierungen von allgemeinen Leitfragen, konkreten Fragen für Nachfragephasen
sowie Aufrechterhaltungs- und Steuerungsfragen bereit, auf die während des Interviews zu-
rückgegriffen werden kann.
Und damit es gar nicht zum Stolperstein wird, sollte der Umgang mit technischen Geräten
zum Datenmitschnitt gut geübt werden; es sollten immer Geräte-Alternativen vorgehalten
werden, damit technische Störungen nicht zum Datenverlust führen. Nach der Aufnahme
sollten sofort Sicherheitskopien angefertigt werden. Bei der Auswahl von Geräten ist zu
erwägen, wie sehr sie aufgrund ihrer Größe störend wirken können. Weitere wichtige Pa-
rameter sind die Qualität der Ton- oder Videoaufnahme sowie die Dateiformate (So ist es
günstig, wenn Daten in Form von wav-Dateien aufgenommen werden, die bei vielen Tran-
skriptionssoftwares ohne Umformatieren und damit verbundenem Qualitätsverlust sofort
eingesetzt werden können).
Bei der Analyse qualitativer Interviewdaten (vgl. Kapitel 5.3.3–5.3.8) ist zu beachten, dass
Tiefe und Reichhaltigkeit der Daten nicht durch (vorschnelle) Kategorisierung und Deduktion
verloren gehen (vgl. Riemer 2007) – dies würde die Mühe der Datenerhebung konterkarieren!
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit
einem Sternchen markiert.
*Bailey, Kathleen M. (1983). Competitiveness and Anxiety in Adult Second Language Learning: looking
at and through the diary studies. In: Seliger, Herbert W./Long, Michael H. (Hg.). Classroom Oriented
Research in Second Language Acquisition. Rowley: Newbury House, 67–103.
Bailey, Kathleen M./Ochsner, Robert (1983). A methodological review of the diary studies: windmill til-
ting or social science? In: Bailey, Kathleen M./Long, Michael H./Peck, Sabrina (Hg). Second Language
Acquisition Studies. Rowley, MA: Newbury House, 188–198.
Barbour, Rosaline (2007). Doing Focus Groups. Los Angeles: Sage.
*Biebricher, Christiane (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens.
Tübingen: Narr. [Referenzarbeit, Kapitel 7]
Bogner, Alexander/Littig, Beate/Menz, Wolfgang (2014). Interviews mit Experten. Eine praxisorientierte
Einführung. Wiesbaden: Springer VS.
Daase, Andrea/Hinrichs, Beatrix/Settinieri, Julia (2014). Befragung. In: Settinieri, Julia/Feldmeier, Ale-
xis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Bogner, Alexander/Littig, Beate/Menz, Wolfgang (2014). Interviews mit Experten. Eine praxis-
orientierte Einführung. Wiesbaden: Springer VS.
Die Monographie liefert viele grundlegende Hinweise und Tipps zur Durchführung sogenannter
Experteninterviews. Sie weist auf Unschärfen sowie Varianten dieser Interviewform in der Sozialfor-
schung hin und behandelt Zugangsfragen, die Vorbereitung und Durchführung der Erhebung sowie
Fragen der Auswertung. Anders als in vielen Methodenhandreichungen in den Sozialwissenschaften
beschäftigt sie sich auch mit Herausforderungen von Interviews in der Fremdsprache.
Daase, Andrea/Hinrichs, Beatrix/Settinieri, Julia (2014). Befragung. In: Settinieri, Julia/Demir-
kaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische
Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh,
103–122.
Der Artikel in einer auf Deutsch als Fremd- und Zweitsprache fokussierten forschungsmethodischen
Einführung behandelt die Grundlagen von empirischen Befragungsverfahren mit Schwerpunkt auf
Fragebogen, Interview und Gruppendiskussion. Er richtet sich an Leser mit wenigen Vorkenntnissen
und bietet Aufgaben und dazugehörige Lösungsvorschläge.
Dörnyei, Zoltán (with contributions from Tatsuya Taguchi) (2010). Questionnaires in second
language research. Construction, administration, and processing. Second edition. New York:
Routledge.
Mit dieser Monographie liegt eine gut lesbare und fachspezifische Einführung in die forschungs-
methodischen und -methodologischen Grundlagen von Fragebogenstudien vor. Schwerpunkte liegen
auf Fragen der Konstruktion von Fragebögen sowie ihrem Einsatz, aber auch auf der Auswertung
von Fragebogendaten. Viele hilfreiche Tipps und Beispiele werden gegeben.
Helfferich, Cornelia (2011). Die Qualität qualitativer Daten. Manual für die Durchführung
qualitativer Interviews. 4. Auflage. Wiesbaden: VS Verlag für Sozialwissenschaften.
Die Monographie liefert gutes Handwerkszeug für alle, die vor der Herausforderung stehen, ein
qualitatives Interview durchzuführen. Anders als in vielen eher forschungsmethodologisch orien-
tierten Einführungen stehen hier Fragen der praktischen Interviewdurchführung (u. a. Vorbereitung
und Organisation des Interviews, Gestaltung der Gesprächssituation, Strategien des Interviewers) im
Vordergrund, wofür viele nützliche Hinweise und Reflexionsanlässe gegeben werden. Das Manual
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
liefert auch Material für die Durchführung von Workshps zum Interviewer-Training.
McDonough, Jo/McDonough, Steven (1997). Research methods for English language teachers.
London: Arnold (daraus insbesondere: Chapter 11 „Asking Questions“, 171–188).
In diesem Kapitel einer insgesamt für Forschungsnovizen empfehlenswerten Einführung werden
wesentliche Grundlagen und Einsatzgebiete für Fragebögen und Interviews in der Fremdsprachen-
didaktik erläutert.
Porst, Rolf (2014). Fragebogen. Ein Arbeitsbuch. 4. erweiterte Auflage. Wiesbaden: Springer VS.
Die ausführliche und mit vielen Beispielen versehene Einführung in die Fragebogenkonstruktion
bietet sich hervorragend als Ergänzung zur stärker fachspezifischen Einführung von Dörnyei (2010)
an. Viele Hinweise betreffen auch das strukturierte Interview bzw. sind auf dieses übertragbar.
5.2.5 Introspektion
1 Begriffsklärung
Der Begriff Introspektion wird in der Fremdsprachenforschung für die Bezeichnung von
Datenerhebungsverfahren verwendet, bei denen Forschungspartner_innen durch lautes
Aussprechen Einblicke in ihre Gedanken und Emotionen gewähren, die der Beobachtung
normalerweise unzugänglich sind. Nach einem weiten Begriffsverständnis zählen hierzu
alle Formen von Interviews und Tagebuchdaten, die ohne gezielten Bezug auf eine konkrete
Handlung erhoben werden (vgl. Ericsson/Simon 1993: 49–62, Heine 2005, Knorr 2013: 32
für Terminologiediskussionen); in der Fremdsprachenforschung herrscht jedoch ein engeres
Verständnis vor, so dass hier solche Verfahren als introspektiv bezeichnet werden, bei denen
gezielt Daten bezüglich einer bestimmten (mentalen oder interaktionalen) Tätigkeit erhoben
werden (z. B. Strategien beim Übersetzen, fremdsprachliche Schreibprozesse, Vorgehen beim
rungen aus dem Langzeitgedächtnis abgerufen werden, welche mit generellen Einstellungen,
Selbstbild etc. verknüpft sind. Um dennoch so viele Gedanken aus der Erhebungssituation
wie möglich zu reaktivieren, wird Lautes Erinnern häufig auf der Grundlage eines Video-
impulses bezüglich der zu untersuchenden Handlung (videobasiertes Lautes Erinnern) ver-
wendet. Es kann grundsätzlich aber auch auf der Grundlage anderer Impulse (wie audio-
graphischer oder visueller Daten sowie Tastaturprotokollen) oder aber auch ohne jeglichen
Impuls erfolgen.
Einen zweiten Typ retrospektiver Datenerhebung stellen neben dem Lauten Erinnern Be-
fragungen dar, die im Anschluss an eine konkrete Handlung auf die entsprechenden mentalen
Aktivitäten der Forschungspartner_innen abzielen.
Die genannten drei introspektiven Verfahren – Lautes Denken, Lautes Erinnern und retro-
spektive Befragungen – sollen im Folgenden genauer beleuchtet werden.
2 Lautes Denken
Das Laute Denken basiert auf der Annahme, dass die Aktivierung von Gedächtnisinhalten
in vielen Fällen unmittelbar mit einer verbalen Form assoziiert ist, die laut ausgesprochen
werden kann (s. Abb. 1).
Bringt man Forschungspartner_innen dazu, Inhalte des Arbeitsgedächtnisses während des
Ausführens einer bestimmten Tätigkeit zu verbalisieren, so greift man auf die innere Sprache
(inner speech) zu, die – anders als die private Sprache (private speech) im Wygotskianischen
Sinne – nicht selbstadressiert ist, so dass idealiter durch das laute Aussprechen auch keine Re-
flexion des eigenen Vorgehens angestoßen wird. Durch diese spontanen Äußerungen entsteht
ein Verbalprotokoll, das typischerweise aus fragmentarischen und syntaktisch unverbunde-
nen verbalen Daten besteht. Aus ihm kann rekonstruiert werden, worauf die Versuchsperson
zu verschiedenen Zeitpunkten jeweils ihre Aufmerksamkeit gerichtet hat.
7 In Einzelfällen wird der Begriff Introspektion nicht als Oberbegriff, sondern mit Bezug auf das simultane
Vorgehen als Pendant zum Begriff Retrospektion benutzt (vgl. Heine 2005).
Abbildung 1: Lautes Denken als lautes Aussprechen von verbalen Assoziationen von Gedanken (nach
Ericsson/Simon 1987: 33)
Dies bedeutet u. a., dass auf der Grundlage Lauten Denkens nur solche Gedankengänge
analytisch rekonstruiert werden können, die im Arbeitsgedächtnis verarbeitet wurden; auto-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
matisierte Prozesse sind dagegen nicht zugänglich. Für Datenerhebungen ist es daher von
zentraler Wichtigkeit nur solche Aufgaben und Erhebungsstimuli einzusetzen, durch die auch
tatsächlich mental zugängliche und potentiell mit einer verbalen Form verbundene Abläufe
angeregt werden. So eignen sich beispielsweise stark motorisch geprägte Anforderungen eher
weniger, weil hier für eine Verbalisierung erst in einem künstlich hervorgerufenen Suchpro-
zess Worte gefunden werden müssten, die normalerweise nicht mitaktiviert würden. Besser
eignen sich Anforderungen, bei denen eine verbale Ebene automatisch aktiv wird, wie etwa
das Verfassen von Texten oder das Betrachten von Abbildungen.
Beim Lauten Denken ist daneben auch davon auszugehen, dass grundsätzlich viel weniger
verbalisiert werden kann als gedacht wird, u. a. weil mehrere Prozesse parallel ablaufen. Die
Möglichkeiten der quantitativen Auszählung von Phänomenen in Lautdenkdaten werden
durch diesen Aspekt relativiert. Ein Risiko für die Validität von Daten Lauten Denkens be-
steht weiterhin darin, dass Forschungspartner_innen bewusst oder unbewusst Informationen
kommunizieren, die durch die Erhebungssituation generiert worden sind, etwa indem sie
angenommenen Erwartungen seitens des Forschenden zu entsprechen versuchen (Rossa 2012
spricht in diesem Zusammenhang von „Konfabulation“) und damit ihre Gedanken gegenüber
einer stillen Bearbeitung verändern.
Die Referenzarbeit von Arras (2007) illustriert die zentralen Komponenten einer Daten-
erhebung durch Lautes Denken: den sorgfältig formulierten Impuls zum Lauten Aussprechen,
das Training darin, die Rückmeldung der/des Forschenden zu der Trainingsphase und das
zurückhaltende Eingreifen während des Lauten Denkens (s. dazu genauer Heine/Schramm
2007). Arras (2007: 499) dokumentiert auch die von ihr verwendeten Instruktionen zum
Verfahren des Lauten Denkens. Aufgrund der Tatsache, dass sie das Laute Denken audio-
graphisch dokumentiert, bittet sie ihre Forschungspartner_innen, ebenfalls zu verbalisieren,
welches Material (z. B. Lernertext oder Bewertungsrichtlinien) sie jeweils fokussieren; so
vermischen sich in diesem Fall Lautdenkdaten mit Kommentierungen durch die Forschungs-
partner_innen. Da Forschende in der Regel bemüht sind, solche Konfundierungen zu ver-
meiden, wäre im Fall von videographischen Dokumentationen eine Aufforderung zum
Zeigen auf fokussierte Textstellen vorteilhafter als die Aufforderung zur verbalen Kommen-
tierung.
In der Regel wird in der forschungsmethodischen Diskussion zusätzlich vor dem Training
auch die Darbietung eines (Video-)Beispiels oder ein Modellieren des Lauten Denkens seitens
des/der Forschenden empfohlen (s. Heine/Schramm 2007: 178, Bowles 2010: 117). Weiterhin
ist bei fremdsprachendidaktischen Studien mit Lernenden – anders als bei Arras Testbewer-
tenden – die Wahl der Verbalisierungssprache(n) genau zu reflektieren, denn da Studien in der
Fremdsprachenforschung in der Regel mit mehrsprachigen Individuen arbeiten, stehen auch
immer mindestens zwei Sprachen für eine Verbalisierung zur Verfügung, die sich jedoch im
Beherrschungs- und Automatisierungsgrad und der Art der Verknüpfung mit konzeptuellen
Inhalten unterscheiden können (vgl. Heine 2014). U.a. ist davon auszugehen, dass Mehr-
sprachige auch gedanklich zwischen ihren Sprachen wechseln. Wird nun eine Sprache für die
Verbalisierung vorgegeben, kann dies zu Suchprozessen beim lauten Aussprechen und damit
zu Veränderungen der ablaufenden Gedanken führen.
In Arras’ (2007: 188) Studie erwiesen sich alle vier Probandinnen als „sehr geeignet für das
Laut-Denk-Verfahren“. Dies ist jedoch nicht generell für alle Forschungspartner_innen zu
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
erwarten, da verschiedene Menschen ihre Gedanken offenbar unterschiedlich stark mit ver-
balen Formen verknüpfen. So zeigen die Ergebnisse in Heine (2010), dass dieselbe Lautdenk-
Anforderung für manche Individuen sehr natürlich, für andere dagegen schwer sein kann
und dass Lautes Denken von einer hohen Dynamik geprägt ist, was den Grad der Reaktivität
der Methode anbelangt – streckenweise weitgehend automatisiert verbalisierende Personen,
die völlig versunken in die Aufgabe sind und sich nicht auf das laute Aussprechen konzen-
trieren, können zu anderen Zeitpunkten durchaus wieder mehr Aufmerksamkeit auf die
Tatsache lenken, dass sie sich in einer Erhebungssituation befinden, und dann wieder ver-
stärkt metakognitive und an die/den Forscher_in adressierte Äußerungen einfließen lassen,
die sie bei einer stillen Bearbeitung der Anforderung nicht hätten denken müssen. Es lassen
sich damit kaum grundsätzliche Pauschalaussagen vom Typ „Lautes Denken ist keine reaktive
Methode“ (wie etwa Bowles 2010 es versucht) oder „Probandin X ist ein verbaler Typ und
verbalisiert immer automatisiert“ machen. Dies deutet darauf hin, dass die mittels dieser
Methode erhobenen Daten stets genau betrachtet und in der jeweiligen Auftretenssituation
kritisch eingeschätzt werden müssen.
Wie auch beim Lauten Denken wird beim Lauten Erinnern in der Regel eine Demons-
tration, möglicherweise auch ein Training, sowie eine Reflexion bezüglich der Verbalisie-
rungssprache(n) und eine standardisierte Instruktion empfohlen (vgl. Knorr/Schramm 2012:
192–195). Werden Prozessdaten wie Audio- und Videoaufnahmen oder Tastaturprotokolle als
Stimulus für die Erinnerung verwendet (vgl. Gass/Mackey 2000), können die Forschungspart-
ner_innen entweder selbst die gesamte Prozessdokumentation an für sie relevanten Stellen
zur Verbalisation ihrer Erinnerungen stoppen oder es kann eine Auswahl an Stellen zum
Lauten Erinnern herausgegriffen werden, wobei entweder die Versuchspersonen selbst oder
der/die Forscher_in eine Auswahl treffen. Eine Auswahl bietet sich besonders für langwierige
Handlungen an, stellt alle Beteiligten aber vor zeitliche Herausforderungen, da die Retrospek-
tion wie oben erwähnt möglichst bald nach Abschluss der zu untersuchenden Kognitionen
durchgeführt werden sollte. Abzuwägen sind dabei auch die Möglichkeiten einer forscher-
seitigen, gezielten Auswahl mit Blick auf das Untersuchungsinteresse auf der einen Seite und
die Auswahl seitens der Forschungspartner_innen bzw. deren Eigentümerschaft (ownership)
der Daten auf der anderen Seite. Letztere ist aus ethischen Gründen zu empfehlen, wenn die
Forschungspartner_innen Wert auf die selbstbestimmte Auswahl legen. Sie führt darüber
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
4 Retrospektive Befragung
Unter dem (engen) Begriff der Introspektion wird neben dem Lauten Denken und dem Lauten
Erinnern auch die retrospektive Befragung von Forschungspartner_innen im Hinblick auf
ihre Kognitionen in Bezug auf eine spezifische Handlung subsumiert.8 Die Referenzarbeit
von Arras (2007) illustriert eine solche retrospektive Befragung, die in Triangulation mit
8 Befragungen, die sich nicht auf eine spezifische Handlung (die in der Regel nicht länger als 24 Stunden
zurückliegt), sondern allgemein auf Erfahrungen mit einer bestimmten Art von Handlung beziehen (s. als
Beispiel die Referenzarbeit bzw. Interviewstudie von Ehrenreich 2004), sind diesem engen Begriffsver-
ständnis nicht zuzurechnen (vgl. auch Kapitel 5.2.4 zur Befragung).
die du heute gelernt hast, zwei aus und beschreibe, wie du versucht hast, sie dir einzuprä-
gen.“ oder „Welche konntest du dir nur schwer merken? Was hast du dann gemacht?“. Auf
dieser Grundlage konnte Haudeck (2008) ergiebige retrospektive Daten erheben und ana-
lysieren.
Interviews
Arbeitsgedächtnis, aus dem Langzeitgedächt- Handlung (reflection-
simultan zur nis, nach der Handlung on-action), nach der
Handlungssituation oder die Handlungs- Handlungssituation
situation unterbrechend
Online-/
Offline-
inner speech Offline-
Retrospektion
Retrospektion
Introspektion im engeren Sinne
Introspektion im weiteren Sinne
5.2.5 Introspektion
! Wahl der Impulse, Training der Methode, Wahl der Verbalisierungssprache, individuelle Unterschiede
© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
180 5. Forschungsverfahren
2013, Schnell 2013). Daneben wird auch verstärkt die theoretische Basis der Introspektion
in Hinblick darauf ausgearbeitet, dass für den Bereich der Fremdsprachenforschung mehr-
sprachige und dynamische Modelle des mentalen Lexikons notwendig sind, um die verbalen
Daten adäquat erheben und interpretieren zu können (vgl. Heine 2013, Heine 2014).
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit
einem Sternchen markiert.
Aguado, Karin/Heine, Lena/Schramm, Karen (Hg.) (2013). Introspektive Verfahren und qualitative In-
haltsanalyse in der Fremdsprachenforschung. Frankfurt a. M.: Lang.
*Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der
Beurteilung schriftlicher Leistungen n der Fremdsprache am Beispiel der Prüfung Test Deutsch als
Fremdsprache (TestDaF). Tübingen: Narr. [Referenzarbeit, s. Kapitel 7]
Bowles, Melissa (2010). The Think-Aloud Controversy in Second Language Research. New York: Rout-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
ledge.
Dörnyei, Zoltán (2007). Research Methods in Applied Linguistics. Oxford: University Press.
*Eckerth, Johannes (2002). Fremdsprachenerwerb in aufgabenbasierten Interaktionen. Tübingen: Narr.
Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. Eine qualitative In-
terviewstudie zum ausbildungsbiographischen Ertrag des assistant-Jahres. München: Langenscheidt.
[Referenzarbeit, s. Kapitel 7]
Ericsson, K. Anders/Simon, Herbert A. (1987). Verbal reports on thinking. In: Færch, Claus/Kasper,
Gabriele (Hg.). Introspection in Second Language Research. Clevedon: Multilingual Matters, 24–53.
Ericsson, K. Anders/Simon, Herbert A. (1993). Protocol Analysis. Verbals Reports as Data. Revised
edition. Cambridge, MA: MIT Press.
*Feick, Diana (2012). Videobasiertes Lautes Erinnern als Instrument zur Untersuchung fremdsprach-
licher Gruppenaushandlungsprozesse. In: Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch
erforschen: Grundlagen, Methoden, Anwendung. Tübingen: Narr, 202–212.
*Feick, Diana (2013). „Sehen Sie sich Ines an.“ Zur sozialen Situiertheit des Videobasierten Lauten Er-
innerns. In: Aguado, Karin/Heine, Lena/Schramm, Karen (Hg.), 54–73.
Gass, Susan M./Mackey, Alison (2000). Stimulated Recall Methodology in Second Language Research.
Mahwah, NJ: Lawrence Erlbaum Associates.
*Haudeck, Helga (2008). Fremdsprachliche Wortschatzarbeit außerhalb des Klassenzimmers. Eine qua-
litative Studie zu Lernstrategien und Lerntechniken in den Klassenstufen 5 und 8. Tübingen: Narr.
Heine, Lena (2005). Lautes Denken als Forschungsinstrument in der Fremdsprachenforschung. In: Zeit-
schrift für Fremdsprachenforschung 16/2, 163–185.
*Heine, Lena (2010). Problem Solving in a Foreign Language. Berlin: Mouton de Gruyter.
Heine, Lena (2013). Introspektive Verfahren in der Fremdsprachenforschung: State-of-the-Art und
Desiderata. In: Aguado, Karin/Heine, Lena/Schramm, Karen (Hg.), 13–30.
Heine, Lena (2014). Introspektion. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-
Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und
Zweitsprache. Eine Einführung. Paderborn: Ferdinand Schöningh, 123–135.
Heine, Lena/Schramm, Karen (2007). Lautes Denken in der Fremdsprachenforschung: Eine Handrei-
chung für die empirische Praxis. In: Vollmer, Helmut Johannes (Hg.). Synergieeffekte in der Fremd-
sprachenforschung. Frankfurt a. M.: Lang, 167–206.
Knorr, Petra (2013). Zur Differenzierung retrospektiver verbaler Daten: Protokolle Lauten Erinnerns
erheben, verstehen und analysieren. In: Aguado, Karin/Heine, Lena/Schramm, Karen (Hg.), 31–53.
Knorr, Petra/Schramm, Karen (2012). Datenerhebung durch Lautes Denken und Lautes Erinnern in
der fremdsprachendidaktischen Empirie. In: Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch
erforschen: Grundlagen, Methoden, Anwendung. Tübingen: Narr, 184–201.
Leow, Ronald P./Morgan-Short, Kara (2004). To think aloud or not to think aloud: The issue of reactivity
in SLA research methodology. In: Studies in Second Language Acquisition 26(1), 35–57.
*May, Lyn (2011). Interaction in a Paired Speaking Test: The Rater’s Perspective. Frankfurt am Main:
Lang.
*Raith, Thomas (2011). Kompetenzen für aufgabenorientiertes Fremdsprachenunterrichten. Tübingen:
Narr.
*Rossa, Henning (2012). Mentale Prozesse beim Hörverstehen in der Fremdsprache. Eine Studie zur
Validität der Messung sprachlicher Kompetenzen. Frankfurt am Main: Lang.
Sasaki, Tomomi (2008). Concurrent think-aloud protocol as a socially situated construct. In: Interna-
tional Review of Applied Linguistics in Language Teaching 46(4), 349–374.
Schnell, Anna Katharina (2013). Lautes Denken im Licht der Embodied Cognition: neue Grenzen, neue
Möglichkeiten in der Schreibprozessforschung? In: Aguado, Karin/Heine, Lena/Schramm, Karen
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
(Hg.), 92–115.
Bowles, Melissa (2010): The Think-Aloud Controversy in Second Language Research. New York:
Routledge.
In dieser Monographie wird ein Überblick zum Stand der Forschung zum Lauten Denken in der
(englischsprachigen) Fremdsprachenforschung gegeben, wobei vor allem auf Fragen der Validität
der Methode fokussiert wird.
Heine, Lena/Schramm, Karen (2007). Lautes Denken in der Fremdsprachenforschung: Eine Hand-
reichung für die empirische Praxis. In: Vollmer, Helmut Johannes (Hg.). Synergieeffekte in der
Fremdsprachenforschung. Frankfurt a. M.: Lang, 167–206.
Dieser Beitrag bietet einen Überblick über Fragen und Herausforderungen, die sich bei einer Laut-
Denk-Studie im Vorfeld der Datenerhebung und während des Lautens Denkens ergeben. Weiterhin
erfolgen detaillierte Überlegungen zur Transkription und einige Hinweise zur Auswertung von Laut-
Denk-Daten.
Knorr, Petra/Schramm, Karen (2012). Datenerhebung durch Lautes Denken und Lautes Erinnern
in der fremdsprachendidaktischen Empirie. In: Doff, Sabine (Hg.). Fremdsprachenunterricht
empirisch erforschen: Grundlagen, Methoden, Anwendung. Tübingen: Narr, 184–201.
In diesem forschungsmethodischen Artikel werden zwei der hier thematisierten introspektiven Er-
hebungsverfahren, das Laute Denken und das Laute Erinnern, ausführlich dargestellt. Nach einer
kurzen Begriffsklärung behandeln die Autorinnen Aspekte wie Instruktion, Demonstration, Training,
Impulsdarbietung, Datenaufzeichnung, Verbalisierungssprache und Transkription ausführlich und
reflektieren abschließend kurz die Grenzen beider Erhebungsverfahren.
Dabei unterscheiden wir grundsätzlich zwischen Erhebung und Erfassung von Lernerspra-
che: Charakteristisch für die Erhebung ist die Tatsache, dass Forscher gezielt eine Situation
schaffen, in der Lernende Sprache produzieren müssen, z. B. in einem Experiment oder in ei-
nem Sprachtest im Rahmen eines Forschungsprojekts wie z. B. DESI (siehe DESI-Konsortium
2008, Klieme/Beck 2007). Dabei ist die Produktion von Sprachdaten i. d. R. stark kontrolliert
und gesteuert. Zur Erhebung gehören auch Techniken wie das sogenannte stimulated recall
bzw. das stimulusbasierte Laute Erinnern, wobei authentische Aufnahmen des Unterrichts
den Lernenden vorgespielt und zur Reflexion über ihre Sprachfähigkeiten und Lernprozesse
genutzt werden (vgl. Kapitel 5.2.5). Erhebung wird von uns somit synonym mit dem in der
Linguistik üblichen Begriff der Elizitierung verwendet.
Ein Beispiel für die Erhebung von Lernerdaten liefert Eckerth (2003) in seiner Studie
zu aufgabenbasierten Interaktionen. Den Kern seines Datenmaterials bilden forscherseitig
initiierte Aufnahmen von Lerner-Lerner-Interaktionen während der gemeinsamen Lö-
sung einer Aufgabe. Tests, die vor und nach der interaktiven Aufgabenlösung individu-
ell mit den Lernenden durchgeführt wurden, und retrospektive Interviews ergänzen das
Korpus.
Im Gegensatz dazu bezeichnet die Erfassung von Lernersprache, dass der Forscher auf
Produkte zugreift, die im Unterricht ohnehin entstehen, z. B. Klassenarbeiten oder Schüler-
präsentationen (vgl. auch Kapitel 5.2.7). Ein Beispiel für die Erfassung von Lernersprache
stellt die Arbeit von Méron-Minuth (2009) dar. Sie ist longitudinal angelegt und beobachtet
die Schülerinnen und Schüler einer Klasse, die Französisch als erste Fremdsprache lernen.
Der Unterricht wird in regelmäßigen Abständen über den Zeitraum von vier Jahren in Form
von Videoaufnahmen dokumentiert. Diese Videoaufnahmen geben den Unterrichtsverlauf in
seiner natürlichen Form wieder und die Forscherin bleibt in der Rolle der Beobachterin. Um
die erfassten Daten zu ergänzen, werden aber auch zusätzlich Forscher- und Lehrerprotokolle
erhoben.
Die Studie von Dauster (2007) zum Frühen Fremdsprachenlernen Französisch kombiniert
beide Verfahren: Sie greift zum einen auf einen Datensatz von 90 erfassten Unterrichtsstun-
den, zum anderen auf 23 für die Studie erhobenen mündliche Kurztests (sog. Père-Noël-Er-
hebungen) zurück.
Grenzfälle zwischen Erheben und Erfassen ergeben sich dann, wenn Forscher Lehrkräfte
darum bitten, in ihrem regulären Unterricht bestimmte lernersprachliche Produkte erstellen
zu lassen oder, wie z. B. Bechtel (2003), den eigenen (Hochschul-) Unterricht auf die Erhebung
bestimmter Daten hin ausrichten. Bei allen (Misch-) Formen von Erheben und Erfassen sind
ethische Fragen, insb. die informierte Einwilligung der Lernenden, zu berücksichtigen (s.
Kapitel 4.6).
dahingehend beeinflusst werden kann, dass er sich beobachtet fühlt und sich möglicherweise
entsprechend anders verhält (zum Phänomen des sogenannten Beobachterparadoxons vgl.
Bergmann 2001, s. auch Kapitel 5.2.3). Formen der Erhebung, wie beispielsweise die video-
graphische Dokumentation mündlicher Präsentationen, Diskussionen oder Rollenspiele,
sind mündliche Diskursarten, die sowohl von der Lehrperson natürlich eingesetzt und vom
Forscher beobachtet und erfasst werden können, als auch vom Untersuchenden selbst inner-
halb einer Lernergruppe gesteuert einsetzbar sind. Der Fokus auf bestimmte Diskursarten ist
häufig eng mit dem Forscherinteresse an bestimmten sprachlichen Strukturen verbunden, die
in dieser Diskursart vermehrt zu erwarten sind.
So wie bei der Gewinnung mündlicher Sprachdaten sollte auch bei der Erhebung bzw.
Erfassung von schriftlichen Texten unbedingt beachtet werden, welche Textsorten sich für
das Untersuchungsziel eignen und inwieweit das Wissen über Textmuster und Genres in die
Forschungsfrage integriert werden soll. Dementsprechend wird für die erfolgreiche Erhebung
einer bestimmten Textsorte eine Methode mit einer präzisen Aufgabenstellung gewählt, die
für den Schreiber möglichst einen der Textsorte angemessenen Kontext aufbaut. So müsste
z. B. bei einer E-Mail dem Probanden vorgegeben werden, an wen er schreiben soll (z. B.
einen Freund oder den Vertreter einer Institution). Erst dann wird er in der Lage sein, adä-
quate sprachliche Mittel aus seinem Repertoire auszuwählen. Weiterhin ist bei der Erhebung
von Texten in einer Fremdsprache ebenfalls der mögliche Einfluss kulturell bedingter kom-
munikativer Praktiken aus der Erstsprache zu bedenken und bei der Konzeption der Auf-
gabenstellung und der Analyse zu beachten.9
Ein weiterer Aspekt, der bei der Erhebung und Erfassung von Texten – unabhängig von der
Textsorte – zu beachten wäre, ist die Frage danach, ob und wie Arbeitsprozesse bei der Entste-
hung von Texten festgehalten werden können. Die Erhebung oder Erfassung kann z. B. durch
9 Dies gilt auch für die Erhebung mündlicher Daten. Routinen der Gesprächsorganisation – sequenzielle
Organisation von Bewertungen (vgl. Günthner 1993 u. 2001, Casper-Hehne 2008), Komplimente, Begrü-
ßungen und ähnliche Routinen – sind potentielle Schablonen, die aus der Herkunftskultur übernommen
werden können.
ein Portfolio mit allen Textentwürfen und -überarbeitungen oder durch Videoaufnahmen des
Schreibprozesses ergänzt werden. Den Probanden sind dann entsprechende Anweisungen zu
erteilen (wie etwa „Bitte nichts ausradieren, sondern durchstreichen.“). Insbesondere bei der
Entstehung von Texten am PC oder beim Umgang mit Lernsoftware können für den Forscher
sowohl non-verbale als auch verbale Kanäle relevant sein, so dass Videoaufnahmen nötig
werden, die sowohl die Interaktionen der Lernenden als auch das Geschehen auf dem Bild-
schirm erfassen; vgl. dazu die Hinweise in der Referenzarbeit von Schart (2003) und in der
Untersuchung von Schmitt (2007).
Im Folgenden sollen einige Aufgaben, die in der neueren Forschung eingesetzt wurden,
beispielhaft besprochen werden. Dies soll verdeutlichen, dass ein Szenario erforderlich ist,
um Probanden einen möglichst natürlichen kommunikativen Kontext nahezulegen. So ist es
möglich, auch in Bezug auf die sprachlichen Repertoires der Probanden möglichst aussage-
kräftige Daten zu erhalten.
Bei den einzelnen Instrumenten der Datenerhebung sind zunächst die jeweiligen Auf-
gabenstellungen und die dafür jeweils geeigneten Stimuli relevant, wobei unter Stimulus der
Anlass zu verstehen ist, den man dem Probanden gibt, damit er diesem Input entsprechend
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
eine Handlung ausführen kann. Setzt man beispielsweise eine Bildergeschichte als Stimulus
ein, kann die Aufgabe entweder lauten, dass der Proband die einzelnen Bilder in allen Einzel-
heiten wiedergeben soll (Reproduktion des Stimulus) oder dass er eine Geschichte erzählen
soll (Aufbau eines Szenarios mit Hilfe des Stimulus). Innerhalb eines eher freieren Rahmens
wie im zweiten Fall können die entstehenden Texte erhebliche Unterschiede in der Text-
struktur und in den Inhalten aufweisen, was eine Auswertung und Analyse unter Umständen
erschweren kann. Andererseits führt die größere Freiheit bei der Umsetzung der Aufgabe
dazu, dass die Aufgaben von Probanden als natürlichen kommunikativen Zwecken ähnlicher
wahrgenommen und die Lösungen entsprechend den eigenen Kompetenzen und Interessen
produziert werden.
Die Textsorten, die im Rahmen solch variabler Szenarien erhoben werden können, gehen
auch über Erzählungen und Bildbeschreibungen hinaus; Berman und Verhoeven (2002) er-
heben beispielsweise auch expositorische Texte: Im sogenannten Spencer Project wird Schüle-
rinnen und Schülern ein vierminütiger Stummfilm als Stimulus gezeigt, der unterschiedliche
negative Schulereignisse (Mobbing, Spicken u. Ä.) szenisch darstellt. Anschließend sollen die
Schüler die zweiteilige Frage beantworten, ob sie auch schon einmal Derartiges erlebt haben
(Erhebung eines narrativen Textes) und was sie denn von derartigen Verhaltensweisen und
Vorkommnissen halten (Erhebung eines expositorischen Textes). Innerhalb eines ähnlich frei-
en Rahmens erheben Cantone und Haberzettl (2009) einen argumentativen Text, indem sie
Probanden bitten, ihre Meinung zum Thema „Handyverbot in der Schule“ schriftlich zu for-
mulieren. Je nachdem, wie das Szenario ausgestaltet wird, lassen sich unterschiedliche Text-
sorten erheben, an denen jeweils unterschiedliche sprachliche Merkmale untersucht werden
können (weitere Beispiele für ein Erhebungsinstrument mit ähnlich freier Aufgabenstellung
vgl. Knapp 1997 und Petersen 2012).
Vergleichbare Szenarien lassen sich auch zunächst als mündliche Rollenspiele einführen, an
die sich dann die Schreibaufgabe anschließt (vgl. Mayr/Mezger/Paul 2010). Macht man zu-
sätzlich Audio- oder Videoaufnahmen solcher Rollenspiele, sind auch Analysen möglich, die
die dialogischen Lösungen der Lernenden zu den schriftlichen Sprachprodukten in Beziehung
setzen. Dabei muss allerdings bedacht werden, dass komplexe Szenarien nicht in jeder Lern-
gruppe gleichermaßen gut umsetzbar sind, da Probanden Schwierigkeiten haben können, sich
in Situationen hineinzuversetzen, mit denen sie in ihrem Alltag nicht vertraut sind. In solchen
Fällen sind Ausweichlösungen zu finden, wie beispielsweise eine Inszenierung, in der man die
Situation von Dritten spielen lässt (vgl. das Forschungsprojekt OLDER10).
Bei der Gewinnung von Daten, besonders im Schulkontext, sind einige rechtliche und orga-
nisatorische Hinweise zu beachten, die für das Gelingen des Projektes von entscheidender
Bedeutung sein können. Hat der Forschende sich für eine Forschungsfrage und einen dazuge-
hörigen Erhebungskontext entschieden, sollte zunächst ein detaillierter Ablaufplan erstellt
werden. Besonders bei der Arbeit in Schulen ist zu beachten, dass dazu oftmals Genehmi-
gungen bei Schulbehörden oder anderen dafür zuständigen Einrichtungen einzuholen sind.
Diese sollten mit genügend Vorlaufzeit beantragt werden. Bei minderjährigen Probanden ist
zudem eine Einverständniserklärung der Eltern vonnöten, genauso wie von allen Teilneh-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
menden die Genehmigung, die erhaltenen Daten für wissenschaftliche Zwecke verwenden
und veröffentlichen zu dürfen.
Führt man die Erhebung/Erfassung nicht selbst oder nicht alleine durch, ist darauf zu
achten, die Mitarbeitenden entsprechend zu schulen. Gerade, wenn den Probanden eine Auf-
gabe gestellt wird, sollten die Formulierungen und das Szenario möglichst immer gleich sein
(also auch schriftlich ausformuliert), um später eine maximale Vergleichbarkeit der Daten
zu gewährleisten. Zudem sollte die Durchführung, falls möglich, vorher getestet und geübt
werden. Eine solche Pilotierung verschafft dem Forschenden die Möglichkeit, Instrumente
und Anweisungen auf ihre Funktionalität zu überprüfen und eventuell fehlende oder unklare
Informationen zu überarbeiten. Grundsätzlich sollten alle Arbeitsmaterialien ausreichend
vorhanden und technische Geräte auf ihre Funktionstüchtigkeit getestet werden. Es ist wich-
tig, sich auch auf den Fall vorzubereiten, dass die Geräte ausfallen könnten.
Nach der Erhebung/Erfassung muss sichergestellt werden, dass die Daten schnell und in
unterschiedlichen Formaten gesichert werden. Rechtzeitig sollte über Form und Art der Ano-
nymisierung der gewonnenen Daten nachgedacht werden; diese ist auch bei der Lagerung
der Originaldaten zu beachten.
Bevor man beginnt, die gewonnenen Daten zu analysieren, müssen sie zunächst gesichert
und verarbeitet werden. Gegenüber Kopien bietet sich das Scannen zur Datensicherung
schriftlicher Texte besonders an, da sie somit digitalisiert sind und unter Umständen in den
späteren Analyseprozess eingebunden werden können. Für eine detaillierte Analyse kann es
jedoch auch notwendig sein, die Lernertexte in der vorgelegten Form möglichst originalgetreu
abzutippen. Bei Audio- und Videoaufnahmen gestaltet sich die Datensicherung schwieriger.
Hier ist zunächst zu empfehlen, die Dateien auf mehreren Datenträgern (z. B. externe Fest-
platte, Server) zu sichern und diese dann weiter zu verarbeiten.
Bei größeren Datenmengen empfiehlt sich der Gebrauch von Datenbanken. Dies gilt ins-
besondere für die meist umfangreichen Meta-Datensätze, wie z. B. Angaben zu Alter, Sprach-
lerndauer und Erhebungskontext. Mit Hilfe der heutzutage einfach zu erstellenden Daten-
banken kann man die Daten nach präzise auf das Forschungprojekt abgestimmten Kriterien
durchsuchen. Ein solches Datenbanksystem stellt die kommerzielle Datenbanksoftware
FileMaker dar, die Waggershauser (erscheint) in ihrer ethnographischen Untersuchtung rus-
sischer Zweitsprachenlernender bespielsweise dazu nutzt, im Alltag von Integrationskursteil-
nehmenden erfasste literale Artefakte zusammen mit ihren entsprechenden Beobachtungs-
notizen digital aufzubereiten. Durch umfassende einfache und kombinierte Suchabfragen
und Gestaltungsmöglichkeiten können umfangreiche Informationen ausgewertet werden.
Das Programm erlaubt den In- und Export von Daten in gängigen Datenformaten und ist
somit flexibel.
Die sehr aufwändige Arbeit des Transkribierens (siehe Kapitel 5.3.6 sowie auch Mempel/
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Mehlhorn 2014) kann durch die Nutzung von Transkriptionssoftware erleichtert werden, die
zu großen Teilen auch frei zugänglich ist. Allen gemeinsam ist die Einbindung eines Audio-
oder Videopanels und eines Texteditors in einer Benutzeroberfläche. Die verschiedenen Pro-
gramme unterscheiden sich unter anderem hinsichtlich der bearbeitbaren Datenformate, der
Kompatibilität mit anderen Programmen, den Ausgabeformaten und der Möglichkeit der
Einbindung in Analyseprogramme (vgl. Moritz 2011: 28). Im Folgenden sollen einige in
der fremdsprachendidaktischen Forschung eingesetzte Transkriptionsprogramme vorgestellt
werden. Darüber hinaus bietet das Gesprächsanalytische Informationssystem GAIS Informa-
tionen und Hinweise von der Aufnahme der eigenen Daten bis hin zur Korpuserstellung.11
Das Transkriptionsprogramm F4 bzw. F5 unterstützt das Transkribieren von Audio- oder
Videodateien. Das Audiopanel ermöglicht die einfache Handhabung des Datenmaterials
durch eine variable Abspielgeschwindigkeit und frei wählbare Rückspulintervalle. Das Ein-
fügen von Zeitmarken ermöglicht den schnellen Rückbezug zum Datenmaterial. Dieses Pro-
gramm ist inbesondere für grobe Transkiptionen geeignet.
Bei FOLKER handelt es sich um eine Transkriptionssoftware, welche von Thomas Schmidt
für das Projekt „Forschungs- und Lehrkorpus gesprochenes Deutsch“ des Instituts für deutsche
Sprache Mannheim (IDS) entwickelt wurde. Es stellt eine Benutzeroberfläche zur Transkrip-
tion ausschließlich auditiver Daten nach der Transkriptionskonvention GAT212 dar. Dabei
hat der Nutzer die Wahl zwischen der für GAT typischen Segmentschreibung oder der Par-
titurnotation. Die Implementierung eines Audioplayers sowie die Darstellung des Sprach-
signals durch ein Oszillogramm ermöglichen eine präzise Auswahl von Zeitmarken und zu
transkribierender Segmente. Die weitere Bearbeitung des Datenmaterials durch linguistische
Annotationen ist allerdings nicht vorgesehen (vgl. Schmidt/Schütte 2011: 5).
Andere Programme stellen sogenannte Mehrzweckeditoren dar, die nicht nur eine Ober-
fläche zur Transkription anbieten, sondern gleichzeitig die technischen Rahmenbedingungen
EXMARaLDA ist ebenfalls ein System verschiedener Werkzeuge zur Transkription und
Annotation gesprochener Sprache sowie der Korpuserstellung und -abfrage. Es besteht aus
dem Partitur Editor, der mit dem implementierten Audioplayer sowie dem integrierten Os-
zillogramm die Transkription des Datenmaterials sowohl nach den verschiedenen gängigen
Transkriptionskonventionen sowie beliebig viele Annotationen ermöglicht. Der Corpus Ma-
nager (COMA) unterstützt die Erstellung von Korpora aus EXMARaLDA-Transkripten und
die Anreicherung der Sprachdaten mit den unterschiedlichsten Metadaten. COMA ermöglicht
aber auch die Erstellung von Korpora, die aus mit FOLKER, ELAN oder CHAT hergestellten
Transkriptionen bestehen (vgl. Schmidt 2010: 9–10). Mittels des Suchwerkzeugs EXAKT
lassen sich Korpora nach sprachlichen Phänomenen in den transkribierten und annotierten
Spuren durchsuchen (vgl. Schmidt 2010).
Zur Aufbereitung von Videomaterial ist das Programm Transana besonders geeignet. Dafür
hält die an der Universität Wisconsin-Madison entwickelte Analysesoftware ausführliche
Bearbeitungs- und Verwaltungsmöglichkeiten bereit. Audiofiles und Videos können in für
die Analyse relevante Clips geschnitten werden und anschließend je nach Bedarf passend zu-
sammengestellt werden. Die Option einer Team-Version ermöglicht eine direkte und einfache
Zusammenarbeit von Projektgruppen.
Während die genannte Transkriptionssoftware in der Regel für linguistische Fragestel-
lungen genutzt werden, bietet sich für das thematische Kodieren von inhaltlichen Aspekten
der Lernersprache das Programm MAXQDA an. In den neueren Versionen kann man die
Videotranskripte durch Zeitmarken mit den Videofilmen verknüpfen.
Sind die gewünschten Daten elizitiert und verarbeitet worden, kann man sie zu einem Korpus
zusammenstellen. Bei einem Korpus handelt es sich prinzipiell um eine „[e]ndliche Menge
von konkreten sprachlichen Äußerungen, die als empirische Grundlage für sprachwiss[en-
schaftliche] Untersuchungen dienen.“ (Bußmann 2008: 378). Dabei bilden Größe, Inhalt, Be-
ständigkeit und Repräsentativität die wichtigsten Kriterien zum Aufbau eines eigenen Korpus
(vgl. Scherer 2006: 5–10). Wie das eigene Korpus konkret beschaffen ist, hängt vor allem von
der eigenen Fragestellung ab (vgl. Bußmann 2008: 378, Scherer 2006: 56). Unter Berücksichti-
gung der Parameter, die man im Rahmen der Untersuchung miteinander vergleichen möchte,
kann die Bildung von sogenannten Subkorpora nützlich sein. Dabei handelt es sich um Teile
des Gesamtkorpus, die anhand ausgewählter Metadaten extrahiert wurden. Möchte man
beispielsweise die Lernprogression von Lernenden des Englischen im Rahmen des Fremd-
sprachenunterrichts untersuchen und liegen Daten von Lernenden vor, die unterschiedlich
lange Unterricht in dieser Sprache erhalten haben, dann könnte die Dauer des Fremdspra-
chenunterrichts ein wesentliches Kriterium zur Bildung von Subkorpora sein. Grundsätzlich
sollte kritisch überlegt werden, ob sich der Aufwand der Einrichtung von Teilkorpora für die
Beantwortung der Forschungsfrage lohnt (vgl. Scherer 2006: 57).
Prinzipiell kann ein Korpus sowohl in digitaler als auch in analoger Form erstellt und aus-
gewertet werden (diskutiert in Scherer 2006: 57). Der Nutzen, den ein computerverarbeitetes
Korpus bietet, muss gegen den Aufwand der Digitalisierung abgewogen werden. Für eine
computergestützte Verarbeitung der Korpusdaten spricht grundsätzlich die Möglichkeit der
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
mehrfachen Speicherung und damit der Sicherung der Daten und Analysen. Darüber hinaus
bietet ein gut zugängliches Korpus durch unkomplizierte Suchabfragen die Möglichkeit For-
schungsfragen zu variieren oder zu erweitern (s. dazu genauer Kapitel 5.3.8).
Unabhängig von der Digitalisierung von Korpora können die enthaltenen Daten in Pri-
mär-, Sekundär- und Tertiärdaten unterschieden werden (vgl. Draxler 2008: 13). Primärdaten
sind sprachliche Rohdaten. Dabei kann es sich um Ton- oder Videoaufnahmen gesprochener
Sprache oder um Scans handschriftlich verfasster Texte handeln. Sekundärdaten hingegen
sind alle Verarbeitungsstufen dieser sprachlichen Rohdaten. Damit sind die Transkriptionen
mündlicher oder schriftlicher Texte gemeint sowie alle Arten von linguistischen Annotatio-
nen. Bei Tertiärdaten handelt es sich um alle Metadaten bezüglich der einzelnen Texte des
Korpus, wie Entstehungskontext, intendierte Textsorte, Entstehungszeit, Sprache usw. sowie
bzgl. der Textproduzenten, wie Alter, Geschlecht, Lernerbiographie usw. Mithilfe von Meta-
daten können die im Korpus vorhandenen Sprachdaten dokumentiert und damit für andere
Nutzer nachvollziehbar gemacht werden. Zum anderen können Metadaten für die Zusam-
menstellung von Subkorpora nach einzelnen Kriterien herangezogen werden (vgl. Lemnitzer/
Zinsmeister 2010: 48). Primärdaten sind grundsätzlich unveränderlich, während Sekundär-
daten immer wieder verändert und überarbeitet werden können. So können Transkriptionen
schrittweise erweitert bzw. spezifiziert werden oder es können immer neue Annotations-
ebenen hinzugefügt werden (vgl. Draxler 2008: 13).
Im Folgenden wird am Beispiel von EXMARaLDA gezeigt, wie ein digitales Korpus erstellt
werden kann. Mithilfe des EXMARaLDA Corpus-Managers (Coma) können EXMARaLDA-
Transkripte mit Metadaten versehen werden und zu Korpora zusammengestellt werden.
Anhand dieser Metadaten können die Daten in Coma durchsucht werden und zu Teilkorpora
zusammengestellt werden13.
13 Ausführliche Anleitungen zum zur Arbeit mit dem Corpus-Manager Coma und zum Erstellen von Kor-
pora sind online verfügbar.
Zum Erstellen eines Korpus aus EXMARaLDA-Transkripten stellt das Tool einen Assis-
tenten bereit, der in sechs Schritten durch die Korpuserstellung führt. Zunächst gilt es den
Speicherort der zu erstellenden Coma-Datei auszuwählen und damit gleichzeitig den Ordner
zu bestimmen, in dem sich die korpusrelevanten Transkripte befinden. Anschließend werden
die Dateien ausgewählt, die für das zu erstellende Korpus relevant sind und die in einem
weiteren Schritt segmentiert werden sollen. Daraufhin können Metadaten, die bereits in
den Transkripten enthalten sind, für die Korpusdatei ausgewählt oder bewusst davon aus-
geschlossen werden. Ebenso kann auch mit den an der Kommunikation beteiligten Personen
verfahren werden.
Die erzeugte Datei kann anschließend in Coma geöffnet werden. Im Reiter „Daten“ kön-
nen Metadaten zu Gesprächsereignissen, Sprechern, Transkripten und Aufnahmen einge-
geben und selektiert werden. Auf der linken Seite werden alle im Korpus befindlichen Kom-
munikationen dargestellt. Auf der rechten Seite werden alle in den Korpusdaten beteiligten
Personen aufgeführt. Durch Auswahl einzelner können Metadaten zu Kommunikationen
oder Personen angelegt werden. Abbildung 1 zeigt in der Mitte die für die Kommunika-
tion „Rudi Völler: Wutausbruch“ eingetragenen Metadaten, die an dieser Stelle auch be-
arbeitet werden können. Ferner sind hier auch Verknüpfungen zwischen Kommunikationen
und Personen möglich. Durch die Nutzung von Filtern kann die Anzeige der Korpusda-
teien eingeschränkt werden. Hat man das Korpus entsprechend eines oder mehrerer Pa-
rameter gefiltert, können über das Einkaufswagen-Symbol die ausgewählten Datensätze
in den Korpus-Korb abgelegt werden, wo diese dann als Teilkorpora gespeichert werden
können.
Wie auch die Entscheidung für eine Methode zur Datengewinnung hängt die Auswahl
und Art der Zusammensetzung eines Lernerkorpus von der Fragestellung ab, die an die
190
Daten des Korpus gestellt wird (vgl. Lüdeling 2008: 121). Faktoren, wie der Sprachstand der
Lernenden, ihre L1, die Aufgabenstellung oder Umstände und Entstehungskontext der Daten
können als Parameter zur Korpuszusammenstellung herangezogen werden (vgl. Lüdeling
2008: 122, Granger 2002: 9). Diese Kriterien sollten in den Metadaten dokumentiert sein, um
die Erstellung des Korpus transparent und damit für jeden nachvollziehbar zu machen und
gleichzeitig die Bildung von Teilkorpora nach anderen Parametern zu ermöglichen. Hilfreich
dabei ist eine ausreichend intensive Dokumentation der Metadaten der Textproduzenten, zum
Beispiel mittels Fragebogen. Für die Erstellung von Metadaten gibt es verschiedene Standards,
die die Bildung von Teilkorpora oder auch den Austausch von Korpora vereinfachen (siehe
dazu Lemnitzer/Zinsmeister 2010: 48ff). Bezüglich der Durchführung der an die Korpuser-
stellung anschließenden Datenanalyse gibt es neben inhaltlichen auch zahlreiche technische
Aspekte zu berücksichtigen (Näheres dazu in Kapitel 5.3.7 und 5.3.8).
Wünschenswert für die weitere Entwicklung der fremdsprachendidaktischen Forschung
ist die Bereitstellung solch aufwändig erarbeiteter Korpora, damit auch andere Forschende
diese für weitere Untersuchungen und andere Fragestellungen nutzen können; beispielsweise
wurden von Ricart Brede (2011) nach der Publikation einer videobasierten Studie umfang-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit
einem Sternchen markiert.
*Bechtel, Mark (2003). Interkulturelles Lernen beim Sprachenlernen im Tandem. Eine diskursanalytische
Untersuchung. Tübingen: Narr.
Bergmann, Jörg R. (2001). Das Konzept der Konversationsanalyse. In: Brinker, Klaus/Antos, Gerd/
Heinemann, Wolfgang/Sager, Svend F. (Hg.). Text- und Gesprächslinguistik: Ein internationales
Handbuch zeitgenössischer Forschung. 2. Halbband. Berlin: de Gruyter, 919–927.
*Berman, Ruth A./Verhoeven, Ludo (Hg.) (2002). Cross-linguistic perspectives on the development of
text-production abilities in speech and writing. In: Written Language and Literacy (Special Issue)
5.1 / 5.2.
Bußmann, Hadumod (2008). Lexikon der Sprachwissenschaft. Stuttgart: Alfred Kröner.
*Cantone, Katja Francesca/Haberzettl, Stefanie (2009). „Ich bin dagegen warum sollte man den kein
Handy mit nehmen“ – zur Bewertung argumentativer Texte bei Schülern mit Deutsch als Zweit-
sprache. In: Schramm, Karen/Schroeder, Christoph (Hg.). Empirische Zugänge zu Spracherwerb und
Sprachförderung in Deutsch als Zweitsprache. Münster: Waxmann, 43–66.
*Casper-Hehne, Hiltraud (2008). Russisch-deutsche Interaktion in der Schule: Empirische Untersuchun-
gen zu Linguistik und Didaktik interkultureller Unterrichtskommunikation. In: Zielsprache Deutsch
H. 3, 2–26.
*Dauster, Judith (2007): Frühes Fremdsprachenlernen Französisch. Möglichkeiten und Grenzen der Ana-
lyse von Lerneräußerungen und Lehr-Lern-Interaktion. Stuttgart: ibidem.
DESI-Konsortium (Hg.) (2008). Unterricht und Kompetenzerwerb in Deutsch und Englisch. Ergebnisse
der DESI-Studie. Weinheim: Beltz.
Draxler, Christoph (2008). Korpusbasierte Sprachverarbeitung. Eine Einführung. Tübingen: Narr.
*Eckerth, Johannes (2003). Fremdsprachenerwerb in aufgabenbasierten Interaktionen. Tübingen: Narr.
Granger, Sylviane. (2002). A Bird’s-eye view of learner corpus research. In: Grange, Sylviane/Hung,
Joseph/Petch-Tyson, Stephanie. (Hg.). Computer Learner Corpora, Second Language Acquisition and
Foreign language Teaching. Amsterdam: Benjamnis, 3–33.
*Günthner, Susanne (1993). Diskursstrategien in der Interkulturellen Kommunikation. Analysen
deutsch-chinesischer Gespräche. Tübingen: Niemeyer.
Günthner, Susanne (2001). Kulturelle Unterschiede in der Aktualisierung kommunikativer Gattungen.
In: Informationen Deutsch als Fremdsprache 28, 15–32.
Klieme, Eckhard/Beck, Bärbel (Hg.) (2007). Sprachliche Kompetenzen. Konzepte und Messung. DESI-
Studie (Deutsch Englisch Schülerleistungen International). Weinheim: Beltz.
*Knapp, Werner (1997). Schriftliches Erzählen in der Zweitsprache. Tübingen: Niemeyer.
Lemnitzer, Lutz/Zinsmeister, Heike (2010). Korpuslinguistik. Eine Einführung. Tübingen: Narr.
Linke, Angelika/Nussbaumer, Markus/Portmann, Paul R. (1991). Studienbuch Linguistik. Tübingen:
Niemeyer.
Lüdeling, Anke (2008). Mehrdeutigkeiten und Kategorisierung: Probleme bei der Annotation von Ler-
nerkorpora. In: Walter, Maik/Grommes, Patrick (Hg.). Fortgeschrittene Lernervarietäten. Korpuslin-
guistik und Zweitspracherwerbsforschung. Tübingen: Niemeyer, 119–140.
MacWhinney, Brian (2000). The CHILDES Project: Tools for Analyzing Talk. 3. Auflage. NJ: Lawrence
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Erlbaum Associates.
*Mayr, Katharina/Mezger, Verena/Paul, Kerstin (2010). Spracharbeit statt Strafarbeit. Zum Ausbau von
Sprachkompetenz mit Kiezdeutsch im Unterricht. In: IDV-Magazin 82, 159–187.
Mempel, Caterina/Mehlhorn, Grit (2014). Datenaufbereitung. Transkription und Annotation. In: Setti-
nieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.).
Einführung in empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn:
Schöningh, 147–166.
*Méron-Minuth, Sylvie (2009). Kommunikationsstrategien von Grundschülern im Französischunter-
richt. Eine Untersuchung zu den ersten vier Lernjahren. Giessener Beiträge zur Fremdsprachendi-
daktik. Tübingen: Narr.
Moritz, Christine (2011). Die Feldpartitur. Multikodale Transkription von Videodaten in der Qualitati-
ven Sozialforschung. Wiesbaden: VS Verlag.
*Petersen, Inger (2012). Entwicklung schriftlicher Argumentationskompetenz bei Oberstufenschüler/
innen und Studierenden mit Deutsch als Erst- und Zweitsprache. Vortrag beim Symposium „Mehr-
sprachig in Wissenschaft und Gesellschaft“ Bielefeld, 07. 02. 2012 [Online: http://www.uni-bielefeld.
de/Universitaet/Studium/Studienbegleitende%20Angebote/Punktum/060_wir_ueber_uns/tagungen/
tagung_2012/PPP/praesentation_petersen.pdf] (11. 09. 2015).
*Quasthoff, Uta M. (Projektleitung) (2002ff): Forschungsprojekt OLDER = „Orale und literale Diskurs-
fähigkeiten – Erwerbsmechanismen und Ressourcen“. Projektbeschreibung [Online: http://home.edo.
uni-dortmund.de/~older/Kurzbeschreibung.html] (11. 09. 2015).
Rehbein, Jochen/Schmidt, Thomas/Meyer, Bernd/Watzke, Franziska/Herkenrath, Annette (2004). Hand-
buch für das computergestützte Transkribieren nach HIAT. [Online http://www.exmaralda.org/files/
azm_56.pdf] (11. 09. 2015).
*Ricart Brede, Julia (2011). Videobasierte Qualitätsanalyse vorschulischer Sprachfördersituationen. In-
auguraldissertation an der Pädagogischen Hochschule Weingarten. Freiburg i. Br.: Fillibach
*Schart, Michael (2003): Projektunterricht – subjektiv betrachtet. Baltmannsweiler: Schneider Verlag
Hohengehren. [Referenzarbeit, Kapitel 7]
Scherer, Carmen (2006). Korpuslinguistik. Kurze Einführung in die Germanistische Linguistik. Heidel-
berg: Universitätsverlag Winter.
*Schmitt, Reinhold (Hg.) (2007): Koordination. Analysen zur multimodalen Interaktion. Tübingen: Narr.
Schmidt, Thomas (2010). EXMARaLDA EXAKT. Manual Version 1.0. [Online: http://s3.amazonaws.
com/zanran_storage/www1.uni-hamburg.de/ContentPages/109 154 423.pdf] (11. 09. 2015).
Schmidt, Thomas/Schütte, Wilfried (2011). FOLKER. Transkriptionseditor für das „Forschungs- und
Lehrkorpus gesprochenes Deutsch“ (FOLK). Transkriptionshandbuch. [Online: http://agd.ids-mann
heim.de/download/FOLKER-Transkriptionshandbuch.pdf] (11. 09. 2015).
Selting, Margret/Auer, Peter (2009). Gesprächsanalytisches Transkriptionssystem 2 (GAT2). In: Ge-
sprächsforschung 10, 353–402 [Online: www.gespraechsforschung-ozs.de ] (11. 09. 2015).
Tacchetti, Maddalena (2013). User Guide for ELAN Linguistic Annotator. [Online: http://www.mpi.nl/
corpus/manuals/manual-elan_ug.pdf] (18. 10. 2013).
*Waggershauser, Elena (2015). Schreiben als soziale Praxis. Eine ethnographische Untersuchung erwach-
sener russischsprachiger Zweitschriftlernender. Tübingen: Stauffenburg.
Claudia (Hg.): Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache.
Eine Einführung. Paderborn: Schöningh.
Dieses Kapitel bietet FremdsprachendidaktikerInnen einen hervorragenden ersten Überblick über
die Theorieabhängigkeit von Transkriptionskonventionen und die entsprechende Software. Neben
der Transkription verbaler Daten werden auch die phonetische Transkription und die Transkription
nonverbaler Kommunikation sowie die Aufbereitung von Transkripten für Vorträge thematisiert.
Daniela Caspari
historischen Forschung (s. Kapitel 5.2.1 Dokumentensammlung), die sich zwangsläufig auf
überlieferte Dokumente stützen muss, nur punktuell, z. B. im Rahmen der Fehlerforschung
oder bei der Erforschung kreativer Verfahren, darüber nachgedacht worden, welches Poten-
zial für die Erforschung des Fremdsprachenunterrichts in ihnen steckt. Da diese Dokumente
bereits existieren, besteht das Ziel dieses Kapitels nicht darin, bestimmte Erhebungsverfahren
zu beschreiben, sondern es will dafür werben, dass die genannten unterrichtsbezogenen
Produkte in ihrem Wert für die Forschung erkannt und dementsprechend genutzt werden.
Dabei wird man zumeist von einer Forschungsfrage aus entsprechende Dokumente gezielt
sammeln; es ist allerdings – anders als sonst im Forschungsprozess üblich – auch möglich,
dass man erst über die Dokumente verfügt und anschließend eine dazu passende Forschungs-
frage entwickelt oder ein Forschungsinteresse auf die vorhandenen Produkte hin konkreti-
siert.
Selbstverständlich können die allermeisten dieser Textsorten ebenfalls gezielt erhoben werden,
z. B. um den Sprachstand von Lerner_innen (vgl. Kapitel 5.2.6) oder den Erfolg bestimmter
Unterrichtsverfahren zu erfassen. Auch für Studien im Rahmen der Lehrerforschung werden
viele der hier genannten Dokumente erhoben, um z. B. bestimmte Einstellungen oder Entwick-
lungen von Lehrkräften zu verfolgen. In diesen Fällen wurde zuvor ein Forschungsprojekt mit
Fragestellung und Design entwickelt, der Impuls für die Erhebung geht von den Forscher_in-
nen aus und die Erhebungssituation und die zu erhebenden Produkte werden zielgerichtet auf
das Forschungsinteresse bzw. die Forschungsfrage hin ausrichtet. Diese Texte entstehen somit
in einer gezielt gestalteten Situation, auch wenn diese Situation im natürlichen Kontext (Regel-
unterricht, reguläre Prüfungen, Fortbildungsveranstaltung etc.) geschaffen wird.
Bei einer Erfassung (zum Unterschied zwischen Erhebung und Erfassung s. auch Kapi-
tel 5.2.6), um die es in diesem Kapitel geht, werden die Produkte dagegen ohne vorgängige
Forscher_innenabsicht erstellt und erst im Nachhinein für Forschungszwecke genutzt (Natür-
lichkeit des Feldes). Dies könnte z. B. in der Form geschehen, dass ein/e Lehrer_in die im Laufe
des Berufslebens oder in der Zeit der Begleitung einer Lerngruppe gesammelten ‚schönsten
Schülerarbeiten‘ selbst auswertet bzw. zur Verfügung stellt. Oder in der Form, dass ein/eine
Teilnehmer_in einer Fortbildungsreihe am Ende seine Kolleg_innen darum bittet, ihm die
im Verlauf der Fortbildung entstandenen Unterrichtsmaterialien (anonym) zur Auswertung
Info-Materialien
– Schulcurricula
– Schulhomepage (z. B. Darstellung des
Faches)
– Flyer (z. B. Infos für Fremdsprachenwahl)
Tabelle 2: Unterrichtsbezogene Lehrer_innentexte
zu geben. Eine andere Möglichkeit könnte darin bestehen, dass die für einen Wettbewerb
eingereichten Schülerarbeiten dazu anregen, sie unter anderen als den Wettbewerbskriterien
systematisch auszuwerten. Diesen Beispielen ist gemein, dass das Material jeweils ohne For-
schungsabsicht entstanden ist.
Natürlich gibt es auch Mischformen zwischen Erhebung und Erfassung in dem Sinne,
dass die Erhebung von in einer natürlichen Situation entstehenden Produkten zuvor ge-
plant wird. Dies ist bspw. dann der Fall, wenn Lehrkräfte (z. B. im Rahmen eines Aktionsfor-
schungsprojektes) in ihrem Unterricht bestimmte Lernerprodukte erstellen lassen oder wenn
Forscher_innen alleine oder in Zusammenarbeit mit Lehrer_innen Unterrichtsarrangements
erstellen, in denen bestimmte Textsorten entstehen. Der zentrale Unterschied zu klassischen
Erhebungssituationen besteht hier in der ‚Natürlichkeit‘ der Situation: Die gewünschten Texte
könnten in der entsprechenden (Unterrichts-) Situation genauso gut auch unabhängig von
einer Forschungsabsicht entstehen. Der zentrale Unterschied zur klassischen Erfassung be-
steht darin, dass die Entstehung der Produkte von der Forscher_in oder im Einvernehmen
mit ihm/ihr intendiert ist.
Obwohl in zahlreichen Forschungsarbeiten unterrichtsbezogene Produkte herangezogen
werden, meist als eine von mehreren Datenformen, wurden sie unter forschungsmetho-
discher Hinsicht bislang lediglich in der historischen Forschung betrachtet (vgl. die entspre-
chenden Überlegungen in Kapitel 5.2.1). In aktuellen forschungsmethodischen Handbüchern
werden sie dagegen bislang so gut wie nicht beachtet: Lediglich in der Aktionsforschung (s.
Medium In welchem Medium liegen die Texte vor: mündlich, schriftlich, graphisch,
multimodal?
Entstehungs- Ist der Entstehungskontext bekannt? Welche Details sind bekannt oder können
kontext nachträglich rekonstruiert werden (z. B. genaue Aufgabenstellung, beteiligte
Personen, zur Verfügung gestellt Zeit, Hilfsmittel)
Zeitpunkt Wann wurden die erfassten Produkte erstellt?
Ort Fand die Textproduktion innerhalb des Unterrichts oder an außerunterricht-
lichen bzw. außerschulischen Lernorten statt?
Art Handelt es sich um einen offiziellen, halboffiziellen oder privaten Text? (vgl.
Kapitel 5.2.1)
Anlass Wurde die Textproduktion von den Verfasser_innen verlangt bzw. erwartet
(z. B. gemeinsame Aufgabenentwicklung), wurde sie angeregt (z. B. Wett-
bewerbsbeitrag) oder entstand sie aus Eigenmotivation der Verfasser_innnen
(z. B. Tagebuch)?
Erfassungs- Wurden die Produkte gezielt gesucht und oder lagen sie bereits vor? Von wem
kontext wurden sie zusammengestellt? Nach welchen Kriterien?
Natürlichkeit Werden bzw. wurden die Produkte unabhängig von der Absicht, sie als For-
vs. Planung schungsdaten zu verwenden, erstellt? Oder wird bzw. wurde der Unterricht
bzw. die Situation unter Berücksichtigung des Forschungsinteresses gestaltet?
Ziele Welche Ziele werden bzw. wurden mit den Texten in Bezug auf die Lehr-/
Lernsituation verfolgt und welche Ziele in Bezug auf die Forschungssituation?
Realisierung Wer führt den Unterricht bzw. die Situation durch: Der bzw. die üblichen
Akteur_innen (z. B. die Lehrkraft mit ihrer gewöhnlichen Lerngruppe) oder
die Forscher_innen?
Tabelle 3: Dimensionen unterrichtsbezogener Produkte
Für die Analyse und Interpretation der Texte ist nicht nur die Kenntnis dieser Kontextdaten
von Bedeutung, sondern ebenfalls, wie stark die Lerner_innen und Lehrkräfte inhaltlich,
sprachlich und durch die jeweiligen Textsortenkonventionen festgelegt sind. Selbstver-
ständlich hängt der Grad der Steuerung im Einzelfall von der konkreten Situation und der
expliziten oder impliziten Zielsetzung bzw. Aufgabenstellung ab. So gibt es z. B. bei den Rol-
lenspielen durch die Art der Vorgaben ein Kontinuum von inhaltlich und sprachlich sehr eng
geführten bis zu sehr freien Formen. Trotzdem ist es sinnvoll, hier grundsätzlich zwischen
stärker vorgegebenen und eher freien Textsorten sowie zwischen sprachlich eher imitativen
bzw. reproduktiven sowie sprachlich produktiven bzw. kreativen Formen zu unterscheiden.
Bei der folgenden Einteilung wird eine sehr weite Definition von Textsorte im Sinne von
Regeln für die Produktion und für das Produkt in einer bestimmten Lehr-/Lernsituation zu
Grunde gelegt.
3 Forschungsinteresse
Der große Gewinn der Arbeit mit unterrichtsbezogenen Texten liegt darin, dass diese nicht
gezielt für Forschungszwecke verfasst wurden, sondern in natürlichen Kontexten entstanden
sind. Das heißt, dass es keine durch Design und Instrumente sonst notwendigerweise einher-
gehenden Beeinflussungen, Begrenzungen und Artefakte gibt, sondern dass sie das Resultat
authentischer Lehr-/Lern- bzw. Aus- und Weiterbildungssituationen in der Gegenwart oder
der Vergangenheit sind.
Aus diesem Grund können sie einen direkten und unverfälschten Einblick in die Realität
der unterschiedlichsten fremdsprachenbezogenen Lehr- und Lernkontexte geben. Die Be-
schäftigung mit unter realen Praxisbedingungen entstandenen Produkten ist sowohl des-
wegen interessant, weil sie in einem umfassenden Sinn authentisch sind. Sie ist auch des-
wegen aufschlussreich, weil das Wissen über die Wirklichkeit des Fremdsprachenunterrichts
und anderer fremdsprachenbezogener Lehr-/Lernsituationen noch immer sehr begrenzt ist.
Bislang gibt es noch immer viel zu wenige empirische Studien, die nicht oder nur wenig
arrangierten Fremdsprachenunterricht oder gar alltägliche Aus- und Fortbildungssituationen
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
handelten oder in den Unterricht eingebrachten Themen zu erheben. Dies wurde bislang
lediglich für den bilingualen Sachfachunterricht erforscht, ist aber nicht zuletzt aufgrund der
heftigen Kritik am vermeintlichen Verlust von Inhalten im kompetenzorientierten Unterricht
von großem Interesse. Falls Lehrkräfte diese Produkte erforschen, kann eine Analyse und
Auswertung der Texte ihrer Lerner_innen nach anderen als bewertungsrelevanten Kriterien
zu neuen Einsichten führen, sind sie es doch i. d. R. gewohnt, sie lediglich unter dem Gesichts-
punkt der Korrektur und Notengebung zu betrachten. Viele der hier genannten Aspekte von
Lerner_innentexten werden bei der üblichen Korrektur nicht beachtet, obwohl sie möglicher-
weise ein neues Bild von den Leistungen und Potenzialen der Lerner_innen zeichnen.
Das Gleiche gilt für Lehrer_innentexte. Zwar ermöglicht die Lehrerforschung bereits viel-
fältige Einblicke in die unterschiedlichsten Aspekte des Lehrer_innen-Seins aus der Sicht der
Beteiligten. Jedoch ist es nicht dasselbe, ob die Entstehung von mündlichen oder schriftlichen
Lehrer_innentexten zu Forschungszwecken geplant und damit auch die Forschungsabsicht
bekannt ist, oder ob Lehrkräfte in ihren beruflichen Alltagssituationen Texte erstellen, die
erst im Nachhinein zu Forschungszwecken verwendet werden. Denn erfahrungsgemäß ist
es fast unmöglich, den Faktor der (von den Lehrkräften vermuteten) professionellen oder
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
4 Forschungsmethodische Überlegungen
Auch wenn m.W. bislang noch keine Forschungsarbeiten vorliegen, die ausschließlich auf der
Grundlage von erfassten Texten entstanden sind, so geben Lerner_innen- und Lehrer_innen-
texte, die in (weitgehend) authentischen Lehr-/Lernsituationen entstanden sind, Hinweise auf
das Potenzial für die fremdsprachendidaktische Forschung sowie auf forschungsmethodische
Herausforderungen.
Als Beispiel sei die Dissertation von Peuschel (2012) aus dem universitären Fremdsprachen-
unterricht genannt, die insgesamt vier radiodaf-Projekte mit insgesamt 47 Teilnehmer_innen
als Beobachterin begleitete. Diese Projekte richten sich an studentische DaF-Lerner_innen,
die weitgehend selbstbestimmt einzelne Radiobeiträge bzw. ganze Sendungen erstellen und
aufnehmen, die anschließend in einem Freien Radio ausgestrahlt werden. Die Forschungs-
arbeit verfolgt das Ziel, Erkenntnisse zum sprachlichen Lernen in einem solchen Projekt mit
Beobachtungen zur Realisierung von gesellschaftlicher Teilhabe der Lerner_innen während
ihres Lernprozesses zu verbinden. Die Basis bilden insgesamt 87 Tonaufnahmen (Beiträge
der Sendungen und Probeaufnahmen) und 95 schriftliche Texte (schriftliche Vorlagen für die
gesprochenen Radiobeiträge, Notizen, Stichpunkte und Vorversionen dieser Vorlagen sowie
Übersetzungen bzw. Übersetzungsversuche von einzelnen Texten). Dazu kommen Beobach-
tungsprotokolle sowie aus zwei der vier Projekte Interviews und Lerner_innentagebücher. Im
Mittelpunkt der Auswertungen stehen jedoch die mündlichen und schriftlichen Lerner_in-
nenprodukte, die „einen Zwischenstatus zwischen natürlichen und elizitierten Daten“ haben
(Peuschel 2012: 67, unter Verweis auf Larsen-Freeman/Long 1994: 26 ff.). Die Verfasserin
betont dabei die Natürlichkeit und Authentizität der Produkte, da diese auch ohne ihre Studie
entstanden seien (Peuschel 2012: 68).
An dieser Forschungsarbeit kann man gut die Herausforderungen der Arbeit mit einem
solchen Textkorpus erkennen. Zum einen stellen sich Fragen der Sicherung und Aufbereitung
der Daten (im Folgenden Peuschel 2012: 72–83, vgl. auch Kapitel 5.2.6). Dazu zählen das
Sampling, die Transkription der gesprochenen Texte, die Digitalisierung von handschriftlichen
Lerner_innenprodukten (hierzu hat die Verfasserin ein eigenes Transliterationssystem ent-
wickelt, das Korrekturen, Ergänzungen, Auslöschungen etc. abbildet) sowie die Erstellung
einer Datenbank. Zum anderen stellen sich Fragen der Auswertung und der Ergebnisdar-
stellung. Die Verfasserin wählt das ethnografische Verfahren der dichten Beschreibung (Ge-
ertz 1995), mit dem die erfassten Produkte in drei Schritten rekonstruiert und analysiert
werden. Dabei wird ähnlich wie beim hermeneutischen Zirkel (vgl. Kapitel 5.3.2) beständig
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
zwischen übergreifenden Strukturen und Details der Dokumente hin- und hergewechselt.
Besondere Sorgfalt verlangt bei diesem Projekt der Umgang mit den verschiedenen Versio-
nen der Lerner_innenprodukte, damit die sprachlichen Entwicklungsverläufe nachvollzogen
werden können, ohne sie ausschließlich an der zielsprachigen Norm zu messen. Insgesamt
zeigt die Studie von Peuschel (2012), dass die sorgfältige Analyse von Lerner_innenprodukten
detaillierte Einblicke in individuelle und kollaborative Prozesse der Texterstellung, in Ent-
wicklungsverläufe bei der Textproduktion sowie in die Zusammenhänge zwischen sprach-
licher Tätigkeit und Teilhabeoptionen erlaubt.
An dem Beispiel wird deutlich, dass es je nach Fragestellung und Art der erfassten Produk-
te angemessene Verfahren der Aufbereitung, Analyse und Interpretation zu finden gilt. An-
regungen für die Zusammenstellung und Aufbereitung lassen sich in diesem Handbuch vor
allem in den Kapiteln 5.2.1 (Dokumentensammlung), 5.2.2 (Textzusammenstellung) sowie
5.2.6 (Erheben und Erfassen von Lernersprache und Korpuserstellung) finden. Anregungen
für die Auswahl und die Analyse bzw. Interpretation finden sich vor allem in den Kapiteln 4.3
(Sampling), 5.3.2 (Hermeneutische Verfahren), 5.3.3 (Grounded Theory und Dokumentarische
Methode), 5.3.4 (Inhaltsanalyse) sowie 5.3.5 (Typenbildung).
Für den Umgang mit den erfassten Dokumenten gelten prinzipiell die gleichen Regeln
wie für jede andere Forschung, d. h. auch die üblichen Gütekriterien (vgl. Kapitel 2) und for-
schungsethischen Prinzipien (vgl. Kapitel 4.6). Allerdings ergeben sich aus der Tatsache, dass
es sich um Produkte handelt, die zunächst ohne Forschungsabsicht entstanden sind, spezielle
Fragen. Zum Beispiel stellt sich die Frage, wie man mit Produkten umgeht, zu denen man
nachträglich keine Erlaubnis der Verfasser_innen mehr einholen kann, denn es muss auf
jeden Fall ausgeschlossen werden, dass die Verwendung ihnen auf irgendeine Weise scha-
den könnte. Es stellt sich ebenfalls die Frage, welche Kontextdaten notwendig sind, um die
Produkte der Forschungsfrage entsprechend angemessen einordnen und interpretieren zu
können, und wie man damit umgeht, wenn dies im Nachhinein nicht bzw. nicht vollständig
möglich ist. Außerdem stellt sich die Frage, wie man die Art und die Anzahl der Dokumente
erhält, die für die Bearbeitung der Forschungsfrage notwendig sind.
Daher erscheint es einfacher, wie in dem dargestellten Beispiel als Forscher_in in den
entsprechenden Situationen anwesend zu sein. Jedoch wirft dies nicht nur die (theoretische)
Frage auf, ob es sich dann noch um erfasste Produkte oder nicht doch um Erhebungssituatio-
nen im natürlichen Kontext handelt. Sondern es stellt sich vor allem die (praktische) Frage,
ob man dann noch von unbeeinflussten, authentischen Dokumenten sprechen kann. Denn
unbestreitbar verändert die Anwesenheit der Forscher_in die Situation und damit auch die
Produkte, wobei dies im Fall der Lehrer_innenprodukte deutlich stärker der Fall sein dürfte
als bei Lerner_innenprodukten. Eine andere Möglichkeit bestünde darin, als Forscher_in Ein-
fluss auf die Entstehung der Produkte zu nehmen, z. B. indem man den Unterricht oder die
Lehrkräftefortbildung, in der diese Produkte entstehen, mit plant. Aber auch hierbei steigt
die Gefahr einer gewollten oder ungewollten Beeinflussung dieser Produkte. Daher sollten
die möglichen Nachteile unvollständiger Kontextdaten oder zu weniger bzw. ungeeigneter
Produkte sorgfältig gegen eine mögliche Einflussnahme auf die Produkte abgewogen werden.
Aber selbst im Fall einer solchen Steuerung bzw. Beeinflussung durch die Forscher_in ist
im Vergleich zu einer klassischen Erhebungssituation weiterhin der Vorteil einer deutlichen
höheren Authentizität gegeben, weil die Produkte in den allen Beteiligten vertrauten, üb-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
nenprodukten kommt die Funktion zu, „weiteren Aufschluss über die Verstehensprozesse der
Lernenden“ zu liefern (Kimes-Link 2013: 104). In der rekonstruktiven Analyse der Unter-
richtseinheiten erhalten die Schüler_innentexte denn auch eine große Rolle: In allen vier
Unterrichtsreihen werden jeweils mehrere unterschiedliche schriftliche Schülerarbeiten ana-
lysiert und in den retrospektiven Interviews werden die Schüler_innen zu ihnen befragt.
Auch inhaltlich liefern sie einen bedeutenden Beitrag zur Beantwortung der Forschungsfrage,
denn anhand der Analyse kann im Detail aufgezeigt werden, welche Funktion der jeweiligen
Aufgabe bzw. dem jeweiligen Verfahren für den Prozess der literarischen Auseinanderset-
zung zukommt und welche Analyse- und Interpretationsleistungen die Schüler_innen jeweils
erbringen. In Kombination mit der Analyse des Unterrichtsdiskurses kann Kimes-Link nach-
zeichnen, was die Lehrkraft davon aufgreift bzw. was davon nicht für den weiteren Lehr-/
Lernprozess verfügbar gemacht wird. So ermöglichen die Analyse und Interpretation der Ler-
ner_innentexte es, die Eignung bestimmter methodischer Verfahren für das literarische Verste-
hen der Schüler_innen festzustellen (vgl. Kimes-Link 2013: 352–366). Durch die Analyse des
Unterrichtsdiskurses über die Schülerarbeiten wird darüber hinaus deutlich, wie das Potenzial
dieser Texte besser genutzt werden könnte (vgl. Kimes-Link 2013: 366–368).
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
An der Studie von Kimes-Link (2013) wird neben dem forschungsmethodischen Poten-
zial einer solchen Fülle von erfassten und erhobenen Texten und Dokumenten zugleich die
große Herausforderung im Umgang mit ihnen deutlich: Es muss jeweils sehr genau überlegt
und transparent gemacht werden, welche Texte und Dokumente im Einzelnen ausgewählt
werden, wie die unterschiedlichen Textsorten ausgewertet und interpretiert werden, wie sie
aufeinander bezogen werden und welchen Textsorten dabei welche Funktion bzw. welcher
Stellenwert zukommt. Dies verlangt neben einer breiten forschungsmethodischen Kenntnis
und der Fähigkeit, die jeweiligen Analysen und Interpretationen jeweils funktional in die
Gesamtauswertung einfließen zu lassen, nicht zuletzt einen enormen Dokumentationsauf-
wand, damit die Leser_innen die einzelnen Forschungsentscheidungen auch tatsächlich im
Detail nachvollziehen können.
Eine große Vielzahl unterschiedlicher Daten, Texte und Produkte kann tatsächlich zu „einem
ganzheitlicheren Verständnis der Komplexität der beobachteten Lehr- und Lernsituationen und
ihrer Bedingungsfaktoren“ führen, wie Freitag-Hild (2010: 158) in ihrer ähnlich angelegten
Studie zum interkulturellen Lernen mit Migrationsliteratur im Englischunterricht bilanziert.
Jedoch besteht bei einer so großen Menge an Texten und Dokumenten grundsätzlich die Ge-
fahr, dass das Erkenntnispotenzial der einzelnen Quellen nicht ausgenutzt wird oder dass for-
schungsethisch nicht unproblematische „Datenfriedhöfe“ (s. Kapitel 3.3) entstehen. So konnte
Kimes-Link „[a]ufgrund der Datenfülle“ (2013: 111) nur vier von sieben der so aufwändig
dokumentierten Unterrichtsreihen in ihrer Studie darstellen. Dies zeigt, dass gerade bei einer
Kombination von „erhobenen“ und „erfassten“ Texten und Dokumenten im Vorfeld sorgfältige
forschungsmethodische und -ökologische Überlegungen anzustellen sind.
›› Literatur
Burns, Anne (2010). Doing Action Research in English Language Teaching. A Guide for Practitioners.
New York: Routledge.
Freitag-Hild, Britta (2010). Theorie, Aufgabentypologie und Unterrichtspraxis inter- und transkul-
tureller Literaturdidaktik. ‚British Fictions of Migration‘ im Fremdsprachenunterricht. Trier: WVT.
Geertz, Clifford (1995). Dichte Beschreibung. Beiträge zum Verstehen kultureller Systeme. 4. Auflage.
Frankfurt/M.: Suhrkamp.
Hu, Adelheid /Leupold, Eynar (2008). Schwer messbare Kompetenzen. In: Tesch, Bernd/Leupold, Eynar/
Köller, Olaf (Hg.) (2008). Bildungsstandards Französisch: konkret. Sekundarstufe I: Grundlagen, Auf-
gabenbeispiele und Unterrichtsanregungen. Berlin: Cornelsen Scriptor: 64–74.
Kimes-Link, Ann (2013). Aufgaben, Methoden und Verstehensprozesse im englischen Literaturunter-
richt der gymnasialen Oberstufe. Eine qualitativ-empirische Studie. Tübingen: Narr.
Nunan, David/Bailey, Kathleen M. (2009). Exploring Second Language Classroom Research. A Com-
prehensive Guide. Boston, MA: Heinle.
Peuschel, Kristina (2012). Sprachliche Tätigkeit und Fremdsprachenlernprojekte. Fremdsprachliches
Handeln und gesellschaftliche Teilhabe in „radiodaf“-Projekten. Baltmannsweiler: Schneider Verlag
Hohengehren.
5.2.8 Testen
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Claudia Harsch
1 Begriffsklärungen
Tests werden in der Fremdsprachenforschung zur Erhebung, Messung und Beurteilung
fremdsprachlicher Lernerleistungen eingesetzt. Sie gehören dem rationalistischen Paradigma
an (s. Kapitel 2 und 3.3 in diesem Band; auch Cohen/Manion/Morrison 2011) und werden
oft in Experimentaldesigns, in Prä-Posttestdesigns (s. etwa die Studie von Biebricher 2008,
unten) oder Interventionsstudien verwendet (s. etwa die Studie von Marx 2005, unten). Tests
können in der Fremdsprachenforschung einer Reihe von Zwecken dienen, etwa der punk-
tuellen Kompetenzmessung, der Individualdiagnose, der Auswahl, der längsschnittlichen
Untersuchung von Kompetenzentwicklung, dem Bildungsmonitoring, der Evaluation von
Lehrmethoden und Lernerfolg, der Erforschung von Effekten bestimmter Interventionen oder
der Untersuchung von Einflüssen und Zusammenhängen bestimmter Faktoren in Lehr- und
Lernkontexten. Der Untersuchungszweck bestimmt, ob Tests als Kompetenztests, Lernerfolgs-
kontrollen, Diagnosetests oder Einstufungstests entwickelt und eingesetzt werden. Für eine
detaillierte Ausführung zu Formen und Funktionen von Sprachtests darf auf Grotjahn (2010)
verwiesen werden.
Je nach Einsatzbereich, sei es eine landesweite Untersuchung oder das eigene fremdsprach-
liche Klasszimmer, werden large-scale von small-scale Tests unterschieden. Oft werden in
kleineren Untersuchungen, etwa innerhalb einer Lernergruppe, informelle Tests eingesetzt,
wohingegen in groβangelegten Studien, bei denen es darum geht, generalisierbare Ergebnisse
zu erhalten, formale Tests zum Einsatz kommen. Diese werden auch als standardisierte Tests
bezeichnet, die einer Reihe von Qualitätsanforderungen genügen müssen (s. unten); standar-
disierte Tests werden im Unterschied etwa zu selbst erstellten Vokabel- oder Grammatiktests
auf der Basis eines theoretischen Konstrukts entwickelt. Je nachdem, welche Berechtigungen
und Folgen ein Test nach sich zieht, spricht man von high-stakes vs. low-stakes Tests. An
high-stakes Tests, ebenso wie an standardisierte Tests, werden in der Regel hohe formale,
inhaltliche und ethische Anforderungen gestellt.14
Die verschiedenen Testarten verlangen unterschiedliche Konstrukte und Inhalte: Während
eine Lernerfolgskontrolle auf die Bereiche und Inhalte ausgerichtet ist, die in einem bestimm-
ten Zeitraum in einem bestimmten Kontext gelehrt wurden, ist ein Kompetenztest nicht
curricular orientiert, unabhängig von einem spezifischen Lehr-/ Lernkontext und erfasst
handlungsbezogene Sprachkompetenzen. Diagnosetests wiederum müssen in der Lage sein,
detaillierte Aspekte so zu erfassen, dass Rückschlüsse auf Stärken und Schwächen der Ler-
nenden gezogen werden können; hier ist eine relativ große Anzahl an Testaufgaben (Items)
nötig, um zu verlässlichen Ergebnissen zu kommen. Ein Einstufungstest hingegen hat zum
Ziel, mit relativ geringem Aufwand die Probanden zu bestimmen, die zu einem bestimmten
Programm zugelassen werden; hier sind Tests denkbar, die mit Indikatoren arbeiten (z. B. C-
Tests oder Vokabeltests), die sich als gute Prädiktoren für eine Klassifizierung von Lernenden
erwiesen haben, die aber nicht ausgelegt sind, Handlungskompetenzen zu erfassen. Neben
diesen grundsätzlichen Einteilungen in verschiedene Testarten gibt es weitere Begrifflich-
keiten, die hier kurz erläutert werden sollen.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Tests können formativ oder summativ eingesetzt werden, wobei formatives Testen den
lernfördernden und entwickelnden Aspekt in den Vordergund rückt, während summative
Tests auf das fokussieren, was Lernende zu einem bestimmten Zeitpunkt beherrschen. Die
Ausrichtung eines Tests auf eine bestimmte Bezugsgruppe oder auf inhaltlich-qualitative
Kriterien bestimmt, ob ein Test als norm- oder kriterienorientiert klassifiziert wird; dies
wiederum wird beeinflusst vom Einsatzzweck: Ein Test zur Lernerfolgskontrolle etwa kann
normorientiert eingesetzt werden, wenn es darum geht, die 10 % Leistungsstärksten einer
Lernergruppe zu identifizieren; ist der Lernerfolg hingegen durch das Erreichen eines be-
stimmten Standards oder Kriteriums bestimmt, so ist der Test kriterienorientiert. All diese
Klassifizierungen schlieβen sich nicht gegenseitig aus, vielmehr sind sie auf einem Kontinuum
angeordnet und Überschneidungen sind denkbar (z. B. Harsch 2012).
Die folgende Tabelle gibt einen Überblick über die hier genannten Begriffe:
14 Hier darf auf die Qualitätsstandards der internationalen Testgesellschaften verwiesen werden, vgl. etwa
Association of Language Testers in Europe (ALTE 2001), European Association of Language Testing and
Assessment (EALTA 2006), oder International Language Testing Association (ILTA 2007).
• Diagnosetest erfasst durch groβe Anzahl von Aufgaben detaillierte Aspekte, er-
möglicht Rückschlüsse auf Stärken und Schwächen der Lernenden
• Einstufungstest bestimmt mit geringem Aufwand Zulassung zu einem bestimmten
Programm, oft mittels Indikatoren
formativ / summativ • formative Beurteilung: lernfördernd und entwickelnd
• summative Tests: Fokus auf Können zu einem bestimmten Zeit-
punkt
norm- / kriterien- • normorientiert: Ausrichtung eines Tests auf eine bestimmte Be-
orientiert zugsgruppe
• kriterienorientiert: Ausrichtung auf inhaltlich-qualitative Kriterien
Tabelle 1: Übersicht Begrifflichkeit zum Testen
Eine Besonderheit von Tests sei hier erwähnt: In der Fremdsprachenforschung kommt Tests
eine duale Rolle zu. Sie können als Forschungsinstrument zur Datenerhebung und Leistungs-
messung dienen. Sie können aber auch zum Gegenstand der (interdisziplinären) Forschung
werden, wenn es darum geht, neu entwickelte Instrumente auf ihre Güte hin zu überprüfen
und sie zu validieren (Testanalyse und ‑validierung, z. B. Bachman/Palmer 2010, Lienert/
Raatz 1998), oder Auswirkungen von Tests zu untersuchen (prädiktive, systemische Validität,
z. B. Weir 2005; Washback-Studien, vgl. etwa Green 2007, Wall 2005).
2 Gütekriterien
Da in beiden Einsatzbereichen die Güte der Testinstrumente eine zentrale Rolle spielt, sollen
hier die wichtigsten Qualitätskriterien aufgelistet werden (Bachman 2004, Bachman/Kunnan
2005, Douglas 2010, Grotjahn 2007). Die bekanntesten Kriterien umfassen Reliabilität und
Validität. Reliabilität bezieht sich auf die Messkonsistenz oder Zuverlässigkeit der Messung
und wird in der Regel statistisch geprüft, etwa durch den Index Cronbachs Alpha. Relia-
bilität umfasst auch Aspekte der Bewerterkonsistenz, welche ebenfalls statistisch ermittelt
wird (s. etwa die Studien von Harsch/Martin 2012, 2013). Objektivität bezieht sich auf die
Unabhängigkeit der Beurteilung vom Beurteiler oder dem Beurteilungsinstrument, und ist
eine Voraussetzung für Reliabilität, ebenso wie Reliabilität als Voraussetzung der Validität
betrachtet wird. Validität bezieht sich auf die Frage, ob ein Test das misst, was er zu messen
vorgibt, ob er also die Kompetenzen und Fähigkeiten erfasst, auf die hin er ausgelegt wurde.
Validität wird zunehmend von einer qualitativen Warte aus diskutiert und untersucht (z. B.
Kane 2001, Messick 1989, Weir 2005 oder die Validierungsstudie von Rossa 2012, die unten
vorgestellt wird). Die Validierung eines Tests zieht sich idealiter durch den gesamten Test-
entwicklungsprozess und den eigentlichen Testeinsatz, um in jeder Phase empirische Belege
sammeln zu können (s. unten). Manche Forscher beziehen auch die Auswirkungen von Tests
in die Validitätsforschung mit ein. Die Konsequenzen und Auswirkungen von Tests auf die
Kontexte, in denen sie zum Einsatz kommen, werden im Bereich der so genannten conse-
quential validity (Weir 2005) oder auch systemischen Validität untersucht. Dem Kriterium
der Praktikabilität kommt insofern Bedeutung zu, als dass Testentwicklung ein ressourcen-
intensives Vorhaben ist, so dass begrenzte Ressourcen Auswirkungen auf die Testgüte haben
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
können. Praktikabilität spielt aber auch beim Einsatz von Tests eine Rolle, denn die Durch-
führung der Tests muss praktikabel und die Beantwortung der Testaufgaben machbar sein.
Vermehrt werden auch ethische Aspekte als Qualitätskriterium diskutiert (vgl. etwa den ILTA
Code of Ethics 2007 oder McNamara/Roever 2006); Testethik umfasst Aspekte der Testent-
wicklung ebenso wie die des Testeinsatzes und des Nutzens von Testergebnissen. Hier sollten,
wie bei allen anderen Forschungsinstrumenten zur Datengewinnung, die geltenden Standards
der Forschungsethik zur Anwendung kommen (s. Kapitel 4.6).
Konstruktvalidierung der Testaufgaben eingesetzt werden, ebenso wie Verfahren der In-
trospektion (s. Kapitel 5.2.5), um mentale Prozesse der Testprobanden zu untersuchen und
so zur kognitiven Validierung beizutragen. Revidierte Aufgaben sollten neu pilotiert und
reanalysiert werden. Genügen die Tests den Gütekriterien, können sie zum Einsatz kommen
(s. unten). Die Daten der eigentlichen Testdurchführung müssen wiederum einer statisti-
schen und qualitativen Analyse standhalten, um zu verlässlichen Ergebnisrückmeldungen
zu kommen. Nun können sich Validierungsstudien anschlieβen, etwa um kriterienbezogene
Validität im direkten Vergleich zu bereits validierten Testinstrumenten zu untersuchen, oder
um Impact- und Washback-Effekte zu erforschen. Tests, die regelmäßig zum Einsatz kommen,
sollten fortlaufend auf ihre Güte und ihre Effekte hin evaluiert und ggf. revidiert werden.
Testanalysen umschließen i. d. R. qualitative und quantitative Aspekte (z. B. Bachman 2004,
Bortz/Döring 2002, Lienert/Raatz 1998). Statistische Itemanalysen können mittels der klas-
sischen Testtheorie oder mittels der Item-Response-Theory (IRT) ausgeführt werden, wobei
nur letztere relativierbare Aussagen in Bezug auf die Schwierigkeiten der Testaufgaben zu-
lassen. Klassische Analysen hingegen beziehen sich immer nur auf die Probandengruppe, die
den Test auch tatsächlich abgelegt hat. Regelmäßig werden Testaufgaben klassisch auf ihre
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Reliabilität, ihre Lösungshäufigkeiten und ihre Diskriminanz untersucht, ebenso wie auf die
Funktionalität ihrer Distraktoren und auf etwaigen Bias, die Begünstigung oder Benachtei-
ligung bestimmter Gruppen. IRT-Analysen untersuchen diese Aspekte ebenfalls, doch sie
haben den Vorteil, dass sie Probandenfähigkeiten und Aufgabenschwierigkeiten auf derselben
Skala abbilden; allerdings benötigt man für sie hinreichend große Stichproben (s. auch Ka-
pitel 5. 3. 11).
Testaufgaben, die produktive Fertigkeiten erfassen, verlangen zusätzlich die Konstruktion
von Bewertungskriterien und die Untersuchung der Bewerterreliabilitäten. Bei der Kon-
struktion der Bewertungskriterien und -raster können theoretische Modelle oder empirische
Lernerleistungen als Basis genutzt werden (Fulcher 1996); die Bewertungsraster müssen er-
probt und validiert werden (vgl. die Validierungsstudie von Harsch/Martin 2012). Bei der
Untersuchung der Bewerterreliabilität können IRT-Analysen (Multifacetten-Modelle, Eckes
2011) wertvolle Hilfe leisten, da sie Bewerterstrenge, Aufgabenschwierigkeiten und Pro-
bandenfähigkeiten berücksichtigen (z. B. die Studie von Harsch/Rupp 2011). Dazu können
qualitative Studien zum Bewerterverhalten treten, um die Güte und Validität der Auswertung
zu evaluieren (z. B. Lumley 2005 oder Arras 2007).
und nicht etwa Einflüsse der unterschiedlichen Tests zu messen. Dabei kann es helfen, stan-
dardisierte und bereits kalibrierte Testinstrumente zu wählen, deren Schwierigkeiten bekannt
sind und die ein vergleichbares Konstrukt messen. Bei Biebricher (2008) etwa kommen er-
probte und validierte standardisierte Testaufgaben aus dem Cambridge Proficiency English-
Test PET zur Prä- und Posttestung zum Einsatz, um die Auswirkungen extensiven Lesens auf
die Lese- und Sprachkompetenz von Realschülern zu untersuchen; diese werden während der
Intervention durch nicht-standardisierte Leseproben begleitet. In einem ähnlichen quasi-ex-
perimentellen Design untersucht Rumlich (2012) die Auswirkung bilingualen Unterrichts in
einer Longitudinalstudie. Zu drei Messzeitpunkten setzt er erprobte Tests ein, unter anderem
die C-Tests aus der KESS-Studie und zwei Schreibaufgaben aus VERA6.
Die Referenzarbeit von Marx (2005) illustriert ein Studiendesign, das zwei balancierte
Gruppen vergleicht (nur die Experimentalgruppe erhält eine Intervention). Hierbei liegt der
Fokus lediglich auf dem Vergleich des Lernstands zwischen den beiden Gruppen, und nicht
wie oben auf dem Lernzuwachs, sodass eine Prä-/Posttestung entfallen kann. Da in beiden
Gruppen dieselben informellen Lernerfolgstests parallel eingesetzt werden, sind die Ergeb-
nisse direkt vergleichbar.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Kommen selbst entwickelte Tests zum Einsatz, ist deren Gütebestimmung wichtig (s. oben).
Es gilt dabei, die oben erwähnten Schritte der Testentwicklung zu beachten, um von einem
theoriegeleiteten Konstrukt zu einem validen und reliablen Messinstrument zu kommen.
Biebricher (2008) dokumentiert eine gelungene C-Test-Entwicklung, ausgelegt auf ihre Stu-
dienzwecke und die Zielgruppe hin.
Bei allen Testeinsätzen muss beachtet werden, dass diese in der Zielgruppe zunächst pi-
lotiert werden sollten, selbst wenn standardisierte und kalibrierte Tests ausgewählt wurden,
wie dies zum Beispiel von Biebricher (2008) oder Rumlich (2012) berichtet wird. Kommen
selbst entwickelte Tests zum Einsatz, ist die Pilotierung umso wichtiger, will man doch sicher-
stellen, dass die Tests das intendierte Konstrukt valide messen und dass die Testversionen der
Prä- und Posttestung vergleichbare Ansprüche stellen. Biebricher (2008) etwa schaltet ihrer
Hauptuntersuchung eine Pilotphase und eine Vorstudie vor, um die Testinstrumente in ihrer
Zielgruppe auf ihre Reliabilität und Eignung zu prüfen.
Bei Prä-/Posttest-Designs sollte bedacht werden, dass nicht derselbe Test zu beiden Mess-
zeitpunkten eingesetzt wird, um nicht Interventionseffekte mit dem Lernzuwachs zu konfun-
dieren, der alleine durch das wiederholte Ablegen desselben Tests erzielt wird. Dazu kann es
hilfreich sein, zwei vergleichbare Testversionen, etwa auf Basis der Pilotierung, zu erstellen,
und diese zu beiden Zeitpunkten in einem gekreuzten Design einzusetzen: In beiden Gruppen
(Experimental- und Kontrollgruppe) kommen zu jedem Messzeitpunkt beide Versionen zum
Einsatz, doch jeder Schüler bearbeitet je eine andere Version zu den beiden Zeitpunkten. Wenn
beide Versionen so genannte Ankeritems enthalten (Testaufgaben, die in beiden Versionen
vorkommen), können die Testergebnisse verlinkt werden. Bei genügend großer Stichprobe
leisten IRT-Analysen (s. oben) wertvolle Hilfe. Um Veränderungen im Leistungszuwachs zu
verschiedenenen Messzeitpunkten und in verschiedenen Gruppen zu untersuchen, werden
i. d. R. statistische Signifikanztests und Varianzanalysen (ANOVA) durchgeführt.
Nicht nur Tests, auch die Zusammensetzung und Auswahl der Untersuchungsgruppen
kann die Forschungsergebnisse beeinflussen. Um SchülerInnen in vergleichbar leistungs-
starke Untersuchunggruppen (in Experimentaldesigns Experimental- und Kontrollgruppen
genannt) einzuteilen, können Einstufungstests hiflreiche Dienste leisten. Hier nutzt etwa
Biebricher (2008) die erwähnten selbst entwickelten C-Tests zur Gruppeneinteilung. Aber
auch wenn es darum geht, Probanden auszuwählen, die sich in ihrer Leistungsstärke unter-
scheiden, können C-Tests zum Einsatz kommen, wie Rossa (2012) exemplifiziert: Er nutzt
die in der DESI-Studie erprobten C-Test, um leistungsstarke und leistungsschwache Schüle-
rInnen auszuwählen, deren Hörverstehensprozesse er dann duch Lautes Denken untersucht
und vergleicht.
Die Testinstrumente in Interventionsstudien werden in der Regel flankiert durch wei-
tere, auch qualitative Instrumente, um die Testdaten anzureichern und quantitative Befunde
erklären zu können. Marx (2005) etwa nutzt retrospektive Befragungen (s. Kapitel 5.2.4);
Biebricher (2008) setzt neben Fragebögen Beobachtungen (s. Kapitel 5.2.3), Leitfadeninter-
views und impulsgestützte Stellungnahmen sowie nicht-standardisierte Leseproben ein.
Der Forschungsbereich der standardisierten Leistungsuntersuchungen soll hier durch die
large-scale Schulleistungsstudie Deutsch-Englisch Schülerleistungen International (DESI;
DESI-Konsortium 2008) und den KMK-Ländervergleich (Köller/Knigge/Tesch 2010) illus-
triert werden. Bei DESI wurden Sprachkompetenztests in einem Längsschnittdesign summa-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
tiv zum Systemmonitoring für den Sprachunterricht eingesetzt, begleitet durch Fragebögen
und Unterrichtsvideografie: „Als bundesweit repräsentative Untersuchung und durch ihre
breitgefächerte Anlage ermöglicht die Studie differenzierte Aussagen über Lehr-Lernprozesse
und den Erwerb sprachlicher Kompetenzen, die für Unterrichtspraxis, Lehrerbildung und
Bildungspolitik gleichermaßen wichtig sind.“ (Klieme 2008: 1).
Hierzu wurden die Kompetenztests und Fragebogeninstrumente auf Basis von Curriculum-
analysen und theoretischen Konstrukten entwickelt, pilotiert und validiert, ehe sie zum Ein-
satz kamen (Beck/Klieme 2007). Die repräsentative Stichprobe erlaubt Rückschlüsse auf die
Gesamtheit der Schülerinnen und Schüler in der neunten Jahrgangsstufe.
Diese Generalisierbarkeit ist auch für den KMK-Ländervergleich gegeben, der dem Bil-
dungsmonitoring dient. Den Rahmen des Bildungsmonitoring bilden die 2003 bzw. 2004
verabschiedeten Bildungsstandards der KMK, die die „Gleichwertigkeit der schulischen Aus-
bildung und die Schulabschlüsse in den Ländern“ (Köller/Knigge/Tesch 2010: 9) sicherstellen
sollen. Folgerichtig wurden die Bildungsstandards in kompetenzorientierte Testaufgaben
operationalisiert, die am IQB Berlin pilotiert, validiert und normiert wurden (s. hierzu auch
die Ausführungen unten in Abschnitt 6). Der Ländervergleich überprüft nun, inwieweit die
Bildungsstandards in den Ländern auch erreicht werden. Dabei ist zu beachten, dass solche
großangelegten Schulleistungsstudien nicht den Anspruch erheben, Aussagen bezogen auf
individuelle Lernende oder deren individuelle Lernfortschritte zu treffen. Es geht vielmehr
um generalisierbare Rückschlüsse auf die Gesamtheit der Lernenden im Schulsytem.
Die folgenden Ausführungen wenden sich wieder den small-scale Studien zu, denn Fremd-
sprachenforscherInnen werden Tests meist in Studien einsetzen, die vergleichsweise klein
angelegt sind; große Schulleistungsstudien werden i. d. R. durch Testinstitute durchgeführt.
Ist das Forschungsdesign geplant, die Konstrukte bestimmt, und die Testinstrumente und
Bewertungsschemata entwickelt, erprobt und auf ihre Güte hin analysiert, können sie einge-
setzt werden. Alternativ können existente Tests zum Einsatz kommen, wenn sie auf ihre
Passung für ein bestimmtes Forschungsvorhaben geprüft sind und Nutzungsrechte einge-
holt werden konnten. Vor jedem Einsatz eines existenten Testinstruments ist zu prüfen,
ob der Einsatzbereich, in dem ein bestimmter Test verwendet werden soll, auch mit den
Zwecken, Bereichen und Zielgruppen vereinbar ist, für die der Test ursprünglich validiert
wurde. Andernfalls riskiert man, nicht-valide Daten zu erheben. Sind Konstrukte, Kontexte,
Zwecke und Ziele vereinbar, muss eine geeignete Stichprobe gefunden und Genehmigungen
zur Datenerhebung eingeholt werden. Gerade bei Untersuchungen an Schulen müssen ge-
setzliche Regelungen (etwa Elterngenehmigungen) beachtet werden, die je nach Bundesland
variieren.
Der Testeinsatz selbst, soll er unter standardisierten Bedingungen ablaufen, erfordert even-
tuell die Schulung von Testleitern und das Erstellen von Testleiterskripten, die helfen den Ab-
lauf am Testtag zu regeln. Werden Hörverstehens- oder Hör-/Sehverstehenstests eingesetzt,
müssen geeignete Abspielgeräte bereitgestellt werden. Die Durchführung mündlicher Tests
sollte durch geschulte Personen durchgeführt werden; die Lernerleistungen sollten ideali-
ter für spätere Analysen aufgezeichnet werden. Ist dies nicht möglich, müssen sie simultan
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
während der Erhebung bewertet werden; dies könnte jedoch die Transparenz und Nachvoll-
ziehbarkeit der Bewertung beeinflussen. Die Bewertung produktiver Leistungen erfordert ein
Bewertertraining. Hier haben sich so genannte Benchmark-Texte bewährt, Lernerleistungen
also, die ein bestimmtes Kriterium und Niveau illustrieren. Sie können beispielsweise aus
den Pilotierungen gewonnen werden. Generell muss die Auswertung der Tests geplant und
organisiert werden, ebenso wie die Dateneingabe, Bereinigung und Aufbereitung, bevor die
Daten analysiert werden können.
Es empfiehlt sich, den teilnehmenden Probanden (Lernenden wie Lehrenden) (ggf. vorläu-
fige) Ergebnisse zeitnah rückzumelden. Hierfür sollten die Ergebnisse in einer für die Teil-
nehmer nützlichen Weise aufbereitet werden. Für Rückmeldung und weitere Auswertungen
muss entschieden werden, wie die Daten ausgewertet und aufbereitet werden sollen. Dies
hängt wiederum vom Zweck der Untersuchung und den Forschungsfragen ab, ebenso wie
von der Gröβe der Stichprobe. Bei groβen Stichproben werden Testdaten i. d. R. IRT-skaliert (s.
oben). Die resultierende Kompetenzskala kann ggf. in Kompetenzniveaus eingeteilt werden
über so genannte Standard-Setting Verfahren (s. z.B. Cizek/Bunch 2007 für einen Überblick
über verschiedene Methoden). Oft werden Fremdsprachentests dabei an den Gemeinsamen
europäischen Referenzrahmen (Europarat 2001) angebunden; das Manual for Relating Exa-
minations to the CEFR (Council of Europe 2009) gibt Hilfestellung bei der Durchführung. Ein
Beispiel für solch eine Anbindungsstudie findet sich in Harsch/Pant/Köller (2010).
5.2.8 Testentwicklung
zur Erhebung, Messung und Beurteilung
fremdsprachlicher Lernleistungen und Lernstände
Bedarfsanalyse
Planung
Validierung als begleitender Prozess von
Bedarfsanalyse bis Testevaluation
Spezifikation
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Konstruktdefinition
Operationalisierung:
Konstruktion der Items/tasks und
Bewertungskriterien
Pilotierung
Analyse
Revision
Testeinsatz
Testauswertung
Testevaluation
Zwecke Gütekriterien
Kompetenztests, Diagnosetests, Reliabilität, Validität, Objektivität,
Lernerfolgskontrollen, Einstufungstests etc. Praktikabilität, Testethik
Grafik nach: Council of Europe (2011) Manual for Language Test Development and Examining, fig. 15, S. 47
http://www.coe.int/t/dg4/linguistic/ManualLanguageTest-Alte2011_EN.pdf)
introspektiver Verfahren (s. Kapitel 5.2.5) elizitiert er mentale Prozesse von Testprobanden,
wobei er kompetente und weniger kompetente Lerner vergleicht; die Gruppenzuteilung
erfolgt mittels der DESI C-Tests. Die Referenzarbeit von Arras (2007) kann ebenfalls dem
Bereich der Validierungsstudien zugeordnet werden. Sie erforscht Beurteilerstrategien und
Prozesse bei der Bewertung schriftlicher Leistungen im TestDaF. In ihrer Studie werden in-
trospektive Erhebungsverfahren eingesetzt, um Beurteilungsvalidität zu untersuchen.
Die begleitende Forschung in der Testentwicklung wird am Beispiel der Studien von
Harsch/Rupp (2011) und Harsch/Martin (2012, 2013) illustriert, die die Testentwicklung zur
Evaluation der Bildungsstandards am IQB Berlin, insbesondere die Entwicklung der Schreib-
aufgaben und die Validierung der Bewertungsskalen, begleitete.
Der Bereich der Impact-/Washback-Studien gewinnt zunehmende Bedeutung, um die Aus-
wirkungen von Tests in ihren bildungs- und sozialpolitischen Kontexten zu untersuchen. Eine
Übersicht über solche Studien findet sich in Taylor/Weir (2009). Green (2007) und Wall (2005)
beispielsweise untersuchen die Auswirkungen von high-stakes Tests auf Fremdsprachen-
unterricht in verschiedenen Kontexten.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
dadurch, dass derselbe kalibrierte und validierte Maßstab an alle Testteilnehmer angelegt
wird. Werden Tests um qualitative Instrumente und Zugänge ergänzt, wie dies häufig in der
Interventions- und testbegleitenden Forschung geschieht, so erlauben solche mixed-methods
Forschungsdesigns (s. Kapitel 3.3; Creswell/Plano Clark 2007) eine umfassendere Sicht auf
die Forschungsfragen, als dies mit rein quantitativen oder rein qualitativen Designs möglich
wäre.
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit
einem Sternchen markiert.
*Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der
Beurteilung schriftlicher Leistungen in der Fremdsprache am Beispiel der Prüfung Test Deutsch als
Fremdsprache (TestDaF). Tübingen: Narr. [Referenzarbeit, s. Kapitel 7]
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Association of Language Testers in Europe (2001). ALTE principles of good practice for ALTE examina-
tions. [Online: http://alte.columnsdesign.com/setting_standards/code_of_practice.] (16. 02. 2015)
Bachman, Lyle F. (2004). Statistical analyses for language assessment. Cambridge: Cambridge Uni-
versity Press.
Bachman, Lyle F./Kunnan, Anthony J. (2005). Statistical analyses for language assessment. Workbook
and CD. Cambridge: Cambridge University Press.
Bachman, Lyle F./Palmer, Adrian S. (2010). Language assessment in practice. Oxford: Oxford Univer-
sity Press.
Beck, Bärbel/Klieme, Eckhard (Hg.) (2007). Sprachliche Kompetenzen. Konzepte und Messungen DESI-
Studie. Weinheim: Beltz.
*Biebricher, Christine (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens.
Tübingen: Narr. [Referenzarbeit, s. Kapitel 7]
Bortz, Jürgen/Döring, Nicola (2002). Forschungsmethoden und Evaluation für Human- und Sozialwis-
senschaftler. 3. überarbeitete Auflage. Berlin: Springer.
Cizek, Gregory J./Bunch, Michael B. (2007). Standard-setting. A guide to establishing and evaluating
performance standards on tests. Thousand Oaks: Sage.
Cohen, Louis/Manion, Lawrence/Morrison, Keith (2011). Research Methods in Education. 7. Auflage.
London: Routledge.
Council of Europe (2009). Relating language examinations to the Common European Framework of
Reference for Languages (CEF). A Manual. Straßburg: Language Policy Division.
Creswell, John W./Plano Clark, Vicky L. (2007). Designing and Conducting Mixed Methods Research.
Thousand Oaks: Sage.
*DESI-Konsortium (Hg.) (2008). Unterricht und Kompetenzerwerb in Deutsch und Englisch. Ergebnisse
der DESI-Studie. Weinheim: Beltz.
Dlaska, Andrea/Krekeler, Christoph (2009). Sprachtests. Leistungsbeurteilungen im Fremdpsrachen-
unterricht evaluieren und verbessern. Hohengehren: Schneider.
Douglas, Dan (2010). Understanding Language Testing. London: Hodder Education.
Eckes, Thomas (2011). Introduction to Many-Facet Rasch Measurement. Analyzing and Evaluating
Rater-Mediated Assessments. Frankfurt a. M.: Lang.
Europarat (2001). Gemeinsamer Europäischer Referenzrahmen für Sprachen: Lernen, Lehren, Beurteilen.
Berlin: Langenscheidt.
European Association for Language Testing and Assessment (2006). Guidelines for Good Practice in
Language Testing and Assessment. [Online: http://www.ealta.eu.org/guidelines.htm.] (16. 02. 2015)
Fulcher, Glenn (1996). Does thick description lead to smart tests? A data-based approach to rating scale
construction. In: Language Testing 13, 208–238.
Fulcher, Glenn (2010). Practical Language Testing. London: Hodder Education.
Fulcher, Glenn (2012). Assessment Literacy for the Language Classroom. In: Language Assessment
Quarterly 9, 113–132.
*Green, Anthony (2007). Washback to learning outcomes: a comparative study of IELTS preparation
and university pre-sessional language courses. In: Assessment in Education: Principles, Policy &
Practice 14, 75–97.
Grotjahn, Rüdiger (2007). Qualitätsentwicklung und -sicherung: Gütekriterien von Tests und Test-
aufgaben. In: Der Fremdsprachliche Unterricht Französisch 88, 44–46.
Grotjahn, Rüdiger (2010). Sprachtests: Formen und Funktionen. In: Hallet, Wolfgang/Königs, Frank G.
(Hg.). Handbuch Fremdsprachendidaktik. Seelze-Velber: Kallmeyer, 211–215.
Harsch, Claudia (2012). Der Einsatz von Sprachtests in der Fremdsprachenforschung: Tests als Unter-
suchungsgegenstand und Forschungsinstrument. In: Doff, Sabine (Hg.). Fremdsprachenunterricht
empirisch erforschen: Grundlagen, Methoden, Anwendung. Tübingen: Narr, 150–183.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
*Harsch, Claudia/Martin, Guido (2012). Adapting CEF-descriptors for rating purposes: Validation by a
combined rater training and scale revision approach. In: Assessing Writing 17, 228–250.
*Harsch, Claudia/Martin, Guido (2013). Using descriptors as the basis for analytic rating – impro-
ving level-specific writing assessment. In: Assessment in Education: Principles, Policy & Practice
20, 281–307.
*Harsch, Claudia/Pant, Hans Anand/Köller, Olaf (Hg.) (2010). Calibrating Standards-based Assessment
Tasks for English as a First Foreign Language. Standard-setting Procedures in Germany. Münster:
Waxmann.
*Harsch, Claudia/Rupp, André A. (2011). Designing and scaling level-specific writing tasks in alignment
with the CEFR: a test-centered approach. In: Language Assessment Quarterly 8, 1–33.
International Language Testing Association (2007). ILTA guidelines for practice. [Online: http://www.
iltaonline.com/index.php?option=com_content&view=article&id=182:ilta-code-of-ethics-and-guide
lines-for-practice-as-pdf-files&catid=3] (09. 03. 2015).
Kane, Michael (2001). Current Concerns in Validity Theory. In: Journal of Educational Measurement
38, 319–342.
*Klieme, Eckhard (2008). Systemmonitoring für den Sprachunterricht. In: DESI-Konsortium (Hg.)
(2008). Unterricht und Kompetenzerwerb in Deutsch und Englisch. Ergebnisse der DESI-Studie.
Weinheim: Beltz, 1–10.
*Köller, Olaf/Knigge, Michael/Tesch, Bernd (Hg.). (2010). Sprachliche Kompetenzen im Ländervergleich.
Münster: Waxmann.
Lienert, Gustav/Raatz, Ulrich (1998). Testaufbau und Testanalyse. 6. Auflage. Weinheim: Beltz.
Lumley, Tom (2005). Assessing second language writing: the rater’s perspective. Frankfurt: Lang.
*Marx, Nicole (2005). Hörverstehensleistungen im Deutschen als Tertiärsprache. Zum Nutzen eines
Sensibilisierungsunterrichts im „DaF-nE“. Baltmannsweiler: Schneider Hohengehren. [Referenz-
arbeit, s. Kapitel 7]
McNamara, Tim/Roever, Carsten (2006). Language testing: The social dimension. London: Blackwell.
Messick, Samuel A. (1989). Validity. In: R. L. Linn (Hg.). Educational Measurement. 3. Auflage. Wa-
shington DC: The American Council on Education and the National Council on Measurement in
Education, 13–103.
*Rossa, Henning (2012). Mentale Prozesse beim Hörverstehen in der Fremdsprache. Eine Studie zur
Validität der Messung sprachlicher Kompetenzen. Frankfurt a. M.: Lang.
*Rumlich, Dominik (2012). Die Studie ‚Development of North Rhine-Westphalian CLIL students‘. In:
Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch erforschen: Grundlagen, Methoden, Anwen-
dung. Tübingen: Narr, 169–178.
*Taylor, Lynda/Weir, Cyril J. (Hg.) (2009). Language Testing Matters: Investigating the wider social
and educational impact of assessment – Proceedings of the ALTE Cambridge Conference, April 2008.
Cambridge: Cambridge ESOL and Cambridge University Press.
*Wall, Dianne (2005). The Impact of High-Stakes Examinations on Classroom Teaching: A Case Study
Using Insights from Testing and Innovation Theory. Cambridge: Cambridge ESOL and Cambridge
University Press.
Weir, Cyril (2005). Language Testing and Validation. Oxford: Palgrave.
Bachman, Lyle F. (2004). Statistical analyses for language assessment. Cambridge: Cambridge
University Press.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Bachman, Lyle F./Kunnan, Anthony J. (2005). Statistical analyses for language assessment.
Workbook and CD. Cambridge: Cambridge University Press.
Diese beiden Bände geben eine sehr gute Einführung in die statistische Testanalyse. Das workbook
(mit CD) ergänzt die Monographie um praktische Beispiele und Übungen an realen Datensätzen.
Bachman, Lyle F./Palmer, Adrian S. (2010). Language assessment in practice. Oxford: Oxford
University Press.
Diese Monographie ist eines der Standardwerke in der Testliteratur; sie diskutiert alle wesentlichen
Aspekte des Designs, der Entwicklung und des Nutzens von Sprachtestes und Sprachbeurteilung.
Insbesondere die Ausführungen zum Assessment Use Argument sind bemerkenswert, da sie die
Testnutzung und den Einsatz von Beurteilung in den Mittelpunkt rücken.
Dlaska, Andrea/Krekeler, Christoph (2009). Sprachtests. Leistungsbeurteilungen im Fremd-
sprachenunterricht evaluieren und verbessern. Hohengehren: Schneider.
Dieses Buch wendet sich speziell an Lehrkräfte und Studierende, die für das Klassenzimmer Sprach-
tests entwickeln, verbessern und evaluieren möchten. Ausgerichtet auf die Unterrichtssituation wer-
den Qualitätskriterien vorgestellt und anhand von Beispielen erläutert.
Douglas, Dan (2010). Understanding Language Testing. London: Hodder Education.
Dieser Band bietet eine kurze und leicht verständliche Einführung in die Natur, Entwicklung, Ana-
lyse und den Einsatz von Sprachtests.
Harsch, Claudia (2012). Der Einsatz von Sprachtests in der Fremdsprachenforschung: Tests als
Untersuchungsgegenstand und Forschungsinstrument. In: Doff, Sabine (Hg.). Fremdspra-
chenunterricht empirisch erforschen: Grundlagen, Methoden, Anwendung. Tübingen: Narr,
150–183.
In diesem forschungsmethodischen Artikel werden Sprachtests in ihrer dualen Funktion als For-
schungsinstrument und Untersuchungsgegenstand der Testforschung und -evaluation ausführlich
dargestellt. Ausgehend von Qualitäts- und Gütekriterien diskutiert die Autorin Aspekte der Test-
analyse, der weiterführenden Forschung zur Validierung, zur Bildung von Kompetenzniveaus und
zur Evaluation der Auswirkungen von Tests. Der Beitrag bietet u. a. eine Checkliste, die die Analyse
und Auswahl angemessener Tests für die eigene Forschung erleichtern soll. Darüber hinaus werden
die grundsätzlichen Schritte des Testeinsatzes in Forschungsprojekten praxisorientiert beschrieben.
Kunnan, Anthony J. (Hg.) (2013). The Companion to Language Assessment. Oxford: Wiley-
Blackwell.
Dieses vier Bände umfassende Werk gibt einen aktuellen Überblick über das Gebiet der Sprachbeur-
teilung und -bewertung. Das Referenzwerk deckt 140 Aspekte der Beurteilung in einer Vielzahl von
Kontexten ab. Es wendet sich an Forschende, Praktiker und Lehrkräfte auf dem Gebiet des fremd-
sprachlichen Lehrens und Beurteilens.
Karen Schramm
Nicht erst dann, wenn wichtige Etappen des Forschungsprozesses wie die Gewinnung von
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Dokumenten, Texten oder Daten geschafft sind, stellt sich für den erfolgreichen Abschluss
eines fremdsprachendidaktischen Forschungsprojekts die Frage nach einer zielführenden Auf-
bereitung und Analyse der Daten: Sie sollte bereits bei der Design-Erstellung Berücksichti-
gung finden. Das Methodenspektrum ist diesbezüglich ähnlich breit gefächert wie auch in
Bezug auf die Gewinnung von Dokumenten, Texten und Daten (Kapitel 5.2). Es reicht von der
Analyse historischer Quellen und von interpretativen Vorgehensweisen in Bezug auf deren
Inhalte, Bedeutungen, Muster und Beziehungen (z. B. hermeneutische Verfahren, Grounded
Theory, Dokumentarische Methode und Inhaltsanalyse) über Möglichkeiten der Typenbildung
zu interpretativen Vorgehensweisen in Bezug auf linguistische Aspekte (z. B. diskursana-
lytische Auswertungsmethoden, Analysen von Lernersprache und Korpusanalysen) bis zu
statistischen Verfahren (z. B. deskriptive und inferentielle Statistik oder exploratorische und
konfirmatorische Faktorenanalyse).
Aufbereitung
Die zuvor notwendige Aufbereitung ist dabei keinesfalls als mechanisches Vorgehen zu ver-
stehen, sondern bereits als interpretativer Teil des Auswertungsprozesses. Sie sollte deshalb in
diesem Sinne reflektiert und begründet werden. Beispielsweise stellt sich bei der Aufbereitung
mündlicher Daten in Form von Transkripten die Frage nach einer zielführenden Genau-
igkeit: Sollten bei Interviews beispielsweise Phänomene der Mündlichkeit wie dialektale
Färbung, Reparaturen oder sprachliche Fehler originalgetreu transkribiert oder sollte lieber
eine geglättete Version erstellt werden? Erfordert die Transkription einer videografierten
Unterrichtssequenz beispielsweise die genaue Dokumentation der Intonation, wie sie im
Deutschen bei den Interjektionen (wie dem zustimmenden oder ablehnenden „hmhm“) be-
deutungsunterscheidend ist, und welche nonverbalen und aktionalen Handlungen sollen bei
der Transkription Berücksichtigung finden? Diese Beispiele zeigen, dass Transkriptionen kein
simples, medial schriftliches Abbild mündlicher Daten sind, sondern dass diesbezüglich vor
dem Hintergrund des Analyseziels und -verfahrens zahlreiche Entscheidungen begründet zu
Analyse
Bei der Analyse bedienen sich historische und theoretische Forschungen (Kapitel 3.1 und
3.2) grundsätzlich interpretativer Verfahren; in Bezug auf empirische Studien (Kapitel 3.3)
lassen sich dagegen bei der Datenanalyse interpretative und statistische Vorgehensweisen
unterscheiden.
Die Analyse historischer Quellen (Kapitel 5.3.1) orientiert sich an aus der Geschichtswis-
senschaft übernommenen Verfahren wie der historischen Diskursanalyse oder der Quellen-
kritik, während für hermeneutische Verfahren (Kapitel 5.3.2) in Orientierung an philosophi-
sche und philologische Traditionen die Auslegung von Texten ausschlaggebend ist.
Diese Analyseverfahren sind verwandt mit interpretativen Verfahren zur Analyse empi-
rischer Daten wie der Grounded Theory und der Dokumentarischen Methode (Kapitel 5.3.3)
oder der Inhaltsanalyse (Kapitel 5.3.4), welche von der Fremdsprachendidaktik vorrangig
aus den Sozial- und Verhaltenswissenschaften übernommen bzw. für eigene Zwecke adap-
tiert wurden. Sie stellen beispielsweise Überlegungen zu Kodiervorgängen oder zu Zu-
sammenfassungen ins Zentrum; dabei ist eine gängige Unterscheidung die zwischen daten-
expandierenden und datenreduzierenden Verfahren. Auch Überlegungen zu Typenbildung
(Kapitel 5.3.5) sind vorrangig von diesen Bezugswissenschaften inspiriert. Allerdings handelt
es sich hierbei im Gegensatz zu den gerade genannten Verfahren um ein Vorgehen, das auf
bereits ausgewertete Daten angewendet wird, um auf einer höheren Ebene ‚Ordnung zu
schaffen‘.
Auch von der wichtigen Bezugsdisziplin der Linguistik sind zahlreiche in der Fremdspra-
chendidaktik eingesetzte Analyseverfahren stark beeinflusst. Der Pragmalinguistik entlehnt
sind diskursanalytische Verfahren wie die Interaktionsanalyse und die Funktionale Prag-
matik (Kapitel 5.3.6), die u. a. zum Gesprächsverhalten von Lehrpersonen (z. B. mündliches
Korrekturverhalten, Fragetypen) oder zu Interaktionen in Partner- und Gruppenarbeiten
Aussagen treffen können. Die Analyse von Lernersprache orientiert sich eng an phonetischen,
grammatikalischen, lexikalischen und text-/diskurslinguistischen Bezugsarbeiten und ist ins-
besondere durch die Tradition der Zweitspracherwerbsforschung geprägt (Kapitel 5.3.7). Und
auch korpuslinguistische Studien mit fremdsprachendidaktischer Intention sind klar mit Blick
auf die wichtige Bezugsdisziplin der Sprachwissenschaft zu verorten (Kapitel 5.3.8).
Neben dieser Vielfalt interpretativer Auswertungsverfahren stehen die statistischen Vor-
gehensweisen, die in der Fremdsprachendidaktik bislang eine vergleichsweise geringe Be-
achtung erfahren haben (Kapitel 5.3.9). Wichtige Impulse hierzu erhält die Fremdsprachen-
didaktik insbesondere aus den Sozial- und Bildungswissenschaften, der Psychologie und der
empirischen Bildungsforschung. Das Kapitel 5. 3. 10 stellt die entsprechenden Grundlagen de-
skriptiver und inferentieller Statistik dar, während das Kapitel 5. 3. 11 komplexere statistische
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Für die historische Arbeit kommen alle für die Fremdsprachendidaktik relevanten schriftli-
chen, bildlichen oder gegenständlichen Dokumente in Frage wie z. B. Fachzeitschriften, Lehr-
pläne, Schulbücher oder Fotografien. Die Sammlung dieser Quellen geschieht im zyklischen
heuristischen Prozess des Suchens und Findens; dabei werden Forschungsfrage(n) und Quel-
lenbasis sukzessive präzisiert (siehe Kapitel 5.2.1 und 5.2.2). Wenn ein zu analysierendes
Quellenkorpus vorliegt, das neue Erkenntnisse zu den Forschungsfragen verspricht, folgen
gemäß der klassischen historischen Methode die Schritte der Kritik und der Interpretation der
Quellen, also die intensive Arbeit an den Texten selbst. Im Folgenden wird dieses Vorgehen
in vier Abschnitten geschildert: 1. Quellenkritik, die sich mit der Qualität und Zuverlässig-
keit der Quellen auseinandersetzt, 2. Diskurs und Diskursanalyse, die Rekonstruktion von
Prozessen der sozialen Kommunikation, 3. Kontext, in den die Quellen eingebettet sind, 4.
Interpretation, die Auslegung und Erklärung der Quellen.
1 Quellenkritik
Generell unterscheidet man eine äußere und eine innere Quellenkritik (vgl. Rüsen 2008:
123 ff.). Die äußere Quellenkritik betrifft die Umstände der Quellenentstehung und Quellen-
überlieferung; sie prüft die Echtheit und Vollständigkeit der Quellen. In diesem Zusammen-
hang ist wichtig, in welchem Publikationsorgan (bei gedruckten Quellen) ein Text erschienen
ist und wer der Verfasser ist. Zudem wird man sich genau ansehen, um welche Art von Quelle
es sich handelt: offizielle Dokumente, wissenschaftliche oder journalistische Texte, (auto)bio-
graphische Texte oder persönliche Dokumente (z. B. Tagebuch, Korrespondenz), Lehrmateria-
lien und Lehrerhandreichungen, Rezensionen, Schülerarbeiten, etc., da die Zuverlässigkeit je
nach Quellenart sehr variieren kann.
Die innere Quellenkritik bezieht sich auf Kriterien wie Zeitnähe, Ergiebigkeit und Aus-
sagekraft im Hinblick auf die Forschungsfragen. Für das Kriterium der Zeitnähe ist zu berück-
sichtigen, dass bestimmte Quellengattungen, wie etwa Lehrpläne, eine lange Entstehungszeit
besitzen und daher auch durchaus selbst dann Relevanz besitzen können, wenn sie außer-
halb des eigentlichen Untersuchungszeitraums veröffentlicht wurden. Deswegen kann es
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
16 Dabei wird unter ‚Wort‘ die sprachliche Konvention verstanden, „die zur Bezeichnung eines Sachverhalts
oder Gegenstands benutzt wird“ (Jordan 2009: 123–124). Es geht also um die Bezeichnung eines Konzepts
oder einer Idee hinter dem ‚Wort‘.
2013: 191–193). Auch Doff arbeitet Brüche in der Entwicklung des Mädchenschulwesens zum
Beispiel in Bezug auf die Anforderungen an die Lehrkräfte heraus (vgl. Doff 2002: Kapitel 4).
3 Kontext
Für die Diskursanalyse ist nicht nur die Untersuchung von Texten, Textstellen und Wörtern
relevant, sondern darüber hinaus der weitere Zusammenhang, in welchem diese entstanden
sind. Wenn beispielsweise Doffs Dissertation mit der Erörterung der ideengeschichtlichen
Grundlagen für Weiblichkeit und Bildung im 19. Jahrhundert beginnt (Doff 2002: 25–58)
oder Lehbergers Studie zum Englischunterricht im Nationalsozialismus zunächst die Ein-
bindung der gesamten Lehrerschaft in das Herrschaftssystem behandelt (Lehberger 1986:
13–22), dann geschieht dies in der Absicht, den sozialen, geistigen oder politischen Kontext
zu charakterisieren. Ohne diesen wären die darauf folgenden Ausführungen zur eigentlichen
Frage nach dem Fremdsprachenunterricht unvollständig und würden möglichweise falsch
verstanden werden.
Die Relevanz der Verknüpfung zwischen einem gerade zu untersuchenden Text und wei-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
teren Quellentexten zur Rekonstruktion des Kontexts sei an einem konkreten Beispiel ver-
deutlicht. Aus der Tatsache, dass in einer neuphilologischen Zeitschrift der Nachkriegszeit
für einen Fremdsprachenunterricht plädiert wird, der den Vorstellungen der amerikanischen
Besatzer zur Demokratisierung des deutschen Schulwesens entspricht, könnte man auf eine
Neuausrichtung des Faches nach 1945 schließen. Erst das Heranziehen weiterer Quellen
verrät zum Teil Gegenteiliges (so in Ruisz 2014: Abschnitt 4.1.2). Zum einen müssen also
biographischer Hintergrund und andere Publikationen der jeweiligen Autoren betrachtet
werden, so dass deren Motive und Absichten sowie ihre Stellung in ihrer Berufsgruppe
oder innerhalb der Gesellschaft erschlossen werden können. Zum anderen ist die einge-
hende Kenntnis weiterer zeitgenössischer Texte zu ähnlichen Themen die Voraussetzung
dafür, dass die Bedeutung und Reichweite eines einzelnen Schriftstücks ausgemacht werden
kann.
Obwohl die Intertextualität eine tragende Rolle spielt, muss einschränkend angefügt wer-
den, dass eine Distanzierung von der Gegenwart und ein Eintauchen in den historischen Kon-
text nicht perfekt gelingen kann, da sowohl die Forschungsfragen als auch das individuelle
Vorwissen der Forscher und der Forschungsstand fest in der aktuellen Gegenwart verankert
sind. Daher verweist Kolb in ihrer Dissertation auf die Subjektivität qualitativer Textaus-
legung, die durch das Offenlegen der Vorannahmen und der Methoden der Textinterpretation
kontrolliert werden sollte (Kolb 2013: 29–30). Es ist für die historische Forschung wichtig,
die relative Fremdheit von Konzepten und Ideen der Vergangenheit zu beachten (Rittelmeyer
2006: 3). Nach Skinners Arbeiten im Rahmen der Cambridge School wird diese Fremdheit als
„essential variety“ bezeichnet (Skinner 1969: 52). Historisches ist eben fremd, und es ist nicht
legitim, eine „essential sameness“ anzunehmen (ebd.: 52). Für die Forschungspraxis bedeutet
dies, dass der historisch-soziale Kontext, in dem ein Diskursfragment entstanden ist, gründ-
lich zu erforschen ist; somit ist ein Quellentext stets im jeweiligen historischen Zusammen-
hang intertextuell zu studieren (Overhoff 2004: 325, 328). Nach Skinners Terminologie wird
dieser historische Kontext als „ideological context“ oder einfach als „ideology“ bezeichnet
(Skinner 1966: 287, 313, 317; Overhoff 2004: 326).
Ein weiterer Ansatz, in dem ebenfalls das Augenmerk auf die Eigenheiten der Entste-
hungszeit der analysierten Diskursfragmente gelenkt wird und in dem der Fokus auf dem
Ideologiebegriff liegt, ist die Critical Discourse Analysis, kurz CDA (vgl. dazu van Leeuwen
2009, O’Halloran 2010; zur Adaption der CDA für eine fremdsprachendidaktische Arbeit
siehe Ruisz 2014). Dieser Ansatz kommt aus der Linguistik, wird jedoch inzwischen in ver-
schiedenen Disziplinen verwendet (für die Geschichtswissenschaft etwa Wodak et al. 1990;
für die Erziehungswissenschaft Rogers 2011). Die CDA beruht auf der Grundannahme, dass
sich die Machtstrukturen der Gesellschaft in der Sprache abbilden (O’Halloran 2010: 121) und
somit auch in den Äußerungen Einzelner kein Spielraum für Ideologiefreiheit besteht (Kress
1985: 30; Fowler 1991: 92). Eine gründliche Quellenanalyse lässt somit auf die Ansichten und
Absichten des Verfassers schließen.
In diesem Zusammenhang gehört die Herausarbeitung der Bedeutung der von den Text-
verfassern verwendeten Begriffe zur Untersuchung des Kontexts (Klafki 1971: 141–142,
Rittelmeyer 2006: 46). Die in den Quellentexten verwendeten Begriffe sollten aus ihrer Zeit
heraus verstanden werden; die heutige Begriffsbedeutung darf nicht auf sie projiziert werden
(dazu Klippel 1994: 28–30). Dies fängt schon bei Bezeichnungen an, die vermeintlich völlig
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
eindeutig sind, wie etwa ‚Lesen‘. Doch sind in den Sprachlehren des 18. Jahrhunderts gerade
die Abschnitte zur Aussprache mit „Vom Lesen“ überschrieben (etwa bei König 1755). Auch
haben etwa Schulformen im Verlauf der letzten Jahrhunderte immer wieder Bezeichnungen
getragen, etwa ‚Realschule‘ oder ‚Handelsschule‘, hinter denen sich andere Schulkonzepte
verbergen, als wir sie heute für diese Bezeichnungen kennen. Zum Teil ergeben sich sogar ab-
hängig von der jeweiligen Situation und dem jeweiligen Diskursteilnehmer unterschiedliche
Bedeutungen. Deswegen muss zum Beispiel geprüft werden, ob die amerikanischen Besatzer
unter ‚politischer Bildung‘ im Fremdsprachenunterricht das Gleiche verstanden wie die ein-
heimischen Bildungspolitiker (Ruisz 2015).
Das kontextuelle Vorgehen führt des Weiteren auch dazu, dass erkannt werden kann, was
in einer Quelle nicht erwähnt wird. Die Nicht-Erwähnung mag zum einen darin begründet
sein, dass bestimmte Konzepte oder Verfahren in einer Zeit als so selbstverständlich gelten,
dass sie nicht erwähnt werden müssen. Zum anderen lässt sich aus dem Nicht-Gesagten
auch schlussfolgern, welche Aussagen öffentlich nicht akzeptabel waren oder mit Absicht
gemieden wurden. In dieser Weise kann die Erschließung des Kontexts zu den Werten und
Grundannahmen einer Zeit sowie zu den Motiven und Absichten der am Diskurs teil-
nehmenden Akteure führen, die stets von bestimmten Interessen geleitet sind, wie Klafki
schreibt:
Man trifft auf pädagogische Sachverhalte nicht wie auf ein neutrales Material, pädagogische Sach-
verhalte sind vielmehr immer von der [Kursivsatz im Original] Art, daß Menschen sie aus irgend-
einem Interesse, mit irgendeiner Zielsetzung hervorbringen oder hervorgebracht haben oder daß
Menschen zu ihnen aus bestimmten Interessen heraus, mit bestimmten Zielsetzungen und Vorstel-
lungen Stellung nehmen. (Klafki 1971: 127)
Wissen entsteht nicht nur, indem Zusammenhänge zwischen Texten hergestellt, sondern auch
indem die einzelnen Texte im Hinblick auf die Forschungsfragen gedeutet werden. Dabei
sind subjektive Deutungsmuster zu vermeiden; vielmehr ist darauf zu achten, dass die Inter-
pretation der Quellen intersubjektiv nachvollziehbar ist.
Als übergeordnete Forschungsstrategie bieten sich hermeneutische Verfahren an. Bei der
Hermeneutik, der Auslegung von Texten, geht es um das Verstehen der Quellen (Lengwiler
2011: 58; s. auch Kapitel 5.3.2). Bezogen auf die Interpretation bedeutet dies, dass Sinn-
zusammenhänge und Argumentationslinien im erhobenen Quellenmaterial herauszuarbeiten
sind (Rüsen 2008: 119, 131). Wenn es sich um eine große Anzahl von Texten handelt, sind
diese zunächst zusammenzufassen und zu verdichten, damit diese der Forschung leichter
zugänglich werden. Zum Beispiel werden zum Kernthema der Arbeit von Doff (2002) die
Funde leicht lesbar dargestellt (v. a. in Kapitel 5), so dass sich weitere Forschungsarbeiten
anschließen lassen.
Im Zuge eines hermeneutischen Verstehensprozesses sind die Quellentexte also vor allem
aus sich selbst heraus zu verstehen. In dieser Weise beschreibt der Historiker Koselleck das
‚Vetorecht der Quellen‘:
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Streng genommen kann uns eine Quelle nie sagen, was wir [Historiker] sagen sollen. Wohl aber
hindert sie uns, Aussagen zu machen, die wir nicht machen dürfen. Die Quellen haben ein Veto-
recht. Sie verbieten uns, Deutungen zu wagen oder zuzulassen, die aufgrund eines Quellenbefundes
schlichtweg als falsch oder als nicht zulässig durchschaut werden können. (Koselleck 1979: 206)
Trotz dieses ‚Vetorechts‘ verleitet reines ‚Verstehen‘ dazu, sich intuitiv in die Quellen hinein-
zuversetzen (Lengwiler 2011: 59–62). Deswegen muss die Interpretation geordnet ablaufen,
wobei die Unterscheidung zwischen Makro- und Mikroanalyse hilfreich ist (Landwehr 2008:
113–124). Beim makroanalytischen Vorgehen werden der Inhalt und die Struktur des vor-
liegenden Textes erarbeitet. Mikroanalytisch wird hingegen vorgegangen, wenn Argumenta-
tion, Rhetorik und Stil untersucht werden. Wie in vielen diskursanalytischen Arbeiten werden
auch in Kolbs Dissertation (Kolb 2013) beide Analyseverfahren kombiniert: Auch wenn der
Schwerpunkt auf der Herausarbeitung der inhaltlichen Aussagen zu kulturellen Sachinhalten
des Englischunterrichts in Lehrplänen und fremdsprachendidaktischen Veröffentlichungen
liegt, wird an ergiebigen Stellen auch die rhetorische und stilistische Gestaltung im Detail
untersucht. So dienen beispielsweise häufig verwendete Metaphern dazu, die diskursiven
Positionen in der Anspielung auf positive oder negative Konnotationen in andere Diskurs-
stränge einzubinden und umso eindrücklicher vorzubringen (Kolb 2013: 283–286). Dabei
sind im Prozess des ‚hermeneutischen Zirkels‘ (Gadamer 61990 [1960]: 270–312) auch immer
wieder die Forschungsfragen zu überprüfen und eventuell anzupassen.
In der historischen Forschung zur Fremdsprachendidaktik gilt die Hermeneutik als überge-
ordnete Forschungsstrategie (so in Doff 2002; Doff 2008; Kolb 2013; Ostermeier 2012; Ruisz
2014). Der Grund hierfür ist offensichtlich: Historische Forschung hat zumeist die Quellen im
Blick, die zunächst ‚verstanden‘ werden müssen. Im Allgemeinen ist derzeit in der Geschichts-
wissenschaft der Trend zu beobachten, dass man sich hermeneutischen Verfahren zuwendet
(vgl. Lengwiler 2011: 85, 87). In diesem Zusammenhang spielt der so genannte linguistic
turn eine Rolle, durch den ein gesteigertes Interesse an Texten entstanden ist, in welchem
das Subjekt sprachlich zum Ausdruck bringt, wie es seine Umgebung wahrnimmt (Lengwiler
2011: 87; Jordan 2009: 189).
Dass dieser hermeneutische Ansatz jedoch die Forschungsstrategie der ‚Analytik‘ nicht
ausschließt, ist eindeutig. Bei der Analyse von Diskursen konzentriert man sich auf die
sprachlichen Äußerungen historischer Personen und Institutionen, die in einem jeweiligen
Kontext eingebunden sind (Lengwiler 2011: 87–90; Jordan 2013: 192-193) – das ist der Punkt,
an dem es dann neben dem ‚Verstehen‘ doch ergänzend auf die ‚Erklärungen‘ der Wissen-
schaft ankommt; nur so kann die Qualität der historischen Untersuchung gesichert werden.
Die Analytik orientiert sich nicht nur an den Quellentexten, also der Empirie, sondern auch
am theoretischen Erkenntnisinteresse (Rüsen 2008: 145; Lengwiler 2011: 94–95, 272). Es
sind die Kausalitäten zwischen den geschichtlichen Ereignissen und Handlungen der Dis-
kursteilnehmer zu erklären. Forschungsarbeiten, die sich rein auf das ‚Verstehen‘ der Quellen
beschränken, lassen neue Erklärungen für die gelieferten Quellendeutungen vermissen. Wenn
zum Beispiel erkannt wird, dass die amtlichen Verlautbarungen der US-amerikanischen Be-
satzungsmacht für den Englischunterricht im Bayern der Nachkriegszeit nur wenig ergiebig
sind, ist dies ein Befund, der weiterer Erklärungen bedarf; der Leser möchte erfahren, warum
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
»» Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit
einem Sternchen markiert.
*Doff, Sabine (2002). Englischlernen zwischen Tradition und Innovation. Fremdsprachenunterricht für
Mädchen im 19. Jahrhundert. München: Langenscheidt-Longman. [Referenzarbeit, s. Kapitel 7]
*Doff, Sabine (2008). Englischdidaktik in der BRD 1949–1989. Konzeptuelle Genese einer Wissenschaft
im Dialog von Theorie und Praxis. München: Langenscheidt.
Fowler, Roger (1991). Critical Linguistics. In: Malmkjær, Kirsten (Hg.). The Linguistics Encyclopedia.
London: Routledge, 89–93.
Gadamer, Hans Georg (61990 [1960]). Wahrheit und Methode. Grundzüge einer philosophischen Her-
meneutik. Tübingen: Mohr.
Haslinger, Peter (2006) Diskurs Sprache, Zeit, Identität. Plädoyer für eine erweiterte Diskursgeschichte.
In: Eder, Franz X. (hg.) Historische Diskursanalysen. Genealogie, Theorie, Anwendungen Wiesbaden:
VS Verlag für Sozialwissenschaften, 27–50.
Höhne, Thomas (2010). Die thematische Diskursanalyse – dargestellt am Beispiel von Schulbüchern.
In: Keller et al., 423–453.
Jäger, Siegfried (2009). Kritische Diskursanalyse. 5. Auflage. Münster: Unrast.
Historische Methode
Heuristik Kritik Interpretation
Jordan, Stefan (2009). Theorien und Methoden der Geschichtswissenschaft. 2. Auflage 2013. Paderborn:
Schöningh.
Keller, Reiner (2011). Diskursforschung. Eine Einführung für SozialwissenschaftlerInnen. 4. Auflage.
Wiesbaden: VS Verlag für Sozialwissenschaften.
Keller, Reiner/Hirseland, Andreas/Schneider, Werner/Viehöver, Willy (Hg.) (2010). Handbuch Sozial-
wissenschaftliche Diskursanalyse. Forschungspraxis. Bd. 2. 4. Auflage. Opladen: VS Verlag für Sozi-
alwissenschaften.
Klafki, Wolfgang (1971). Hermeneutische Verfahren in der Erziehungswissenschaft. In: Ders. (Hg.).
Funk-Kolleg Erziehungswissenschaft. Bd. 3. Frankfurt/M.: S. Fischer, 126–153.
*Klippel, Friederike (1994). Englischlernen im 18. und 19. Jahrhundert. Die Geschichte der Lehrbücher
und Unterrichtsmethoden. Münster: Nodus.
*Kolb, Elisabeth (2013). Kultur im Englischunterricht: Deutschland, Frankreich und Schweden im Ver-
gleich (1975–2011). Heidelberg: Carl Winter.
König, Johann (1755). Der getreue englische Wegweiser. 6. Auflage. Leipzig: Jacobi.
Koselleck, Reinhart (1979). Vergangene Zukunft. Zur Semantik geschichtlicher Zeiten. Frankfurt/ M.:
Suhrkamp.
Kress, Gunther R. (1985). Ideological structures in discourse. In: van Dijk, Teun Adrianus (Hg.). Hand-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
book of discourse analysis. Discourse analysis in society. Bd. 4. London: Academic Press, 27–42.
Landwehr, Achim (2008). Historische Diskursanalyse. Frankfurt am Main: Campus-Verlag.
*Lehberger, Reiner (1986). Englischunterricht im Nationalsozialismus. Tübingen: Stauffenburg.
Lengwiler, Martin (2011). Praxisbuch Geschichte. Einführung in die historischen Methoden. Zürich:
Orell Füssli.
O’Halloran, Kieran (2010). Critical discourse analysis. In: Malmkjær, Kirsten (Hg.). The Routledge Lin-
guistics Encyclopedia. 3. Auflage. London: Routledge, 121–126.
*Ostermeier, Christiane (2012). Die Sprachenfolge an den höheren Schulen in Preußen (1859–1931). Ein
historischer Diskurs. Stuttgart: ibidem-Verlag.
Overhoff, Jürgen (2004). Quentin Skinners neue Ideengeschichte und ihre Bedeutung für die historische
Bildungsforschung. In: Jahrbuch für historische Bildungsforschung 10, 321–336.
Rittelmeyer, Christian (2006). Einführung in die pädagogische Hermeneutik. Darmstadt: Wissenschaft-
liche Buchgesellschaft.
Rogers, Rebecca (Hg.) (2011). An introduction to critical discourse analysis in education. New York:
Routledge.
*Ruisz, Dorottya (2014). Umerziehung durch Englischunterricht? US-amerikanische Reeducation-Politik,
neuphilologische Orientierungsdebatte und bildungspolitische Umsetzung im nachkriegszeitlichen
Bayern (1945–1955). Münster: Waxmann.
*Ruisz, Dorottya (2015). Social education as reeducation: The implementation of US-American policies
in the English language classrooms of Bavaria (1945–1951). In: Paul, Heike/Gerund, Katharina (Hg.).
Die amerikanische Reeducation-Politik nach 1945: Interdisziplinäre Perspektiven auf „America’s
Germany“. Bielefeld: transcript, 161–184.
Rüsen, Jörn (2008). Historische Orientierung. Über die Arbeit des Geschichtsbewußtseins, sich in der
Zeit zurechtzufinden. 2. Auflage. Schwalbach/Ts: Wochenschau Verlag.
Skinner, Quentin (1966). The ideological context of Hobbes’s political thought. In: The Historical Journal
9, 286–317.
Skinner, Quentin (1969). Meaning and understanding in the history of ideas. In: History and Theory 8
(1), 3–53.
van Dijk, Teun Adrianus (1988). News analysis. Case studies of international and national news in the
press. Hillsdale, NJ: Erlbaum.
van Leeuwen, Theo (2009). Critical discourse analysis. In: Mey, Jacob (Hg.). Concise encyclopedia of
pragmatics. 2. Auflage. Amsterdam: Elsevier, 166–169.
Wodak, Ruth/Nowak, Peter/Pelikan, Johanna/Gruber, Helmut/de Cillia, Rudolf/Mitten, Richard (1990).
„Wir sind alle unschuldige Täter!“ Diskurshistorische Studien zum Nachkriegsantisemitismus. Frank-
furt/M.: Suhrkamp.
In dieser Monographie argumentiert der Autor, dass sich die Diskursanalyse als Methodik für die
historische Forschung eignet, und stellt dar, wie diese forschungsmethodische Vorgehensweise für
historische Arbeiten angewendet werden kann.
Rüsen, Jörn (2008). Historische Orientierung. Über die Arbeit des Geschichtsbewußtseins, sich
in der Zeit zurechtzufinden. 2. Auflage. Schwalbach/Ts: Wochenschau Verlag.
In dem Kapitel „Historische Methode“ (S. 116–149) wird der Leser in die Grundlagen historischen
Arbeitens eingeführt. Die Regulative der Forschung ‚Heuristik‘, ‚Kritik‘ und ‚Interpretation‘ sowie
die Forschungsstrategien der ‚Hermeneutik‘ und ‚Analytik‘ werden klar beschrieben.
Overhoff, Jürgen (2004). Quentin Skinners neue Ideengeschichte und ihre Bedeutung für die
historische Bildungsforschung. In: Jahrbuch für historische Bildungsforschung 10, 321–336.
In diesem Aufsatz erläutert der Verfasser Quentin Skinners außerordentlichen Beitrag zur neuen
Ideengeschichte. Anhand von Beispielen wird die Bedeutung des historischen und diskursiven Kon-
texts aufgezeigt und erklärt, wie ideengeschichtlich geforscht werden kann.
Laurenz Volkmann
(Gadamer 1965: 290). In der Tradition Gadamers gelangt das hermeneutische Paradigma
zum Tragen, wenn Forscher/innen Lebenswelten und Kulturpraxen in einem dialektischen
Wechselspiel zwischen Beobachter/Interpreten und „Text“ (Medien, Personen, Praxen) er-
kunden, wenn es sich dabei um Prozesse der Ko-konstruktion von Bedeutung handelt, in
denen die subjektive Perspektive hinterfragt wird.
Diese breit angelegte Definition verdeutlicht, dass das hermeneutische Interaktionspara-
digma auch in der Erforschung des Fremdsprachenunterrichts, des Fremdsprachenlernens
und bei Fragen interkultureller Sinnbildung grundsätzliche Bedeutung aufweist: Denn die
jeweils bei Prozessen der Bedeutungsaushandlung Beteiligten – wie Betrachter, Lernende,
Lehrende, „Texte“ (wie Medien, Literatur, kulturelle Artefakte usw.) – sind stets als historisch
situierte Elemente eines eingehender zu erkundenden, jeweils nur partiell zu beschreibenden
Prozesses der Verstehensentfaltung zu verstehen. Ein derartiger Prozess der Bedeutungsauf-
klärung kann eben keinesfalls eine allgemeine, transkulturelle, sich intersubjektiv stets gleich
formierende Gültigkeit beanspruchen.
Als Wissenschaftstradition ging die Hermeneutik unmittelbar ein in ein fremdsprachendi-
daktisches Bildungsverständnis, welches – philologisch orientiert – auf die Vermittlung kano-
nischer Werke setzte und eine ästhetisch-literarische Bildung akzentuierte. Vor allem die Lite-
ratur- und Kulturdidaktik greift hermeneutische Ansätze der Rezeptionsästhetik auf (Bredella
2010: 18–30), indem sie sich von einem rein textimmanent ausgerichteten oder gar autoren-
zentrierten Verständnis von Textinterpretation und -analyse gelöst hat und Texterschließung
primär als dialogische, offene Interaktion zwischen Rezipient/in und „Text“ versteht (im Sinne
eines erweiterten, semiotisch zu bezeichnenden Textbegriffs bezieht sich die hermeneutische
Herangehensweise zunehmend auch auf kulturelle Texte, Kulturen oder kulturell Andere). Es
entwickelte sich zugleich der für deutschsprachige Länder bedeutsame Forschungsstrang der
Auseinandersetzung mit dem Fremdverstehen – also einer philosophisch akzentuierten Aus-
einandersetzung mit dem Thema interkulturelles Lernen unter besonderer Berücksichtigung
des Zugangs zum Fremden durch Literatur und/oder Medien. Dabei tritt in hermeneutischer
Tradition der Bildungswert literarisch-ästhetischer Herangehensweisen hervor.
Hermeneutische Zugriffe sind nicht nur für kultur- und literaturdidaktische Forschungen
von großer Relevanz, sondern auch für qualitativ-empirische Untersuchungen (vgl. etwa im
Überblick bei Bortz/Döring 2006). Bei der Aufbereitung, Darstellung und Analyse empirisch
gewonnener Daten kommen Grundmuster der Hermeneutik (siehe unten) zur Anwendung,
vor allem wenn es um kritische Herangehensweisen unter Berücksichtigung von Subjektivi-
tät, Voreingenommenheit und Interessenshintergrund empirischer Forschungsprojekte geht
(vgl. Kapitel 5.3.3, 5.3.4, 5.3.5).
bettung in andere Kontexte zu verstehen, als Teil eines soziokulturellen Diskurses, der weit
über Texte, Gegenstände usw. hinausgeht und vor allem Wertvorstellungen, Ideologien und
Normen beinhaltet, die der jeweils zu deutende Text verhandelt. Deutlich wird die Bedeutung
kontextueller Interpretationen beispielsweise in Studien zur Rezeption fremdkultureller Tex-
te – in ihrer Studie zur Fremdwahrnehmung amerikanischer Indianerkulturen (indigenous
people) kann Grimm (2009) etwa aufzeigen, wie stark negativ bestimmte tradierte Hetero
stereotype die Auseinandersetzung mit Indianerkulturen im deutschsprachigen Kulturraum
vorgeformt haben.
Die kulturanalytische Interpretation: Diese Deutungsrichtung bewegt sich in Richtung der
kritischen Aufdeckung und „Entlarvung“ der soziohistorischen Konstellationen, in welchen
der jeweilige Text situiert ist, und erkundet beispielhaft die Frage, wie ein Text sich hierzu
affirmativ, oppositionell oder subversiv verhält. Die kulturanalytische Interpretation kann
durchaus in eine emanzipatorische, auf bildungspolitische Veränderung drängende Richtung
deuten, wie in den oben angesprochenen Studien auf unterschiedliche Weise akzentuiert wird.
Die Grunddeutungsmethode ist dabei die des hermeneutischen Zirkels, der paradigmatisch
bei der Interpretation von historischen Quellen zur Anwendung kommt: Das sich spiral-
förmig bewegende Deuten eines Textes unternimmt zunächst den Versuch, ein Grundver-
ständnis, eine allgemeine Einordnung des Textes zu etablieren. Ausgehend davon werden die
einzelnen Elemente des Textes analysiert und die daraus gewonnenen Einsichten gelangen
anschließend wieder mit dem Gesamttext in einen sinnerhellenden Verständniszusammen-
hang. Im sequenziellen Wechselspiel des wiederholten Berücksichtigens von Teilen und Gan-
zem entsteht dabei sukzessive ein tieferes, durchdringendes Verständnis des Textes in seiner
Gesamtheit wie in seinen Teilen (vgl. auch Bortz/Döring 2006: 303, Garz 2010: 356; speziell
Baacke 1993). Das Verfahren des hermeneutischen Zirkels birgt jedoch auch die Gefahr des
Zirkelschlusses mit sich selbst in sich – wenn die Interpretation zur self-fulfilling prophecy
gerät: Der/die Forschende glaubt im Gegenstand etwas zu erkennen, welches sich im Auge
des Betrachters dann in den Einzelteilen des Gegenstandes spiegelt; die am Gegenstand er-
kannten Eigenschaften werden dann auch in anderen Gegenständen erkannt und zunehmend
als Bestätigung der Eingangswahrnehmung gedeutet. Das durch Vorwissen bzw. Vorurteile
geprägte Wissen wird lediglich bestätigt. Es stellt sich hierbei die Grundsatzproblematik jeg-
licher Forschungstätigkeit, nämlich wie mit dem eigenen Vorwissen umzugehen ist: Wie ist
es selbstreflexiv zu thematisieren und zu beachten? Wie affiziert die eigene Beobachtungs-
perspektive den Forschungsvorgang?
Wie in der fremdsprachendidaktischen Forschung mit den Gefahren des hermeneutischen
Trugschlusses auf unterschiedliche Weise umgegangen wird, sei anhand zweier prägnanter
Beispiele illustriert: In ihrer Überblicksstudie zur Rolle der Konstruktion von binärer Ge-
schlechteropposition in fachdidaktischen Publikationen der letzten Jahrzehnte kann Barbara
Schmenk (2009) nachweisen, wie die oben beschriebene Forschungsfigur der self-fulfilling
prophecy fremdsprachendidaktische Studien geformt hat, da diese den Unterschied zwischen
der sozial konstruierten Kategorie gender und der biologisch vorgegebenen Kategorie sex
unbeachtet ließen.
[K]ritikwürdig ist hier nicht nur, dass gender nicht als sozial konstruiert verstanden wird, sondern
etwas Grundlegenderes: Es sind nicht Verhalten, Eigenschaften oder soziale Praktiken der Pro-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
banden, deren soziale Konstituiertheit Forscher nicht genügend berücksichtigen, sondern es sind
die Geschlechtsbilder der Forschenden, die einen bestimmten hegemonialen Geschlechterdiskurs
immer wieder reproduzieren, indem sie von diesem hervorgebrachte ‚Wahrheiten‘ in ihren Arbeiten
fortwährend bestätigt sehen. (Schmenk 2009: 230 [Hervorhebung im Original])
Das Ausbrechen aus dem Circulus vitiosus der eigenen Vorannahmen oder Vorurteile er-
scheint entsprechend als eine wesentliche Prämisse für fremdsprachendidaktische Forschung,
wie sich dies am Beispiel Gender, aber auch mit Bezug auf Ethnie, Alter, Motivation, Be-
gabung usw. erläutern ließe (vgl. auch Ertelt-Vieth 1999). Während Schmenk derartige, die
Forschungsergebnisse auf verfälschende Weise präfigurierenden Denkmuster aufdeckt, geht
Werner Delanoy den genau entgegengesetzten Weg, indem er fremdsprachliche Unterrichts-
situationen (hier ein selbst gehaltenes literatur- und kulturdidaktisches Seminar) vor allem
daraufhin untersucht, inwieweit die Perspektive der Lehrperson bzw. des partizipierenden
Unterrichtsforschers von Vorannahmen bestimmt ist. Er begreift seine Auseinandersetzung
mit der Praxis als explorative Studie, bei der gerade jene Momente kritisch-selbstreflexiv
ausgeleuchtet werden, in denen die eigenen theoretischen Konzepte mit der praktischen Er-
fahrung, vor allem dem Respons der Lernenden, in den Konflikt geraten und ein intensives
Nachdenken erforderlich machen. Mit Gadamer erkennt Delanoy (2002a: 40) gerade das
„Enttäuschtwerden“, die Diskrepanz zwischen Erwartung und Erfahrung, als den Impuls, der
„neue Einsichten möglich sowie für neue Lernprozesse offen macht“. Dadurch ergibt sich ein
Klären der eigenen Forscherperspektive, welche ein theoretisch-konzeptuelles „retheorising
and reformulating auf der Grundlage einer reflektierten Betrachtung“ (ibid.: 55) von eigenem,
aber auch von fremdem Unterricht anstrebt.
Da Fragen des menschlichen Verstehens zum Schlüsselproblem wissenschaftlichen For-
schens und Erkenntnisgewinns gehören, gelangen hermeneutische Verfahren – oftmals ohne
als solche identifiziert zu werden – in allen Wissenschaftsdisziplinen zum Tragen (zur Bedeu-
tung für erziehungs- und bildungswissenschaftliche Fragestellungen vgl. die Überblicke bei
Bortz/Döring 2006, Garz 2010, Klein 2010, Rittelmeyer 2010). Prinzipielle Gemeinsamkeiten
finden sich gerade zu den für empirische Verfahrensweisen bedeutsamen Bezugswissenschaf-
ten der anthropologischen und ethnologischen Forschung (s. Kapitel 5.3.1, 5.3.3). Wie diese
(etwa bei Vertretern der Chicagoer Schule und des symbolischen Interaktionalismus) betont
die Hermeneutik, dass Sinn jeweils in der Interaktion situativ ausgehandelt wird, dass alle
Daten bereits Auslegungen darstellen und dass jede Präsentation komplexer Wirklichkeiten
gleichzeitig und unvermeidbar eine Deutung von Handlungen, Äußerungen und Dokumen-
ten ist. Hermeneutische Verfahrensweisen gleichen dabei dem Geertz’schen Paradigma der
dichten Beschreibung einer „Vielfalt komplexer, oft übereinander gelagerter oder ineinander
verwobener Vorstellungsstrukturen, die fremdartig und zugleich ungeordnet und verborgen
sind“ (Geertz 1983: 15). Sie gilt es, mit größtmöglicher Sorgfalt und Präzision – gleichsam
in archäologischer Feinarbeit – aufzudecken und zu deuten. Die oben genannten kontext-
orientierten und kritischen Herangehensweisen der Hermeneutik zeigen zudem eine evidente
Nähe zu – und verbinden sich zugleich deutlich mit – kritischen Formen der Diskursanalyse
(Foucault 1972, Fairclough 1992), kulturwissenschaftlichen Ansätzen der race, class and
gender studies und der kritischen Stereotypenforschung.
Die Hermeneutik hat vor allem mit ihrer bei Gadamer paradigmatisch diskutierten Schlüs-
selproblematik des Verstehens des Anderen ihre Bedeutung für die Fremdsprachendidaktik
erhalten. Denn das Andere, welches bei Gadamer zunächst der andere literarische Text oder
die andere Person war und in der Alteritätsforschung in vielfachen Manifestationen (Gender,
Ethnie usw.) untersucht wird, wurde in der Fremdsprachendidaktik als das fremdsprachlich
und kulturell Andere fokussiert – vom Text über das Individuum bis zu Gemeinschaften.
Zentral geraten hier Prozesse des Fremdverstehens in den Vordergrund, von den eher kultur-
wissenschaftlich ausgerichteten Vertretern der Alteritätsforschung und Xenologie (der „Lehre“
vom Fremden, vgl. im Überblick Wierlacher/Albrecht 2008) über die Grundproblematiken
interkulturellen und transkulturellen Lernens und der dabei zu vermittelnden Kompetenzen
(vgl. Bredella et al. 2000) bis zu philosophisch-erkenntnistheoretischen wie erkenntnisprak-
tischen Fragestellungen der fremdsprachendidaktischen Forschung im Bereich des Fremdver-
stehens primär durch (literarische) Texte (vgl. Bredella 2010, Bredella et al. 2000, Bredella/
Delanoy 1996; Nünning/Bredella/Legutke 2002).
Zentral für die Diskussion im Bereich des Fremdverstehens ist Gadamers Denkfigur der
Horizontverschmelzung, zu der es beim hermeneutischen Verstehensprozess mit Bezug auf
den (textuellen) Anderen geht: Im Verstehen geschieht eine „Verschmelzung der Horizonte“
(Gadamer 1965: 359; vgl. die Diskussion bei Hellwig 2005). Neuere hermeneutische Ansätze
verstehen diese Horizontverschmelzung weniger als harmonisches Erlangen einer erweiter-
ten Verstehensebene, sondern vielmehr als offenen, nur begrenzt lenkbaren, vorhersehbaren
und beendbaren Langzeitprozess der Interaktion (v. a. Delanoy 2002a). Dieser Prozess des Er-
fahrens und Verstehens ist potenziell dann besonders fruchtbar und gewinnbringend, wenn es
zu einem „Enttäuscht-Werden“ bisheriger Erfahrungen kommt. Erst in der Irritation eröffnet
sich die Möglichkeit neuer Einsichten – bisweilen nicht vorhersehbare Lernprozesse werden
ausgelöst und erweitern sukzessive bisherige Verstehens- und Handlungshorizonte. Werner
Delanoy beschreibt den hermeneutischen Ansatz in der Tradition Gadamers als zentriert
auf das „Kennenlernen neuer Positionen“; dies führt zu „neuen Sichtweisen, Hinterfragen
der eigenen Horizonte, der eigenen Verstehensvoraussetzungen“; die Konfrontation mit dem
Anderen birgt die Chance in sich, „die eigene Verstehens- und Handlungsmöglichkeit (selbst)
kritisch zu erweitern“ (alle Zitate bei Delanoy 2002a: 15). Lothar Bredella hat in diesem
Zusammenhang einflussreich auf das Wechselspiel von Außen- und Innenperspektive beim
Prozess des Fremdverstehens aufmerksam gemacht: Der Erkenntnis- und Bildungsprozess,
der letztlich Rückkoppelungen auf die Veränderung des eigenen Vorverständnisses hat, stellt
sich damit als komplexe Wechselbeziehung von Perspektivenübernahme, Perspektivenwech-
sel und Perspektivenkoordination dar (Bredella 2010: xxiv). Bredella und andere verweisen
dabei auf die Gefahren einer Reduktion des Fremden auf vertraute Verstehensschemata, ge-
langen jedoch zu der Einsicht, dass Kulturen nicht allein aus sich selbst heraus verstehbar
sind, sondern auch von außen, aus der Distanz, wenn hermeneutische Prinzipien – Bewusst-
machung habitualisierter Vorstellungen, Dialog, Prozessartigkeit, Interaktion, Offenheit –
berücksichtigt werden.
Bei Gadamer (wie auch in den Forschungsarbeiten von Lothar Bredella, Karlheinz Hellwig,
Hans Hunfeld und Ansgar Nünning) erhält die Literatur einen privilegierten Status im Kon-
text des Verstehens. Werke herausragender Qualität, so eine hermeneutische Grundannahme
und zugleich ein ethischer Anspruch, regen besonders zu verlangsamten, reflektierenden
Wahrnehmungsprozessen an. Ihre semiotische Dichte sowie ihre künstlerisch kreierten Unbe-
stimmtheiten produzieren eine intrikate Appellstruktur, welche Lesende und auch Lernende
dazu auffordert, Bedeutung zu interferieren – die Rezeption fremdsprachiger oder fremd-
kultureller Texte stelle beim Prozess der Horizontverschmelzung bzw. bei der sukzessiven
Horizontaushandlung einen „gesteigerte[n] Fall hermeneutischer Schwierigkeit, d. h. von
Fremdheit und Überwindung derselben“ (Gadamer 1965: 365) dar. Das Potenzial der litera-
rischen Kunst, die enigmatische, irritierende Ambivalenz ihres Verweisens durch Leer- und
Unbestimmtheitsstellen wird in der von Gadamer beeinflussten Rezeptionsästhetik (v. a. bei
Iser 1976) besonders hervorgehoben.
Die Literaturdidaktik hat seit den 1970er und 1980er Jahren die von der Rezeptionsästhetik
ausgehenden Impulse einer Bedeutungsverlagerung vom Text auf den individuellen Leser hin
verstärkt aufgegriffen (vgl. Hellwig 2005). Die Appelle zur Verstehenserweiterung, die von
literarischen Texten ausgehen, lassen die individuelle Reaktion der Lernenden in den Mittel-
punkt treten und hinterfragen die Vorstellung von sich objektiv gerierenden, universalen
Deutungsarten oder Musterinterpretationen zu Gunsten eines subjektiven und erfahrungs-
orientierten Literaturverständnisses.
Hermeneutisch orientierte Didaktiker/innen halten die Literatur als besonders geeignet,
um Einblicke in fremdkulturelle Lebenswelten zu erlangen. Die Identifikation von Schülern/
innen mit den Protagonisten/innen von Ich-Erzählungen oder das kurze schauspielerische
Schlüpfen in die Rolle der kulturell differenten Dramenfigur erlauben so das Probehandeln
in fiktiven Welten, eine intensive Teilhabe an der textuellen Fremdheit. Neue Sichtweisen
eröffnen sich in der Konfrontation mit fremden Perspektiven, welches wiederum interkul-
turell wertvolle Prozesse der Empathie, Toleranz und Achtsamkeit gegenüber dem Anderen
anbahne.
5 Forschungsbeispiele
Als beispielhaft für die heuristische Ausrichtung einer Vielzahl literatur- und kulturdidakti-
scher Arbeiten, welche Vorschläge für die Erweiterung des fremdsprachlichen „Schulkanons“
bieten, kann die Studie von Nancy Grimm (2009) gelten. Auf Basis der in Fachpublika-
tionen geführten Debatte zur Erweiterung des literarischen Kanons im Englischunterricht
der Oberstufe (Stichwort „geheimer Kanon“), einer umfangreichen Lehrwerkanalyse und
stichpunktartigen Schülerbefragungen verdeutlicht Grimm die Notwendigkeit, tradierte, auf
erheblichen Vorurteilen fußende Einschätzungen ethnischer Minderheiten in den USA, hier
vor allem der indigenen Bevölkerung, durch didaktisch aufbereitete Vorschläge zu „alter-
nativen“ Texten auszubalancieren. Während diese Arbeit stärker noch in der philologisch-
textinterpretierenden Tradition verankert ist, fokussiert die Studie von Britta Freitag-Hild
(2010), bei ähnlicher Intention (nämlich alternative, stärker an Minderheitenautoren und
-themen orientierte Texte vorzuschlagen), vor allem die gegenwärtige literaturdidaktische
Diskussion um inter- und transkulturelles Lernen; dabei geraten die Komplexe des Fremd-
verstehens und der Perspektivenübernahme – in der Diskussion von Fallbeispielen und beim
Auswerten entsprechender Unterrichtseinheiten – vor allem im Zusammenhang mit dem
Erstellen konkret umzusetzender Aufgabendesigns bzw. Lernaufgaben in den Vordergrund.
Interessant ist diese Studie, weil sie unmittelbar auf den eher theoretisch akzentuierten For-
schungen zum Fremdverstehen durch Literatur (Bredella 2010, Nünning 2000) aufbaut. Die
dort ausgeführten Lernziele der Perspektivenübernahme, Perspektivenkoordination und Em-
pathiefähigkeit mit Hilfe der Literatur, insbesondere der „Minoritätenliteratur“, werden von
der Forscherin in konkrete Aufgabentypologien umgesetzt, deren Wirksamkeit wiederum
in einer empirischen Studie überprüft wird. Die Fragentaxonomie erstreckt sich dabei von
eher Einfühlungsvermögen in der pre-reading phase fördernden Hypothesenbildungen zum
zu lesenden Text über Aufgaben zur Selbstwahrnehmung bis zu produktiven Übungen im
Bereich der Perspektivenübernahme und negotiation of perspectives. Freitag-Hild kann so-
mit nachweisen, dass die Kernthese des hermeneutischen Fremdverstehens-Ansatzes, wie
sie bei Bredella theoretisch entwickelt wurde, vor allem im Rahmen kreativ-produktiver
Herangehensweisen umsetzbar ist und dass sie im Rahmen üblicher empirischer Verfahren
untersuchbar erscheint (Analyse von Lernerprodukten, teilnehmende Beobachtung, Daten-
triangulation usw.).
Als weitere exemplarische Studie sei die Dissertation von Birgit Schädlich (2009) genannt,
die sich auf das literarische Lernen konzentriert, hier im Kontext literaturwissenschaftlicher
Seminare an der Universität. Die qualitativ-empirische Interviewstudie untersucht am Bei-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
238
neue Einzelelemente
struktural
komparativ
experimentell
verändertes Grundverständnis psychologisch-mimetisch
kontextuell
kulturanalytisch
Analyse von Einzelelementen
Umgang mit Literatur usw.). Diese Einstellung verbindet sich bisweilen mit einer Abneigung
gegenüber der Empirie, wie sie sich in Positionen manifestiert, welche literarisch-ästhetische
Bildung als unvereinbar mit empirisch zu messenden Kompetenzrastern verstehen.
Zentrales Untersuchungsfeld der Hermeneutik bleibt der (Verstehens-)Prozess bei der In-
teraktion zwischen Text und Leser im Fremdsprachenunterricht und die Frage nach Zusam-
menhängen, Bedingungen und Konsequenzen von Leseakten. Selbstverständlich müssen da-
bei Aspekte aus pädagogischen, psychosozialen, literatur- und kulturdidaktischen Komplexen
mit berücksichtigt werden. Hier gilt es, Rückkoppelungseffekte zwischen Empirie und Praxis
auszulösen: für Empfehlungen zur Auswahl und zum Einsatz von Literatur und Texten über-
haupt, für die Gestaltung von Unterrichtsmaterialien und Tasks, zur Vorbereitung, Planung
und Durchführung von Unterricht, und auch zur (Weiter-)Qualifizierung von Lehrkräften
(vgl. eingehender die Vorschläge zu Forschungsfeldern bei Burwitz-Melzer 2001: 140–45,
Delanoy 2002a: 166, Delanoy 2002b: 86–88; zum Methodenrepertoire Burwitz-Melzer 2001:
145, Klein 2010: 271).
Zusammengefasst kann aus der Perspektive der hermeneutischen Forschung eine Reihe
von handlungsleitenden kritischen Fragestellungen bei der Aufbereitung, Darstellung und
Analyse von Daten zum Tragen kommen:
– Beachte ich als ForscherIn meine subjektive Perspektive, mein Interessegeleitetsein, meine
Verankerung in bestimmten historischen, sozialen, bildungs- und forschungspolitischen
Diskursmustern? Wie „hinterfrage“ ich meine eigene Position und meine methodischen
Verfahren und wie lege ich diese selbstreflexiv und für meine LeserInnen nachvollziehbar
offen?
– Beachte ich dabei, auch in der Darstellung, welche Stimmen und Positionen ich ausblen-
de bzw. nicht beachte? Bedenke ich die Gründe für diese Akte von Exklusion? Lasse ich
andere, meinen Ansatz möglicherweise radikal in Frage stellende Positionen in meine
Reflexionen oder meine Argumentationsstruktur einfließen, indem ich z. B. Advocatus-
diaboli-Perspektiven durchdenke?
– Beachte ich immer wieder die Gefahr des hermeneutischen Trugschlusses, der darin be-
steht, dass unhinterfragt akzeptierte Vorannahmen oder vorläufig erstellte Hypothesen
meine weitere Auseinandersetzung mit den Daten vorprägen und meine Vor-Urteile letzt-
lich nur bekräftigen? Betrachte ich mein „Gesamtnarrativ“ durchaus auch einmal im Über-
blick kritisch, mit dem Ziel, unterschwellig wirkende Vorannahmen zu revidieren und zu
differenzierten Ergebnissen zu kommen, bei denen eventuell auch ungelöste Probleme und
vorläufige Ergebnisse weiter existieren?
– Richte ich bei historisch ausgerichteten Arbeiten meinen Blick auch auf die historisch-so-
zialen Kontexte der Entstehungsgeschichte von Texten und versuche diese aus sich heraus
zu verstehen (vgl. Kapitel 5.3.1 zur Analyse historischer Quellen)? Bin ich mir bewusst,
dass meine Perspektive entscheidend von gegenwärtigen Erkenntnissen über die Vergan-
genheit geprägt ist?
– Beachte ich bei der Untersuchung von Verstehensprozessen im Fremdsprachenunterricht
den individuell sehr unterschiedlich ausprägten Erfahrungs- und Wissenshorizont der
Lernenden, z. B. bei affektiven Komponenten, dem interkulturellen Moment sowie bei der
Passung von Themen, Inhalten, Texten, Methoden, Kompetenzen und Lernzielen?
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Es gilt nach wie vor die Feststellung von Eva Burwitz-Melzer, die besonderen Forschungs-
bedarf im Bereich der Frage nach dem Stellenwert interkultureller Inhalte erkennt, „wobei
allerdings auf Grund des Mangels an empirischer Forschung bis heute ungeklärt ist, was
eigentlich im Unterricht bei der Behandlung solcher Themen und Inhalte passiert, welche
Lernziele genau ins Auge gefasst werden können und sollen, und wie diese methodisch sinn-
voll umzusetzen sind bzw. in den bereits bestehenden kommunikativ ausgerichteten Fremd-
sprachenunterricht zu integrieren sind“ (Burwitz-Melzer 2001: 139).
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit
einem Sternchen markiert.
Ahrens, Rüdiger (2004). Hermeneutik. In: Nünning, Ansgar (Hg.). Metzler Lexikon Literatur- und Kul-
turtheorie. Ansätze – Personen – Grundbegriffe. 3. Auflage. Stuttgart: Metzler, 252–255.
Baacke, Dieter (1993). Ausschnitt und Ganzes. In: Baacke, Dieter/Schulze, Theodor (Hg.). Aus Geschich-
ten lernen. Zur Einübung pädagogischen Verstehens. München: Juventa, 87–125.
Bortz, Jürgen/Döring, Nicola (2006). Historische Entwicklung des qualitativen Ansatzes. In: Bortz,
Jürgen/Döring, Nicola (Hg.). Forschungsmethoden und Evaluation für Human- und Sozialwissen-
schaftler. 4. Auflage. Heidelberg: Springer, 302–308.
Bredella, Lothar (2010). Das Verstehen des Anderen. Kulturwissenschaftliche und literaturdidaktische
Studien. Tübingen: Narr.
Bredella, Lothar (1997). Minderheitenliteratur und interkulturelles Lernen. In: Der fremdsprachliche
Unterricht Englisch 31/ H. 27, 26–31.
Bredella, Lothar/Delanoy, Werner (Hg.) (1996). Challenges of Literary Texts in the Foreign Language
Classroom. Tübingen: Narr.
Bredella, Lothar/Meißner, Franz-Joseph/Nünning, Ansgar/Rösler, Dietmar (Hg.) (2000). Wie ist Fremd-
verstehen lehr- und lernbar? Vorträge aus dem Graduiertenkolleg „Didaktik des Fremdverstehens“.
Tübingen: Narr.
* Burwitz-Melzer, Eva (2001). A lesson is a lesson is a lesson? – Forschungsmethodik für den Englisch-
unterricht mit fiktionalen Texten und interkulturellen Lerninhalten. In: Müller-Hartmann, Andreas/
Schocker-v. Ditfurth, Marita (Hg.). Qualitative Forschung im Bereich Fremdsprachen lehren und
lernen. Tübingen: Narr, 137–162.
* Delanoy, Werner (2002a). Fremdsprachlicher Literaturunterricht. Theorie und Praxis als Dialog. Tü-
bingen: Narr.
Delanoy, Werner (2002b). Literaturdidaktik und fremdsprachlicher Literaturunterricht: Theorie und
Praxis als Dialog. In: Legutke et. al, 55–98.
Donnerstag, Jürgen (1995). Lesestrategien und Lesetechniken. In: Ahrens, Rüdiger/ Bald, Wolf-Dietrich/
Hüllen, Werner (Hg.). Handbuch Englisch als Fremdsprache. Berlin: Schmidt, 327–329.
* Ertelt-Vieth, Astrid (1999). Eigen- und Gegenbilder in interkultureller Kommunikation: Ein Fall-
beispiel zur prozessorientierten Symbolanalyse. In: Zeitschrift für Fremdsprachenforschung 10/1,
97–131.
Fairclough, Norman (1992). Discourse and Social Change. Cambridge: Polity.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
* Freitag-Hild, Britta (2010). Theorie, Aufgabentypologie und Unterrichtspraxis inter- und transkul-
tureller Literaturdidaktik. British Fictions of Migration im Fremdsprachenunterricht. Trier: WVT.
Foucault, Michel (1972). L’ordre du discours. Paris: Gallimard [1998. Die Ordnung des Diskurses. Frank-
furt: Fischer].
Gadamer, Hans-Georg (1960/1965). Wahrheit und Methode. Grundzüge einer philosophischen Herme-
neutik. 3. Auflage. Tübingen: Mohr.
Garz, Detlef (2010): Objektive Hermeneutik. In: Friebertshäuser, Barbara/Langer, Antje/Prengel, An-
nedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. 3. Auflage.
Weinheim & München: Juventa, 249–262.
Geertz, Clifford (1983). Dichte Beschreibung: Beiträge zum Verstehen kultureller Systeme. Frankfurt
am Main: Suhrkamp.
* Grau, Maike (2001). Forschungsfeld Begegnung: Zum Entstehungsprozess einer qualitativen Fall-
studie. In: Müller-Hartmann, Andreas/Schocker-v. Ditfurth, Marita (Hg.). Qualitative Forschung im
Bereich Fremdsprachen lehren und lernen. Tübingen: Narr, 62–83.
* Grimm, Nancy (2009). Beyond the ‚Imaginary Indian‘. Zur Aushandlung von Stereotypen, kultureller
Identität und Perspektiven in/mit indigener Gegenwartsliteratur. Heidelberg: Winter.
Hellwig, Karlheinz (2005). Bildung durch Literatur. Individuelles Sinnverstehen fremdsprachiger Texte.
Eine literaturdidaktische Tour d’Horizon. Frankfurt am Main: Lang.
Hunfeld, Hans (1990). Literatur als Sprachlehre. Ansätze eines hermeneutisch orientierten Fremdspra-
chenunterrichts. Berlin: Langenscheidt.
Iser, Wolfgang (1976). Der Akt des Lesens. Theorie ästhetischer Wirkung. München: Fink.
Jauß, Hans-Robert (1994). Wege des Verstehens. München: Fink.
Klein, Regina (2010). Tiefenhermeneutische Analyse. In: Friebertshäuser, Barbara/Langer, Antje/Pren-
gel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft.
3. Auflage. Weinheim & München: Juventa, 263–280.
Legutke, Michael K./Richter, Annette/Ulrich, Stefan (Hg.) (2002). Arbeitsfelder der Literaturdidaktik.
Bilanz und Perspektiven. Lothar Bredella zum 65. Geburtstag. Tübingen: Narr.
Nünning, Ansgar (2000). Intermisunderstanding. Prolegomena zu einer literaturdidaktischen Theorie
des Fremdverstehens. In: Bredella, Lothar/Meißner, Franz-Joseph/Nünning, Ansgar/Rösler, Dietmar
(Hg.), 84–132.
Nünning, Ansgar/ Bredella, Lothar/Legutke, Michael K. (2002). Ansgar Nünning im Gespräch mit Lo-
thar Bredella mit einer Einführung von Michael K. Legutke. In: Legutke et al., 99–125.
Rittelmeyer, Christian (2010). Methoden hermeneutischer Forschung. In: Friebertshäuser, Barbara/Lan-
ger, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungs-
wissenschaft. 3. Auflage. Weinheim, München: Juventa, 235–248.
*Schädlich, Birgit (2009). Literatur Lesen Lernen. Literaturwissenschaftliche Seminare aus der Per-
spektive von Lehrenden und Studierenden. Eine qualitativ-empirische Studie. Tübingen: Narr.
*Schmenk, Barbara (2009): Geschlechterspezifisches Fremdsprachenlernen? Zur Konstruktion ge-
schlechtstypischer Lerner- und Lernbilder in der Fremdsprachenforschung. 2. Auflage. Tübingen:
Stauffenburg.
Volkmann, Laurenz (2000). Interkulturelle Kompetenz als neues Paradigma der Literaturdidaktik?
Überlegungen mit Beispielen der postkolonialen Literatur und Minoritätenliteratur. In: Bredella,
Lothar/Meißner, Franz-Joseph/Nünning, Ansgar/Rösler, Dietmar (Hg.). Wie ist Fremdverstehen lehr-
und lernbar? Vorträge aus dem Graduiertenkolleg „Didaktik des Fremdverstehens“. Tübingen: Narr,
164–190.
Wierlacher, Alois/Albrecht, Corinna (2008). Kulturwissenschaftliche Xenologie. In: Nünning, Ansgar/
Nünning, Vera (Hg.). Einführung in die Kulturwissenschaften. Stuttgart: Metzler, 280–306.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Karin Aguado
Ziel des vorliegenden Beitrags ist die Darstellung und Diskussion ausgewählter methodisch-
methodologischer Verfahren, die ursprünglich zur Untersuchung von Fragestellungen der
qualitativen Sozialforschung entwickelt worden sind, sich in jüngster Vergangenheit jedoch
auch bei empirisch arbeitenden Fremdsprachendidaktiker/innen zunehmend großer Beliebt-
heit erfreuen.
Es handelt sind zum einen um die Grounded Theory-Methode bzw. -Methodologie (im
Folgenden mit GTM abgekürzt)17 und zum anderen um die Dokumentarische Methode (im
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
17 Im vorliegenden Text wird kein Versuch unternommen, die Bezeichnung des hier behandelten Verfahrens
der GT ins Deutsche zu übersetzen. Es wird sogar davon abgeraten, es zu tun, weil dies unweigerlich
zu unangemessenen Verkürzungen dieser komplexen Forschungsstrategie führen würde. In der Vergan-
genheit unternommene Vorstöße führten zu Bezeichnungen wie „gegenstandsbegründete“, „gegenstands-
basierte“, „gegenstandsbezogene“ oder auch „datengestützte“ Theoriebildung, wobei keine von ihnen den
Kern des Verfahrens trifft bzw. alle grundsätzlich zu kurz greifen. Aus diesem Grund wird für die Beibe-
haltung der englischsprachigen Originalbezeichnung Grounded Theory plädiert.
Idealfall aussehen kann. Schon an dieser Stelle sei vorweggenommen, dass in der qualitativen
Forschung heute kaum ein methodisches Verfahren in Reinform angewendet wird, sondern
häufig durch spezifische Anpassungen sowie durch Kombinationen mit anderen Verfahren
gekennzeichnet ist.
Mit ihrer Monographie The Discovery of Grounded Theory. Strategies for Qualitative Re-
search haben die beiden Soziologen Barney G. Glaser und Anselm L. Strauss im Jahr 1967 das
Konzept des von ihnen gemeinsam entwickelten Verfahrens für eine datengeleitete Theorie-
generierung veröffentlicht. Ihr Ziel war es, nicht nur generell eine Lanze für eine qualitative
empirische Herangehensweise an wissenschaftliche Fragestellungen zu brechen und eine Al-
ternative zu den bis dato bevorzugt angewendeten quantitativ-deduktiven Vorgehensweisen
zu entwerfen. Sie wollten darüber hinaus eine Ergänzung zu rein deskriptiven qualitativen
Ansätzen anbieten. Gründe dafür waren die aus ihrer Sicht überfällige Hinterfragung so-
genannter Grand Theories, im Rahmen derer sie selbst sozialisiert worden waren wie z. B.
der Symbolische Interaktionismus oder der Kritische Rationalismus, und die Ermutigung
des wissenschaftlichen Nachwuchses, sich von diesen mächtigen Theorien zu emanzipieren
und in der eigenen empirischen Arbeit neue Wege einzuschlagen. Das zentrale innovative
Merkmal der in der Sekundärliteratur (z. B. von Mey/Mruck 2011: 12) als programmatisch
bezeichneten Veröffentlichung von Glaser/Strauss ist zusammengefasst die Eröffnung der
Möglichkeit, systematisch erhobene Daten nicht nur zu beschreiben und anhand vorgege-
bener Kategorien zu analysieren, sondern sie selbst zur Konzept- und Theoriebildung zu
nutzen.
Es scheint, als habe die qualitativ arbeitende scientific community auf eine solche Heran-
gehensweise gewartet, denn die GTM wurde mit Begeisterung aufgenommen und hat sich
in den vergangenen vier Jahrzehnten fest in der qualitativen Forschung etabliert, wobei fest-
zuhalten ist, dass sie in mehreren Varianten oder Interpretationen ko-existiert. So gibt es so-
wohl im internationalen Vergleich als auch hinsichtlich der verschiedenen wissenschaftlichen
Disziplinen, die sich ihrer bedienen, z.T. unterschiedliche Entwicklungen und Schwerpunkt-
setzungen, auf die weiter unten noch einzugehen sein wird.
18 Da es im Rahmen des vorliegenden Beitrags nicht möglich ist, die gesamte Entwicklung, die allmählich
sich entwickelnde Kontroverse zwischen Barney G. Glaser und Anselm L. Strauss sowie die Weiterent-
wicklungen der GTM durch die zweite Generation nachzuzeichnen, sei an dieser Stelle auf den kon-
tinuierlich aktualisierten Grounded Theory Reader hingewiesen, dessen aktuelle Ausgabe von Mey/Mruck
im Jahr 2011 herausgegeben worden ist.
Im Unterschied zu anderen Forschungsstrategien handelt es sich bei der GTM um ein kom-
plexes, ganzheitliches Verfahren, das sowohl zur Gewinnung als auch zur Analyse und zur
Interpretation von Daten dient. Es integriert also die genannten drei Forschungsphasen bzw.
-ebenen miteinander, die klassische Trennung entfällt: D.h. man wartet mit der Aufbereitung,
Analyse und Interpretation nicht, bis alle Daten erhoben sind, sondern beginnt unmittelbar
nach der ersten Datenerhebung mit der Auswertung, deren Ergebnisse dann das weitere
Vorgehen bestimmen, wie z. B. die Auswahl der als nächstes zu erhebenden Daten. Diese
Vorgehensweise ist konstitutiv für die GTM und bringt für Forschende den großen Vorteil
mit sich, schon gleich zu Beginn des Forschungsprozesses sehr nah an den Daten zu arbeiten,
d. h. sich mit ihnen vertraut zu machen sowie erste Kodierungen und Kategorisierungen vor-
zunehmen. So verringert sich auch das Risiko, sogenannte Datenfriedhöfe zu produzieren,
da im weiteren Forschungsprozess idealiter nur solche Daten erhoben werden, von denen
begründet angenommen wird, dass sie für die jeweilige Arbeit – also für das eigene Erkennt-
nisinteresse, die Beantwortung der Forschungsfrage(n) und das Erreichen des übergeordneten
Forschungsziels – relevant und nützlich sind.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Von der theoretischen Sensibilität über das theoretische Sampling bis zur theoretischen
Sättigung
Zu Beginn ihrer gemeinsamen Arbeit forderten Glaser und Strauss von Forschenden, die mit
dem GTM-Ansatz arbeiten wollten, den völligen Verzicht auf jegliche Lektüre einschlägiger
Literatur und daraus möglicherweise resultierenden theoretischen Begriffsbildungen. Statt-
dessen hielten sie das Vorhandensein einer theoretischen Sensibilität für notwendig und hin-
reichend. Sie meinten damit die Fähigkeit, im Datenmaterial theoretisch relevante Kategorien
sowie zwischen ihnen bestehende Beziehungen entdecken zu können.19 Während Glaser bis
heute an dieser Position festhält, hat Strauss (in seinen Publikationen zusammen mit Cor-
bin) im Laufe der Zeit seine Einstellung zur Einbeziehung vorhandener Forschungsliteratur
geändert bzw. aktualisiert. Glaser zufolge sollte im Vorfeld einer empirischen Arbeit nicht
einmal ein Forschungsbericht angefertigt werden, weil die Kenntnis und Einbeziehung von
Literatur zu einer Kontamination der zu bildenden Kategorien führen könnte und so das ei-
gentliche Ziel der GTM – nämlich eine Theorie aus den Daten emergieren zu lassen – verfehlt
würde. Zu dieser Emergenz könne es aber nur dann kommen, wenn Forschende die Daten
unvoreingenommen und ohne störendes Vorwissen betrachten. Daher sollten erst bei Vor-
liegen der zentralen Kategorien der zu bildenden GT überhaupt andere Informationsquellen
konsultiert werden. Wenngleich Glasers Position theoretisch prinzipiell nachvollziehbar ist,
ist sie gleichzeitig nicht nur unrealistisch und ineffizient, sondern aus heutiger Sicht auch
unwissenschaftlich und somit inakzeptabel. Die Rezeption und Verarbeitung vorhandener
Fachliteratur spielt für jeden Forschungsprozess eine zentrale Rolle – und sie schützt vor un-
angenehmen Überraschungen oder vermeintlichen Neuentdeckungen. Ferner ist unbestritten,
dass empirische Beobachtungen nicht nur von fachlichem Vorwissen, sondern auch von sub-
jektiven Erfahrungen und Erwartungen beeinflusst werden, und so gehört es inzwischen zum
19 Es handelt sich hierbei um eine sehr abstrakte und nicht näher spezifizierte Eigenschaft oder Kompetenz,
bei der sich nicht nur viele Forschungsanfänger/innen fragen, ob und wie man sie erwerben kann oder ob
es sich eher um ein Persönlichkeitsmerkmal handelt, über das man entweder verfügt oder nicht.
für den untersuchten Gegenstand ausgewählt, wobei generell eine maximale Heterogenität
und ein möglichst großer Kontrast zwischen ihnen anzuvisieren sind.
Im Unterschied zu allen strikt sequentiell angelegten hypothesentestenden oder hypothe-
sengenerierenden Verfahren geht die GTM also zyklisch20 vor, d. h. die Erhebung weiterer
Daten, ihre unmittelbare Kodierung und Analyse sowie der kontinuierliche Vergleich mit
bereits kodierten und analysierten Daten zum Zweck der Bildung theoretischer Konzepte
werden so lange betrieben, bis der Forscher/die Forscherin an einem Punkt angelangt ist,
den Glaser und Strauss theoretische Sättigung nennen: Wenn sich also herausstellt, dass die
Erhebung und Analyse von weiteren Daten keinen neuen Erkenntnisgewinn mehr bringen,
die Kategorien bereits maximal dicht und ihre Beziehungen untereinander identifiziert und
benannt sind, gilt die bis dahin aufgestellte Theorie als vorläufig gesättigt. Hinsichtlich der
Güte dieser Theorie sei hier die Position von Mey/Mruck zitiert: „Nicht die Zahl der Fälle,
sondern die Systematik ihres Einbezugs und der Vergleiche macht die Qualität einer GT aus“
(Mey/Mruck 2011: 29). Gleichzeitig muss an dieser Stelle eingeräumt werden, dass es ein sehr
hoch gestecktes Ziel ist, im Rahmen einer einzelnen Studie Sättigung erreichen zu wollen.
In diesem Zusammenhang interessant und sehr sinnvoll erscheint mir daher der Vorschlag
von Dey (1999), hier von Hinlänglichkeit (sufficiency) anstatt von Sättigung (saturation) zu
sprechen. Die skizzierte Iterativität ist für eine begründete und valide Theoriegenerierung
also unverzichtbar, wobei mittels GTM in der Regel die Formulierung von Theorien mittlerer
Reichweite (vgl. dazu Merton 1949) anstrebt wird. Dabei ist festzuhalten, dass die meisten
auf diese Weise gewonnenen Theorien immer nur Teil-Theorien, Entwürfe oder Skizzen sind,
denn: „The published word is not the final one, but only a pause in the never-ending process
of generating theory“ (Glaser/Strauss 1967: 40).
20 Vielfach wird in deutschsprachigen Publikationen hier die meiner Ansicht nach unangemessene Bezeich-
nung ‚zirkulär‘ verwendet. Dieser Terminus impliziert jedoch nicht die gewünschte dynamische Entwick-
lung und verfehlt damit den Kerngedanken der GTM.
stehen die Kategorien im Zentrum und werden systematisch hinsichtlich ihrer Relationen zu
anderen Kategorien beleuchtet und verdichtet.
Im letzten Schritt – dem selektiven Kodieren – geht es um die Ermittlung der Kernkategorie
als Grundlage für die angestrebte Theoriebildung. Die mittels des axialen Kodierens gewon-
nenen Kategorien werden zwecks Bestimmung von Oberkategorien abermals systematisch
klassifiziert, d. h. die praktische Vorgehensweise ist prinzipiell identisch mit dem zweiten
Kodierschritt, das Resultat weist allerdings einen zunehmend höheren Abstraktionsgrad
auf (vgl. Strauss/Corbin 1990: 117). Für die sich nun anschließende Formulierung der zu
generierenden Theorie werden sämtliche interpretativen Schritte miteinander integriert. Ab-
schließend ist die gewonnene Theorie einer Überprüfung an Daten zu unterziehen.
Im Hinblick auf die Qualität der Theoriebildung betont Muckel (2011) zum ersten die
Wichtigkeit des wiederholten genauen Lesens der erhobenen Daten sowie deren permanenter
Vergleich. Zum zweiten stellt sie hinsichtlich der Kategorienbildung folgendes fest:
Außerdem werden die entwickelten Kategorien umso besser (dichter, prägnanter, integrativer), je
mehr es den Forschenden gelingt, u. a. zwischen zwei Einstellungen/Haltungen den Daten gegenüber
zu wechseln [Hervorhebung im Original]: Zum einen sollte versucht werden, eigenen Interpretati-
ons- und Lesartenideen nachzugehen und sie in verschiedenen Datenausschnitten zu belegen. Zum
anderen sollte man immer wieder eine Gegenbewegung dazu antreten und sozusagen fragen, ob
etwas auch anders sein könnte, als es gerade erscheint. Diese beiden Haltungen einzunehmen – also
Belege und Widersprüche in den Daten [Hervorhebung im Original] zu suchen – schleift Kategorien,
indem sie gleichzeitig präzisiert und pluralisiert werden, und das macht sie gut. (Muckel 2011: 351).
Aus seiner Perspektive sicherlich folgerichtig, aus aktueller methodologischer Warte betrach-
tet jedoch nicht haltbar ist Glasers Plädoyer dafür, den mittels der GTM gewonnenen Erkennt-
nissen auch ohne nochmalige Überprüfung zu trauen. Als Argument führt er die Verläss-
lichkeit der Methode des ständigen Vergleichens an. Strübing spricht hier kritisch von einem
21 Die folgenden Ausführungen beziehen sich auf die von Strauss (1987) bzw. Strauss/Corbin (1990) vor-
geschlagene und allgemein etablierte Vorgehensweise.
„objektivistischen Methodenglauben“ (Strübing 2011: 272) auf Seiten Glasers, der davon aus-
gehe, dass eine richtige Methodenanwendung automatisch zu korrekten Ergebnissen führe.
beschuldigte. Zusammenfassend und auf den Punkt gebracht, könnte man es so formulieren:
Während Glaser eine eher streng-puristische Position vertritt, an der ursprünglichen Version
der seinerzeit entwickelten Strategie festhält und sich gegen jegliche Veränderung sperrt,
vertreten Strauss und seine Schüler/innen eine eher pragmatische, nützlichkeitsbezogene
Position mit Blick auf mögliche Weiterentwicklungen und Aktualisierungen des ursprüng-
lichen Ansatzes.22
Es ist unbestritten, dass Glaser und Strauss im Hinblick auf ihre forschungsmethodologi-
sche Reflektiertheit eine nicht zu unterschätzende Pionierfunktion zukommt. Dass sie bereits
in den 1960er Jahren so stark den Prozess des Forschens fokussierten, war innovativ und
für die heutige qualitative Forschung von zentraler Bedeutung: So führten sie das für die
GTM konstitutive Prinzip „Stop and memo!“ ein, durch das der Prozess der Datenkodierung
regelmäßig und systematisch unterbrochen werden soll, um den eigenen Analyse- und Er-
kenntnisprozess durchgängig zu dokumentieren und zu reflektieren. Auch dass die beiden
Forscher der datengeleiteten bottom up-Vorgehensweise gegenüber dem theoriegeleiteten
top down-Verfahren Priorität einräumten, war wegweisend. Die aus meiner Sicht wichtigste
Errungenschaft für die qualitative Forschung ist die Einführung des Prinzips „Analyse von
Anfang an“ und somit das Aufbrechen der – vielfach heute noch üblichen – strikten Linearität
des Forschungsprozesses.23
22 Strübing (2011) vertritt – im Unterschied zu Mey/Mruck 2009 – daher die Position, dass es sich bei
den beiden divergierenden Konzeptionen der GTM wissenschafts- und erkenntnistheoretisch „um zwei
grundverschiedene Verfahren qualitativer Sozialforschung handelt“ (Strübing 2011: 273). Entsprechend
schlussfolgert er, „dass Forschende, die sich auf Grounded Theory berufen, nicht umhin können, sich für
die eine oder die andere der beiden Varianten zu entscheiden.“ (Strübing 2011: 262). Hinzuzufügen ist
hier, dass inzwischen Vertreter/innen der zweiten Generation aktiv und engagiert die Weiterentwicklung
der GTM verfolgen, so z. B. Charmaz (2000) oder Clarke (2005), die an der Entwicklung postmoderner,
konstruktivistischer Varianten der GTM arbeiten.
23 Ein gutes und sehr illustratives Beispiel stellt hier die Arbeit von Muckel (2011) dar.
2 Dokumentarische Methode
Entwicklung, Ziele, Merkmale
objektiven Sinn geht um die gesellschaftliche Bedeutung, die eine Handlung aufgrund ihres
Auftretens innerhalb einer sozialen Institution erhält. Der Ausdruckssinn bezeichnet den sub-
jektiv gemeinten Sinn, also die mit einer kommunikativen Handlung ausgedrückte Absicht.
Beim dokumentarischen Sinn geht es schließlich um das den Akteuren zumeist nicht bewusste
Handlungswissen und die diesem Wissen zugrundeliegenden Ursachen.
Die dokumentarische Analyse fokussiert also auf die Rekonstruktion des konjunktiven Er-
fahrungsraums: „Indem man sie [= maximal interaktiv oder metaphorisch dichte Textstellen,
K. A.] als Sinnkonstruktionen interpretativ rekonstruiert (Oberflächenstruktur), ergeben sich
gleichzeitig Verweise auf Haltungen, Wissensbestände, Gefühle oder Überzeugungen, durch
die ihr Zustandekommen erklärt werden kann (Tiefenstruktur)“ (Bonnet 2012: 292).
Das klassische, prototypische Setting für die DM sind Gruppendiskussionen und zwar des-
halb, weil sich die durch einen konjunktiven Erfahrungsraum erworbenen gemeinsamen
Orientierungen in solchen Interaktionen am besten materialisieren. Ralf Bohnsack hat in den
1980er Jahren ein Verfahren zur Auswertung von Gruppendiskussionen entwickelt, indem
er die DM von Mannheim durch Methoden der Textinterpretation von Fritz Schütze (1983)
und Oevermann et al. (1979) ergänzte. Bohnsack (1991) unterscheidet insgesamt vier Arbeits-
schritte: 1. Formulierende Interpretation: Dabei werden die in den Interaktionen behandelten
Themen chronologisch nachvollzogen und mittels der von den Akteuren selbst verwendeten
Sprache paraphrasiert und als Fließtext wiedergegeben. 2. Reflektierende Interpretation: Hier-
bei geht es um den dokumentarischen Sinngehalt des Gesagten. Im Fokus stehen interaktional
dichte Passagen, in denen konjunktive Erfahrungen aktualisiert werden. Neben der Analyse
sprachlicher und diskursstruktureller Merkmale sind die Modi der Themenentfaltung von
besonderer Bedeutung. So eröffnen narrative Passagen eher den Zugang zum atheoretischen,
unbewussten Wissen der Akteure, während argumentative Passagen mehr Einblick in das
theoretische, bewusste Wissen ermöglichen. 3. Zusammenfassende Fallbeschreibung: In die-
sem Schritt werden alle zuvor erarbeiteten Einzelinformationen zusammengefasst, wobei die
chronologische Entfaltung des Diskurses (= Diskursdramaturgie) von besonderer Bedeutung
ist. 4. Typenbildung (s. Kapitel 5.3.5): Im Anschluss an die Rekonstruktion und den Vergleich
werden die Orientierungsrahmen der Einzelfälle ermittelt. Ziel ist die Identifizierung von
Typen und somit die Erstellung von Typologien. Die Typenbildung ist dann erreicht, wenn
es zu einer Sättigung der Kontraste gekommen ist, d. h. wenn keine neuen Merkmale mehr
gewonnen werden.
Alternativ zu Gruppendiskussionen können – um eine ähnliche interaktive Dichte zu
erreichen sowie um das implizite Wissen der Beteiligten zu ermitteln – narrative oder episo-
dische Interviews durchgeführt werden. Während narrative Interviews dazu dienen, „über
Erzählungen das Geschehen im Erfahrungsraum selbst zugänglich zu machen“ (Bonnet 2012:
293), können episodische Interviews dazu genutzt werden, das eigentheoretische episodische
und semantische Wissen der Akteure zu ermitteln und zu vergleichen. Episodische Interviews
erscheinen ideal für die Anwendung der DM geeignet, denn sie bestehen sowohl aus offenen
Erzählaufforderungen zwecks Ermittlung episodischen Wissens als auch aus präzisierenden,
argumentativ orientierten Passagen, im Rahmen derer semantisches Wissen elizitiert werden
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
3 G
TM, DM und verwandte rekonstruktive Verfahren in der empirischen
Fremdsprachenforschung
Hintergrunddaten flankiert. Wie zuvor bereits angedeutet, geht auch Schart (2003), der in
seiner qualitativen Interviewstudie das subjektive Verständnis untersucht, das Lehrende für
Deutsch als Fremdsprache von Projektunterricht haben, mehrmethodisch vor, um verstehend
die handlungsleitenden Überlegungen der befragten Personen nachzuvollziehen.
In Studien, die mit der DM arbeiten, werden zwar ebenfalls Daten verbaler Handlungen
der untersuchten Personen analysiert, diese werden aber in der Regel nicht eigens für Unter-
suchungszwecke produziert, sondern entstammen alltäglichen Interaktionen. So wurden in
der rekonstruktiven Fallstudie von Tesch (2010) insgesamt fast 30 Stunden regulären Fran-
zösischunterrichts in drei Gymnasialklassen der neunten und zehnten Jahrgangsstufe mit
21 bis 29 Schüler/innen hinsichtlich des Umgangs mit kompetenzorientierten Lernaufgaben
beobachtet. Die anschließende detaillierte Beschreibung und Analyse ausgewählter Unter-
richtsstunden ermöglichte Einsichten in die soziale Dimension fremdsprachenunterricht-
licher Interaktionen sowie Erkenntnisse über unterrichtsbezogene Rahmenorientierungen
von Lehrenden und Lernenden und somit über ihr implizites handlungsleitendes Wissen.
Im Anschluss an die vollständige Transkription und die inhaltlich zusammenfassende Be-
schreibung aller audiographierten Unterrichtsstunden26 wurden aus jeder Stunde eine oder
mehrere typische Sequenzen ausgewählt, die eine „besondere metaphorische Dichte“ (Tesch
2010: 179) aufwiesen. Weitere Auswahlkriterien waren die dominante Interaktionsrichtung
sowie dominante Interaktionsinhalte. Die Daten wurden mittels der beiden zentralen Ana-
lyseschritte „Formulierende Interpretation“ und „Reflektierende Interpretation“ bearbeitet.
Zunächst wurden also der Diskursverlauf nachgezeichnet und die Äußerungen der Beteiligten
zusammenfassend paraphrasiert, d. h. grob interpretiert. Damit war die Grundlage für den
nächsten Analyseschritt – die reflektierende Interpretation – geschaffen, bei der es nun darum
ging, die zuvor reformulierten Aussagen der Akteure „als Propositionen und als Ausdruck
von Rahmungen zu erkennen, die mit anderen Propositionen verglichen […] und in Bezie-
26 Die ebenfalls erstellten Videographien wurden nicht transkribiert, sondern lediglich zum Zweck der
Validierung verwendet. Die handschriftlich notierten Gespräche mit Lehrer/innen vor und nach den be-
obachteten Unterrichtsstunden wurden sporadisch in die Analyse einbezogen.
hung gesetzt werden können“ (Tesch 2010: 183). Dazu wurden die Daten diskursanalytisch
im Hinblick auf explizite und implizite Verknüpfungen untersucht und mit ähnlichen Fällen
verglichen, um „typische Handlungspraxen“ (ebd.) zu ermitteln. Auch in der DM spielt also
die Technik des Vergleichens eine zentrale Rolle.
Die methodisch an der GTM orientierte Arbeit von Ehrenreich illustriert die vielfältigen
Möglichkeiten der Gewinnung von Auswertungskategorien: Sie erfolgt sowohl auf der Basis
eigenen Vorwissens, durch die Auseinandersetzung mit der Forschungsliteratur und entlang
des zuvor erstellten Interviewleitfadens als auch datenbasiert, d. h. durch die Auswertung
der ersten Interviewdaten. Dabei wird dem von Strauss/Corbin (1990) aufgestellten ‚Kodier-
paradigma‘ aufgrund seiner Plausibilität, ihrer Strukturiertheit sowie ihrer direkten Anwend-
barkeit gegenüber den eher allgemeinen, abstrakten ‚Kodierfamilien‘ von Glaser der Vorzug
gegeben.
Schädlich (2009: 160) geht in ihrer Interviewstudie zur Rekonstruktion der subjektiven
Wahrnehmungen von Lehrveranstaltungen zur französischen Literaturwissenschaft durch
Lehrende und Studierende so vor, dass sie zwar dem Prinzip des theoretischen Kodierens der
GTM folgt, sich in der konkreten Auswertungsarbeit jedoch an Mayrings (1993) Vorgehen
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
der strukturierten Inhaltsanalyse (s. Kapitel 5.3.4) orientiert und mit zuvor festgelegten Ord-
nungskriterien arbeitet. Somit haben wir auch hier ein Beispiel eines mehrmethodischen
Designs, im Rahmen dessen die für das eigene Forschungsziel jeweils am besten erschei-
nenden Verfahren aus verschiedenen methodisch-methodologischen Ansätzen miteinander
kombiniert werden.
Wie zuvor bereits dargestellt, geht es auch bei der DM – ähnlich wie bei der GTM – darum,
Prozesse der Konstruktion sozialer Realität bzw. sozialen Sinns zu rekonstruieren und somit
intersubjektiv nachvollziehbar zu machen. Unterrichtliche bzw. unterrichtsbezogene Inter-
aktionen sind komplexe Ereignisse, die mit der DM in idealer Weise untersuchbar ist, da sie
die Aufdeckung impliziter Wissensbestände ermöglicht. Voraussetzung für die Anwendung
der DM ist, dass die mit ihr betrachteten bzw. befragten Personen Angehörige des kon-
junktiven Erfahrungsraums sind, dessen Handlungswissen rekonstruiert werden soll. Bonnet
(2009) und Tesch (2010) gehören zu den ersten Fremdsprachendidaktikern, die die DM zur
Untersuchung unterrichtlicher Interaktionen und damit zur Rekonstruktion des größten-
teils unbewussten handlungsleitenden Wissens der Akteure nutzten. Die besondere Leistung
der DM liegt Tesch zufolge „in der genauen Beschreibung empirisch ermittelter impliziter
Orientierungen und in der Bestimmung typischer Ausprägungen in den verschiedenen Schul-
formen und Klassenzusammensetzungen“ (Tesch 2010: 366).
Kritisch anzumerken ist in Bezug auf die DM zum einen, dass sie – per definitionem – nur
Daten von Personen zu analysieren gedacht ist, die über einen ähnlichen, d. h. konjunktiven
Erfahrungsraum verfügen. Somit ist der Anwendungsbereich dieses methodischen Ansatzes
grundsätzlich stark eingeschränkt. Hier wird deutlich, wie sehr der mögliche Erkenntnis-
gewinn von der jeweils gewählten Methode bestimmt wird. Zum anderen ist an der Vor-
gehensweise der DM der überraschend unreflektierte Umgang mit der Paraphrasierung von
Originalaussagen der Forschungsteilnehmer/innen und der damit einhergehende Verlust an
Nähe zu den Primärdaten zu kritisieren. So werden bei dem von der DM vorgesehenen ersten
Analyseschritt nicht die Äußerungen der Forschungsteilnehmer/innen analysiert und inter-
pretiert, sondern die von den Forschenden daraus abgeleiteten Paraphrasen. Insofern stellt sich
Grounded Theory-Methodologie
we
ite
re
Diffe Da theoretische
ren t
zie Sensibilität
en
ru
Analys
erh
eu theoretisches
eb
nd
ng
Sampling
,m
Beo ung
entwickelte Theorie
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
axi
Ko
b
en, A theoretische
die
male
ac
rung
Sättigung
aus Daten
htu
nalysen,Verglei
Prozess
Heterogenitä
ng / Befr
aus emisc
Ereignis offenes,
gu axiales, selek-
a
ng tives Kodieren
her
er
ch,
P
,g
spe
ganzheitliche,
röß
ktive
Ka
te
interpretative,
rK
teg
on
reflexive
tras
or
t en
i
bil
du
ng Prozesse
Dokumentarische Methode
Erfahrungs- und Rekonstruktion des konjunktiven
Alltagswissen gesell- Erfahrungsraumes und der darin
schaftlicher Gruppen enthaltenen Denkstrukturen durch
Typologie
↓ → formulierende Interpretation
Gruppendiskussionen, → reflektierende Interpretation
Interviews → zusammenfassende Fallbeschreibung
→ Typenbildung
z. B. die Frage, inwiefern hier tatsächlich die Binnensicht der Proband/innen Gegenstand der
Analyse ist. Allerdings ist zu berücksichtigen, dass grundsätzlich jegliche Verarbeitung von
Primärdaten (so z. B. auch die Zusammenfassung in der qualitativen Inhaltsanalyse) immer
zugleich eine Interpretation darstellt. Selbst der Transkriptionsprozess – also ein Verfahren der
Datenaufbereitung – ist ein interpretativer Prozess, da er notwendigerweise selektiv ist, und
jede Selektion eine gewisse Deutung beinhaltet bzw. voraussetzt. D.h. der hier formulierte
methodisch-methodologische Einwand betrifft auch andere qualitative Analyseverfahren, ist
also nicht spezifisch für die DM. Dennoch gilt es, sich dessen bei der Entscheidung für diese
Methode bewusst zu sein und reflektiert damit umzugehen. Eine weitere mögliche Kritik
bezieht sich auf die von der DM explizit angestrebte Typenbildung, die zwar in vielen Fällen
ein gewünschtes Ziel empirischer Forschung (quantitativen und qualitativen Zuschnitts) sein
kann, sich jedoch nicht für alle Gegenstände oder Erkenntnisinteressen als gleichermaßen
wichtig oder sinnvoll erweist. So kann es insbesondere im Falle von noch wenig erforschten
Fragestellungen vollkommen ausreichend sein, sich zunächst einmal auf die Deskription zu
beschränken. Auch kann bei der qualitativen Untersuchung eines komplexen Einzelfalls die
Aufdeckung von Mustern oder die Bildung von Typen ggf. überhaupt nicht erstrebenswert
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
oder zielführend sein. Es ist also vom jeweiligen Erkenntnisinteresse abhängig, ob auf eine
Typenbildung abgezielt wird oder nicht – die Methode sollte darüber nicht entscheiden.
4 Fazit
Zusammenfassend ist festzustellen, dass mittels der dargestellten qualitativen Ansätze hoch-
relevante lehr-lernbezogene Einsichten in die Wahrnehmungen, Erfahrungen und Interpreta-
tionen der ‚betroffenen‘ Akteure – also Lehrende, Studierende, Lernende – gewonnen werden
können. So belegt die von Schart (2003) vorgenommene detaillierte Rekonstruktion sub-
jektiver Wahrnehmungen von DaF-Lehrenden in Bezug auf die Sozialform Projektunterricht,
wie wichtig reflexive und erfahrungsorientierte Modelle in der Aus- und Fortbildung von
Lehrenden sind. Ähnliches gilt für die Interviewstudie von Ehrenreich (2004), die anschaulich
zeigt, dass ausbildungsbezogene Auslandaufenthalte spezifische Lerngelegenheiten sind, die
nicht nur vorbereitet und strukturiert, sondern auch reflektiert werden müssen, wenn sie
denn ihren Zweck erreichen sollen. Rekonstruktive, die emische Perspektive einnehmende
Verfahren ermöglichen also Einblicke in konzeptbildende und handlungsleitende Prozesse,
deren Potential bisher nur in Ansätzen in der fremdsprachendidaktischen Forschung genutzt
wurde. Abschließend würde ich Bonnet (2012: 286) zustimmen, wenn er feststellt, dass „qua-
litativ-rekonstruktive Ansätze […] einen unverzichtbaren Beitrag zur Theoriebildung in der
Fremdsprachenforschung leisten“. Ob es – wie er weiter annimmt – jedoch zutrifft, dass sie
mit quantitativ-hypothesenprüfenden Verfahren integriert werden können, um die Nachteile
beider Ansätze zu überwinden, muss sich in der Forschungspraxis erst noch zeigen.
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit
einem Sternchen markiert.
Glaser, Barney/Strauss, Anselm (1967). The discovery of grounded theory. Strategies qualitative re-
search. Chicago: Aldine.
Mannheim, Karl (1922). Die Strukturanalyse der Erkenntnistheorie. Berlin: Reuter & Reichard.
Mayring, Philip (2010). Qualitative Inhaltsanalyse. Grundlagen und Techniken. 11., aktualisierte und
überarbeitete Auflage. Weinheim und Basel: Beltz.
Merton, Robert K. (1949). Social Theory and Social Structure. New York: Simons & Schuster.
Mey, Günter/Mruck, Katja (2011). Grounded-Theory-Methodologie: Entwicklung, Stand, Perspektiven.
In: Mey, Günter/Mruck, Katja (2011), 11–48.
Mey, Günter/Mruck, Katja (Hg.) (2011). Grounded Theory Reader. Wiesbaden: VS Verlag für Sozialwis-
senschaften.
Muckel, Petra (2011). Die Entwicklung von Kategorien mit der Methode der Grounded Theory. In: Mey,
Günter/Mruck, Katja (Hg.), 333–352.
Oevermann, Ulrich/Allert, Tilman/Konau, Elisabeth/Krambeck, Jürgen (1979). Die Methodologie einer
„objektiven Hermeneutik“ und ihre allgemeine forschungslogische Bedeutung in den Sozialwissen-
schaften. In: Soeffner, Hans-Georg (Hg.), Interpretative Verfahren in den Sozial- und Textwissenschaf-
ten. Stuttgart: Metzler, 352–434.
*Schädlich, Birgit (2009). Literatur Lesen Lernen. Literaturwissenschaftliche Seminare aus der Per-
spektive von Lehrenden und Studierenden. Eine qualitativ-empirische Studie. Tübingen: Narr.
*Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden
für Deutsch als Fremdsprache. Baltmannsweiler: Schneider. [Referenzarbeit, s. Kapitel 7]
Schütze, Fritz (1983). Biographieforschung und narratives Interview. In: Neue Praxis 13(3), 283–293.
Strauss, Anselm (1987). Qualitative analysis for social scientists. Cambridge, UK: Cambridge Univer-
sity Press.
Strauss, Anselm/Corbin, Juliet (1990). Basics of Qualitative Research. Newbury Park; London: Sage.
Strübing, Jörg (2011). Zwei Varianten von Grounded Theory? Zu den methodologischen und metho-
dischen Differenzen zwischen Barney Glaser und Anselm Strauss. In: Mey, Günter/Mruck, Katja
(Hg.), 262–277.
*Tesch, Bernd (2010). Kompetenzorientierte Lernaufgaben im Fremdsprachenunterricht. Konzeptionelle
Grundlagen und eine rekonstruktive Fallstudie zur Unterrichtspraxis (Französisch). Frankfurt/Main:
Lang.
Bonnet, Andreas (2012). Von der Rekonstruktion zur Integration: Wissenssoziologie und doku-
mentarische Methode in der Fremdsprachenforschung. Grundlagenbeitrag. In: Doff, Sabine
(Hg.). Fremdsprachenunterricht empirisch erforschen. Grundlagen – Methoden – Anwen-
dung. Tübingen: Narr, 286–305.
In seinem Grundlagenbeitrag skizziert Bonnet das Anliegen, die zentralen Begriffe sowie die metho-
dische Vorgehensweise der DM und ihre besondere Eignung für fremdsprachendidaktische Forschun-
gen, in deren Mittelpunkt die Untersuchung unterrichts- und kompetenzrelevanter Phänomene steht.
Mey, Günter/Mruck, Katja (Hg.) (2011). Grounded Theory Reader. Wiesbaden: VS Verlag für
Sozialwissenschaften.
In diesem Sammelband haben die beiden Herausgeber eine Reihe einschlägiger Aufsätze zusammen-
gestellt, die den aktuellen Diskussionsstand zur GTM widerspiegeln. Dabei handelt es sich z. T. um
Übersetzungen aus dem Englischen, z. T. um überarbeitete und aktualisierte Fassungen früherer
Publikationen.
Nohl, Arnd-Michael (2012). Interview und dokumentarische Methode. Anleitungen für die For-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
5.3.4 Inhaltsanalyse
Bei der Inhaltsanalyse handelt es sich um ein kodifiziertes und kodifizierendes Forschungsver-
fahren, das kommunikative Texte im weitesten Sinne systematisch untersucht und auswer-
tet. Inhaltsanalysen können als quantitatives wie auch als qualitatives Verfahren eingesetzt
werden. Wie bei kaum einer anderen Forschungsmethode lässt sich die allmähliche Ablösung
des quantitativen Verfahrens durch das qualitative ab der Mitte des 20. Jahrhunderts in der
Forschungsliteratur vornehmlich der USA und Deutschlands gut verfolgen. Heute wird vor
allem die qualitative Inhaltsanalyse sehr häufig und in ganz unterschiedlichen Kontexten
eingesetzt, aber es gibt zunehmend auch Arbeiten, die beide Analyseverfahren miteinan-
der kombinieren. Für die Fremdsprachenforschung stellt vor allem die qualitative Inhalts-
analyse eine gewinnbringendes Forschungsmethode dar, wenn Kommunikationsmaterial
Die Anfänge der Inhaltsanalyse sind in den Kommunikationswissenschaften auf den Beginn
des 20. Jahrhunderts in den Kommunikationswissenschaften zu datieren (vgl. Mayring 2002:
114, Kuckartz 2012: 27–8). Vorrangig in den USA der 1920er Jahre entwickelt, zielte die
quantitative Inhaltsanalyse auf die Untersuchung großer Datenmengen in Massenmedien
(vgl. Krippendorff 2004). Die Erfindung des Radios und die Kriegsberichterstattung in den
1940er Jahren brachten inhaltsanalytische Studien hervor, die die politischen Aspekte dieser
Forschungsmethode in den Mittelpunkt der Aufmerksamkeit rückten. Die Begrifflichkeit der
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
27 Für einen Überblick zu Vorgehensweisen der quantitativen Auswertung der Inhaltsanalyse (auch als em-
pirische Inhaltsanalyse bezeichnet) siehe Kromrey (2009: 300–325).
die an der Textoberfläche nicht auf den ersten Blick wahrnehmbar sind, übersehen würden
(vgl. Mayring 2002: 114 und Kuckartz 2012: 35). Viele Forscher konzipierten deshalb die
qualitative Inhaltsanalyse als eine Art „Erweiterung“ oder „Präzisierung“ (Kuckartz 2012:
35) des Verfahrens. Wenn Dörnyei die Unterschiede zwischen quantitativer und qualitativer
Inhaltsanalyse herausarbeitet, beschreibt er genau diese zusätzliche Dimension:
Another way for distinguishing quantitative and qualitative content analysis is by referring to the
former as ‚manifest level analysis‘, because it is an objective and descriptive account of the surface
meaning of the data, and the latter as ‚latent level analysis‘, because it concerns a second level,
interpretive analysis of the underlying deeper meaning of the data. (Dörnyei 2007: 245–6)
An den Problemen der quantitativen Inhaltsanalyse setzt die qualitative Inhaltsanalyse an.
Sie will sich nicht auf die oberflächlichen manifesten Textinhalte bei der Analyse beschränken,
sondern bezieht auch Elemente der Interpretation mit ein (vgl. Kuckartz 2012: 28). Cha-
rakteristisch für die qualitative Inhaltsanalyse sind die Bildung von Kategorien, auf die in der
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Analyse fokussiert wird, sowie eine Kategorisierung des gesamten Datenmaterials. Dabei ist
der „Zuordnungsprozess von Kategorien und Textstellen als Interpretationsakt“ zu verstehen,
den man „durch inhaltsanalytische Regeln kontrollieren möchte“ (Mayring 2008: 10). Die
konsequente und systematische Nutzung des jeweils aufgestellten Kategoriensystems stellt
dabei ein Unterscheidungskriterium von freieren Formen der Textinterpretation (z. B. her-
meneutischen Verfahren, s. Kapitel 5.3.2) dar. Für die heutige qualitative Inhaltsanalyse sind
auch Faktoren wie die Anerkennung von Gütekriterien, wie z. B. die inter-coder-reliability
von zentraler Bedeutung, falls in einem Forschungsprojekt mehrere Kodierende das Daten-
material analysieren (vgl. Kuckartz 2012: 39).
Ihrem Ursprung in den Kommunikationswissenschaften gemäß versteht die qualitative
Inhaltsanalyse einen Text stets als eingebettet in ein Kommunikationsmodell. Nicht der Text
für sich allein genommen ist dabei von Interesse, sondern vielmehr die aus dem Text heraus
geschlossenen Zusammenhänge zur kommunikativen Absicht, in der Fragen nach dem Ver-
hältnis zwischen Sender und Empfänger, Medium, Textmerkmale und Gestaltung, Wirkungs-
absicht sowie Wirkung auf die Adressaten relevant sind (vgl. Mayring/Brunner 2010: 325).
Dass es dabei oft auch um das Aufdecken versteckter Botschaften und nicht offen geäußerter
Mitteilungen gehen kann, versteht sich von selbst. Gerade deshalb ist die qualitative In-
haltsanalyse für komplexe Untersuchungsfelder interessant, da mit ihrer Hilfe vielschichtige
Datensammlungen wie z. B. Lehrer-/Lernertexte (bzw. unterrichtliche Produkte im weiteren
Sinne, s. Kapitel 5.2.7) oder Transkriptionen von Audio- bzw. Videomaterial von Unterricht
oder Interviewsequenzen sehr gut analysiert werden können. Forschungen im Bereich der
Fremdsprachendidaktik verwenden häufig eine qualitative Inhaltsanalyse, da das Suchen nach
Themen in schriftlichen oder mündlichen Lehrer- oder Schüleräußerungen oder in Interviews
über Unterricht, sowie das Auffinden von Mustern, das Kategorisieren und Interpretieren
dieser Funde helfen, viele Forschungsfragen zum Fremdsprachenunterricht gegenstandsan-
gemessen zu analysieren und zu beantworten.
Grundsätzlich lassen sich zwei Grundformen der qualitativen Inhaltsanalyse unterschei-
den, die deduktive und die induktive Analyse (vgl. Mayring 2008 und Kuckartz 2012: 59–63),
wobei die Differenzierung über den Zeitpunkt der Kategorienbildung und die Anbindung an
die theoretischen Grundlagen bzw. die empirischen Daten erfolgt: Im deduktiv orientierten
Ansatz wird das Datenmaterial entlang vorab systematisierter Kategorien geordnet und struk-
turiert, so dass theoretische Vorannahmen und Erklärungsmodelle an das Material heran-
getragen werden können. Im induktiv orientierten Ansatz dient erst das Datenmaterial selbst
dazu, Kategorien zu bilden, die Struktur eines Erklärungsmodells aus den systematisierten
Zusammenhängen abzuleiten und mit der Theorie vereinbar zu machen. Gerade der zweite
Ansatz zeigt eine Nähe zu den Kodiervorgängen der Grounded Theory (siehe Kapitel 5.3.3),
die ebenfalls darauf zielen, Erklärungsmodelle datengeleitet und datenbasiert zu generieren
(vgl. Kuckartz 2012: 66–8). In zahlreichen Veröffentlichungen der letzten zehn Jahre finden
sich deshalb Erläuterungen zur Kategorienbildung der qualitativen Inhaltsanalyse in Zusam-
menhang mit den Kodiervorgängen der Grounded Theory (vgl. Dörnyei 2007, Friedman 2012,
Kuckartz 2012)28. Für den Kontext der fremdsprachendidaktischen Forschung sind – je nach
Forschungsgegenstand – beide Vorgehensweisen denkbar und erfolgversprechend. Kuckartz
verweist auch auf mögliche Mischformen der deduktiv-induktiven Kategorienbildung, die zu-
nächst theoriegeleitet vorgehen, dann jedoch die Vorab-Kategorien am empirischen Material
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Bevor wir auf das Analyseverfahren zu sprechen kommen, sind noch einige Bemerkungen zu
Datensammlung und Transkription wichtig: Analyseverfahren der qualitativen Inhaltsana-
lyse sind an kein bestimmtes Verfahren der Datensammlung gebunden (vgl. Kuckartz 2012:
76), denn hier gelten die Grundregeln des gegenstandsangemessenen und für die Beobachte-
ten transparenten Verfahrens der Sammlung. Alle Methoden der qualitativen Inhaltsanalyse
arbeiten sprachbezogen, d. h. sie sind für unterschiedliche verbale Daten nutzbar, Unterrichts-
diskurse und Schülermaterialien können ebenso erfolgreich mit ihnen analysiert werden wie
Filme, fiktionale Texte oder andere Kulturprodukte (vgl. Kuckartz 2012: 76).
Die Aufbereitung der Daten folgt auf die Datensammlung im Forschungsfeld. Das ver-
wendete Transkriptionssystem sollte auf die Forschungsfragen und das Erkenntnisinteresse
abgestimmt sein. Gerade bei der Transkription von Videosequenzen können sensible Daten
wie nonverbale Aspekte der Interaktion und Kommunikation nur durch ein entsprechend
ausgerichtetes Transkriptionssystem in textuelle Elemente überführt werden (vgl. Kowal/
O’Connell 2000).
28 Eine Studie aus der Fremdsprachenforschung, die nach einem solchen Mischverfahren vorgeht und als
Beispiel noch vorgestellt werden wird, stammt von Ehrenreich (2004).
Paradigma in einer seiner Varianten in den letzten zehn Jahren zu eigen gemacht, um ihre
Unterrichts- oder Interviewdaten zu analysieren (vgl. Burwitz-Melzer 2003, Schart 2003,
Ehrenreich 2004, Hochstetter 2011). Auch im internationalen, insbesondere im englischspra-
chigen Forschungsraum wird die qualitative Inhaltsanalyse im Kontext von second language
classroom research häufig in verschiedenen Varianten angewandt (vgl. hierzu Dörnyei 2007,
Nunan/Bailey 2009, Mackey/Gass 2012). Gemeinsam sind diesen fremdsprachendidaktischen
Forschungsarbeiten in der Regel komplexe Fragestellungen, die sich auf einen komplexen
unterrichtlichen Gegenstand beziehen und eine mehrstufige Datensammlung erfordern, die
sehr unterschiedliche Datensätze wie Unterrichtsmaterialien, Lehrwerke, Videomitschnitte
von Unterricht, Einzel- oder Gruppeninterviews etc. umfassen können. Hier kann die quali-
tative Inhaltsanalyse gegenstandsangemessen in der induktiven, der deduktiven Form oder in
einer Mischform aus beidem helfen, einzelne Datensätze zu strukturieren und zu analysieren.
Dabei steht nicht immer ein ‚Aufräumen‘ im Mittelpunkt des Forscherinteresses, sondern es
geht vor allem darum, die im Datenmaterial enthaltenen Übereinstimmungen, Widersprüche,
unterschiedlichen Perspektivierungen und Gewichtungen klar herauszuarbeiten.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Deduktive Kategorienbildung
Die Bildung von Kategorien am gesammelten Datenmaterial kann als vorrangiges Unter-
scheidungskriterium der induktiven Inhaltsanalyse gesehen werden. Man folgt dabei dem
„Grundgedanken, dass die Verfahrensweisen der zusammenfassenden Inhaltsanalyse genutzt
werden, um schrittweise Kategorien aus einem Material zu entwickeln“ (Mayring 2000: 472).
Es wird zunächst das Ziel der Kategorienbildung auf der Basis der Forschungsfragen definiert.
Wenn klar ist, was mit der Kategorienbildung erreicht werden soll, müssen der Grad der
Differenziertheit und der Abstraktion der zu bildenden Kategorien festgelegt werden. Dies ist
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
das Grundgerüst, das bereits vor der induktiven Kategorienbildung feststehen sollte.
Dann wird mit der ersten Textstelle, die herangezogen werden soll, mit der Kategorien-
bildung begonnen, indem Zeile für Zeile direkt am Text ein Phänomen benannt wird, das mit
Stift oder auch elektronisch markiert wird (vgl. Kuckartz 2012: 63). Dabei kann es sich bei der
Markierung um einen bestimmten Begriff, einen kurzen Satz, ein Argument etc. handeln. So
wird nach und nach das gesamte Material gesichtet und strukturiert. Fällt dasselbe Phänomen
wieder auf, bekommt es dieselbe Kodemarkierung; handelt es sich um ein neues Phänomen,
wird eine neue Kategorie eingeführt. Nachdem etwa 10 bis zu maximal 50 % des Daten-
materials untersucht wurde, gilt es, das Kategoriensystem zu überprüfen. Dabei kommt es
darauf an, Kategorien hinsichtlich ihrer logischen Beziehung untereinander sowie hinsichtlich
einer etwaigen Überschneidung und Dopplung zu kontrollieren (vgl. Kuckartz 2012: 63). Im
Falle einer daraus resultierenden Veränderung des Kategoriensystems ergibt sich ein erneuter
Durchgang des Anfangsmaterials. Ansonsten folgt der am Kategoriensystem ausgerichtete
kodierende Durchgang des Gesamtmaterials.29
handelt es sich um die inhaltlich strukturierende Inhaltsanalyse, die sich auch in der For-
schungsliteratur als ein zentrales Verfahren finden lässt (vgl. Mayring 2008, Kuckartz 2012,
Schart 2003). Die beiden in diesem Kapitel vorgestellten Arbeitsbeispiele werden jeweils
nur grob umrissen und in Hinsicht auf einen Forschungsaspekt bzw. ein Analyseverfahren
untersucht, wobei die erste Studie dafür genutzt wird, die im vorangegangenen Abschnitt
vorgestellten Phasen der qualitativen Inhaltsanalyse zu konkretisieren. Bei beiden Studien
handelt es sich um sehr komplexe Arbeiten mit mehreren Forschungsfragen, die nach dem
Prinzip der mixed methods bzw. qualitativ vorgehen. Sie können hier nur mit dem Fokus auf
die jeweils gewählte qualitative Inhaltsanalyse dargestellt werden.
29 Sowohl für die deduktive als auch die induktive Inhaltsanalyse gilt, dass im Anschluss an die Kodierung
des Gesamtmaterials quantitative Analysen durchgeführt werden können. Eine Quantifizierung qualita-
tiver Daten (vgl. Dörnyei 2007: 269–70) wird durch die Nutzung sogenannter QDA (Qualitative Daten-
analyse Software) ermöglicht, mit der Daten, Kategoriensysteme und Kodiervorgänge zu verwalten sind.
Anhand der Datenbank können numerische Werte genutzt werden, um damit in Form von Häufigkeits-
verteilungen, Korrelationen und Antikorrelationen statistisch zu arbeiten (vgl. ebd.). Für einen Überblick
zum computergestützten Arbeiten mit qualitativen Daten siehe Kuckartz (1999, 2012: 132–164).
grunde liegt, wurden insgesamt fünf Teilschritte verfolgt (vgl. ebd.: 173): Auf eine (a) ma-
terialbezogene (induktive) Kategorienbildung erfolgte die (b) „Konstruktion und Erprobung
des Kategoriensystems“ (ebd.), daran schlossen sich (c) Einzelfallanalysen, (d) „synoptische
Themenanalyse“ (ebd.) und (d) kategorisierende Analysen mit dem Ziel der Theoriebildung
an.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Die Abbildung zeigt einen Ausschnitt aus dem Kategoriensystem der Studie, das mit der
Software MAXQDA angelegt und verwaltet wurde. Das Programm bietet die Möglichkeit,
die Zuweisungen von Kodes und Textpassagen in einer Datenbank zu archivieren und stellt
damit auch Ansatzpunkte für quantitative Analysen, wie bspw. Häufigkeitsverteilungen und
Korrelationen, bereit. Kategorien, wie sie hier zu sehen sind, wurden im ersten Schritt aus
der Sichtung des Materials und in Bezug auf die theoretischen Grundlagen des Forschungs-
bereichs gebildet (siehe hierzu das Phasenmodell in Abb. 1). Im zweiten Schritt wurde das
angelegte Kategoriensystem auf alle Datensätze bezogen, wobei sich die entwickelte Hie-
rarchie bestätigte und lediglich „eine zusätzliche Hauptkategorie […] aus methodologischen
Erwägung“ hinzugefügt wurde (ebd.: 175). Für die letzten Schritte dienten Kategorien dann
dazu, die Einzelfälle auf das Erkenntnisinteresse zu beziehen und kontextuelle Zusammen-
hänge herauszuarbeiten, sowie die Perspektive auf Gemeinsamkeiten zu stärken, indem auf
fallübergreifende Theorieelemente fokussiert wurde. Analysiert wurden diese, indem mittels
des sogenannten text retrieval des Programms „Kombinationen von Kategorien bzw. die ent-
sprechenden Textsegmente […] sowohl textimmanent als auch textübergreifend“ miteinander
verglichen wurden (ebd.: 178). Mit diesen Schritten zeigt die Vorgehensweise der Studie starke
Anlehnung an die Kodiervorgänge der Grounded Theory.
Kodiervorgänge, die computergestützt mit MAXQDA vorgenommen werden, sind zu-
nächst Zuweisungen bzw. Ordnungsprozesse. Im Programm wird eine Struktur von Kodes,
die Kategorien repräsentieren, angelegt (siehe Abb. 2). Innerhalb dieser Struktur findet sich
ein System von Kategorien und Sub-Kategorien (Subsumtion von Kategorien, siehe Abb. 1),
ein sogenannter Kodebaum. In Abbildung 3 setzt sich dieser zum Beispiel aus der Kategorie
Kulturvergleich mit den dazugehörigen Subkategorien Gemeinsamkeiten/ kult. Unterschiede
zusammen, die wiederum differenziert werden in Themen/Konzepte und subj. Interpretation.
Genutzt wird dieses Kategoriensystem, um die textuellen Daten zu kodieren. In einem wei-
teren Fenster des Programms findet sich bspw. der Interviewtext, der mittels der Kategorien
kodiert werden kann (siehe Abb. 3). Im Programm werden zumeist Paragraphen mit Kodie-
rungen versehen. Diese stellen dann sogenannte Kodings dar und können auch mehrere Para-
graphen verbinden. Konkret bedeutet dies, dass im Datenmaterial (hier der Interviewtext) ein
Phänomen erkannt werden muss, dass auf eine der etablierten Kategorien bezogen werden
kann. Das Phänomen in den Daten wird als kategorial relevant erkannt und ihm wird eine
entsprechende Kodierung zugewiesen. Diese Zuweisung stellt einen Akt der Interpretation
dar, denn der der Forschende entscheidet, welcher Kategorie das entsprechende Phänomen
zugeordnet werden soll. Die Regeln, an die sich diese Zuordnung zu halten hat, werden in
sogenannten Kodiermemos festgehalten. Dort wird definiert, unter welchen Umständen ein
Phänomen einer Kategorie zugeordnet werden kann, sprich wann Daten zu Kodings einer Ka-
tegorie werden. Das Programm fungiert dabei lediglich als Datenbank, die es ermöglicht, Ko-
des (im Sinne von Kategorien und Subkategorien) entsprechenden Kodings zuzuweisen und
diese auch über verschiedene Datensätze hinweg aufzurufen (text retrieval).
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
30 Für eine ausführliche Darstellung der Wandlung von in den Daten enthaltenen Phänomenen zu Kodes
und zu Theorielementen innerhalb der Kodiervorgänge der Grounded Theory siehe Steininger (2014:
107–120).
Die inhaltlich strukturierende Inhaltsanalyse ist aus heutiger Sicht die wohl häufigste Form
der qualitativen Inhaltsanalyse in der deutschen empirischen Fremdsprachenforschung. Sie
zielt auf eine Strukturierung und Reduktion der gesammelten Daten ab, die deduktiv oder
induktiv oder in einer Mischform aus beiden Verfahren kategorisiert werden können. Häufig
werden die Kategorien in einem mehrstufigen Verfahren erstellt, das zunächst grobe Haupt-
kategorien zum Beispiel nach den Themen eines Interviewleitfadens aufstellt, die dann in
mehreren Arbeitsschritten am Datenmaterial verfeinert und ausdifferenziert werden (vgl.
Kuckartz 2012: 77). So kann eine Themenmatrix erstellt werden, die als Grundlage für weitere
Strukturierungen dient. Als Themen können Einzelaspekte einer Fragestellung dienen, aber
auch methodische Aspekte, Aspekte einer Evaluation etc. Die letzte Kodierphase unterzieht
dann das gesamte Datenmaterial dem endgültig ausdifferenzierten Kategoriensystem. Ist die-
ser Schritt abgeschlossen, kann eine Fallmatrix erstellt werden, die Aufschluss über Differen-
zen und Übereinstimmungen zwischen den einzelnen Fällen der qualitativen Untersuchung
gibt. Zusammen mit der Themenmatrix stellt die Fallmatrix eine Profilmatrix aller Daten dar,
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
ist also eine Komprimierung und Reduktion der Daten auf die im Sinne der Forschungsfrage
relevanten Erkenntnisse (vgl. Kuckartz 2012: 77). Die Profilmatrix ist wichtig für die Er-
stellung einer abschließenden Betrachtung der Untersuchung; man kann sie themenorientiert
lesen, also alle Fälle miteinander vergleichen, oder fallorientiert analysieren, also einen Fall
unter Berücksichtigung der Bandbreite der Themen betrachten. Ein Beispiel aus der aktuellen
empirischen Fremdsprachenforschung soll hier zur Erläuterung dienen:
In ihrer Studie Diagnostische Kompetenzen im Englischunterricht der Grundschule unter-
sucht Johanna Hochstetter das Beobachtungsverhalten von Lehrkräften im Englischunterricht
mehrerer Grundschulen und befragt sie anschließend auch zu ihren Einstellungen zu den
benutzten Beobachtungsbögen (vgl. Hochstetter 2011). Für die zweite Forschungsfrage zu den
Einstellungen wählt die Forscherin eine leitfadengestützte teilstrukturierte Interviewform,
die durch ihre Schwerpunktsetzung bereits eine gewisse thematische Vergleichbarkeit aller
Interviews herstellt (vgl. Hochstetter 2011: 88). Hochstetter (ebda.) spricht die besondere
Eignung dieses Analyseverfahrens an, „weil die Inhaltsanalyse eine Auswertung an deduktiv
und induktiv gewonnenen Kategorien zulässt. […] So kann gezielt nach Äußerungen im Text
gesucht werden, die sich auf Einstellungen beziehen, es können aber zusätzlich induktiv
weitere Kategorien aus dem Datenmaterial gewonnen und systematisch in die Analyse ein-
bezogen werden. Der Fokus der Analyse liegt auf den Themen, die die Lehrkräfte ansprechen
und nicht auf dem Verlauf der Interviews […]“ (ebda.).
Die Studie, in der deduktiv, induktiv und mit MAXQDA unterstützt Kategorien erstellt wer
den, gibt mit der Analyse der Interviews einen guten thematischen Überblick über die offen
angesprochenen und im Gespräch jeweils auch latent vorhandenen Einstellungen der Lehr-
kräfte, die sich auf die aktuell beobachteten Stunden, aber auch auf ganz allgemeine, nicht
direkt erfragte Überzeugungen beziehen. So tritt z. B. zutage, dass die Tendenz zu externalen
Kausalattributionen von Schülermeinungen bei den meisten Lehrkräften sehr stark ist, die
Haltung zu formativer, pädagogischer Leistungsüberprüfung aber in vielen Fällen negativ
vorherrscht, weil sie als problematisch für die Lernenden angesehen wird (vgl. Hochstetter
2011: 212–214). Erst im Vergleich der Lehrkräfte untereinander werden die einzelnen thema-
tischen Aspekte in ihrer Ausdifferenziertheit fassbar. Die Studie zeigt, wie eine Themenmatrix
zu einem komplexen fremdsprachendidaktischen Kontext erarbeitet und auch nach Bedarf er-
weitert werden kann und wie die einzelnen Fälle vor diesem Hintergrund mit Unterschieden
und Übereinstimmungen wahrgenommen werden.
4 Fazit
Die qualitative Inhaltsanalyse kann als eigenständiges Verfahren gelten, das mit seiner Kodi-
fizierung eine Abfolge von Analyseschritten bereithält, die als Rahmen für Forschungsansätze
in der Fremdsprachendidaktik angesehen werden können. Bereits vor der empirischen Wen-
de in den Fremdsprachendidaktiken im letzten Drittel des 20. Jahrhunderts stellten Lehr-
werkanalysen einen wichtigen Teil der Forschung dar. Diese waren den später entwickelten
qualitativen Inhaltsanalysen ähnlich und folgten zumeist dem deduktiven Ansatz auf der
Basis vorab definierter Kategorien (vgl. Heuer/Müller 1973 und 1975; einen Überblick zur
Erforschung von „Völkerbildern“ in Sprachlehrwerken geben Grothuesmann/Sauer 1991).
Die inhaltliche und analytische Auseinandersetzung mit Texten ist somit Grundlage für
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit
einem Sternchen markiert.
*Burwitz-Melzer, Eva (2003). Allmähliche Annäherungen: Fiktionale Texte im interkulturellen Fremd-
sprachenunterricht der Sekundarstufe I. Tübingen: Narr.
Dörnyei, Zoltàn (2007). Research Methods in Applied Linguistics. Oxford: Oxford UP.
*Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung: Das „assistant“-
Jahr als ausbildungsbiographische Phase. Berlin: Langenscheidt.
Friedman, Debra A. (2012). How to collect and analyse qualitative data. In: Mackey, Alison/ Gass,
Susan M. (Hg.). Research Methods in Second Language Acquisition. A Practical Guide. West Sussex:
Wiley-Blackwell, 180–200.
Grothuesmann, Heinrich/Sauer, Helmut (1991). Völkerbilder in fremdsprachenunterrichtlichen Lehr-
werken. Ein Literaturbericht. In: Zeitschrift für Fremdsprachenforschung 2, 66–92.
Heuer, Helmut/Müller, Richard Matthias (Hg.) (1973). Lehrwerkkritik – ein Neuansatz. Dortmund:
Lensing.
Heuer, Helmut/Müller, Richard Matthias (Hg.) (1975). Lehrwerkkritik 2 – Landeskunde, Illustrationen,
Grammatik. Dortmund: Lensing.
Text
Valenzanalyse
Intensitätsanalyse Kategorie Y
Kontingenzanalyse Kode 4, Kode 5, Kode 6
Einbettung der Elemente deduktiver induktiver
in Kommunikationsmodelle Ansatz Ansatz
und Erarbeitung der
Texttiefenstruktur mittels Kodierung der Daten Vergrößerung des
auf der Basis von Kategoriensystems
5.3.4 Inhaltsanalyse
(Hg.). Qualitative Forschung. Ein Handbuch. Reinbek bei Hamburg: Rowohlt, 468–475.
Mayring, Philipp (2002). Einführung in die Qualitative Sozialforschung. Weinheim: Beltz.
Mayring, Philipp (2008). Neuere Entwicklungen in der qualitativen Forschung und der Qualitativen
Inhaltsanalyse. In: Mayring, Philipp/Gläser-Zikuda, Michaela (Hg.). Die Praxis der Qualitativen
Inhaltsanalyse. Weinheim: Beltz, 7–19.
Mayring, Philipp/Brunner, Eva (2010). Qualitative Inhaltsanalyse. In: Friebertshäuser, Barbara/Langer,
Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswis-
senschaft. Weinheim: Juventa, 323–333.
Nunan, David/Bailey, Kathleen (2009). Exploring Second Language Classroom Research: A Compre-
hensive Guide. Boston: Heinle.
*Schart, Michael (2003). Projektunterricht – subjektiv betrachtet: Eine qualitative Studie mit Lehrenden
für Deutsch als Fremdsprache. Baltmannsweiler: Schneider Verlag Hohengehren. [Referenzarbeit,
Kapitel 7]
Steininger, Ivo (2014). Modellierung literarischer Kompetenz. Eine qualitative Studie im Fremdsprachen-
unterricht der Sekundarstufe I. Tübingen: Narr.
5.3.5 Typenbildung
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Michael Schart
1 Begriffsklärung
Menschen ordnen die Erfahrungen, die sie mit und in ihrer Lebenswelt gewinnen, nach
charakteristischen, wiederkehrenden Wahrnehmungs- und Verhaltensmustern (Schütz 1993).
Diese „anthropologische Basistechnik“ (Kuckartz 2010: 554) macht sich auch die Wissenschaft
zunutze, wenn sie soziale Phänomene mit Blick auf das Typische untersucht. Insbesondere
im Umfeld der qualitativen Sozialforschung sind Verweise auf typische Handlungen, Denk-
muster oder soziale Konstellationen weit verbreitet. Hierbei handelt es sich jedoch zumeist
um Beschreibungen, die auf einer alltäglichen Deutung des Begriffes Typ beruhen. Bohnsack
(2010: 48) bezeichnet sie daher auch als „Typenbildungen des Common Sense“.
Ein wissenschaftliches Verständnis des Begriffes hingegen muss auf ein methodisch kon-
trolliertes Vorgehen rekurrieren. Mit einer solchen systematischen Bildung von Typen, die
sich auf der Grundlage der Analyse von empirischen Daten vollzieht, beschäftigt sich dieses
Kapitel.
Sowohl in der quantitativen als auch in der qualitativen Sozialforschung gilt die Kon-
struktion von Typologien als ein effektives Verfahren, um umfangreiches Datenmaterial zu
reduzieren, zu verdichten und schließlich in eine übersichtliche Ordnung zu bringen. Die
Zielsetzung besteht darin, im untersuchten Gegenstandsbereich Strukturen und Zusammen-
hänge zu identifizieren und diese dann als unterschiedliche Typen zu interpretieren. In der
quantitativen Forschung kommen in diesem Prozess explorative statistische Verfahren wie
beispielsweise Clusteranalysen zum Einsatz, mit denen in den Daten typische Muster bzw.
Korrelationen zwischen Merkmalsträgern oder Merkmalsausprägungen aufgedeckt werden
können (vgl. Tippelt 2010: 119).
Auch in der qualitativen Sozialforschung, die im Mittelpunkt der folgenden Betrachtung
stehen wird, bezieht sich der Begriff der Typenbildung im Kern auf eine Methode der Daten-
analyse, mit der ein komplexes soziales Phänomen einer Deutung zugänglich gemacht wer-
den soll (s. auch Kapitel 5.3.4). In einem konkreten Forschungsdesign können typenbildende
Verfahren in unterschiedlichen Funktionen eingesetzt werden. „Der Anspruch reicht von
der Beschreibung und deskriptiven Gliederung eines Untersuchungsfeldes bis hin zur Hy-
pothesengenerierung bzw. Theorieentwicklung auf der Grundlage eher induktiver oder aber
abduktiver Prozesse“ (Nentwig-Gesemann 2013: 300).
Seit Max Weber zu Beginn des 20. Jahrhunderts seine Überlegungen zu einer verstehen-
den Soziologie mithilfe von idealtypischen Konstruktionen ausformulierte (z. B. Weber 1988
[1922]: 190–214), wurden gerade in der deutschsprachigen empirischen Sozialforschung eine
ganze Reihe typenbildender Verfahren entwickelt (siehe z. B. Kuckartz 2012; Kelle/Kluge
2010; Nohl 2013). Diese grenzen sich zwar in Einzelaspekten deutlich voneinander ab, ver-
folgen jedoch die gemeinsame, grundlegende Strategie, das gesamte Datenmaterial in eine
klassifikatorische Ordnung zu bringen, um dann vor dieser Folie das soziale Phänomen zu
beschreiben und zu erklären.
Im Prozess der Typenbildung werden einzelne Daten aus den untersuchten Fällen zu neuen
Einheiten zusammengesetzt. Die so entstandenen Gruppen zeichnen sich dadurch aus, dass
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
die in ihnen versammelten Elemente eine möglichst hohe Ähnlichkeit aufweisen (interne
Homogenität), während verschiedene Gruppen untereinander durch möglichst deutliche Kon-
traste gekennzeichnet sind (externe Heterogenität) (Kelle/Kluge 2010: 85-86).
Die interne Homogenität eines einzelnen Typus bzw. die externe Heterogenität zwischen
den verschiedenen Typen in einer Typologie ergeben sich durch je spezifische Konstellationen
von Merkmalen. Somit besteht ein wichtiger Schritt der Analyse bei der Typenbildung darin,
relevante Merkmale zu benennen und zu begründen, anhand derer die zu gruppierenden
Elemente verglichen und kontrastiert werden können.
Mit Bildung von Typologien ist der Anspruch verbunden, die enge Bindung an das Sin-
guläre der einzelnen Fälle zu überwinden und empirisch begründete, fallübergreifende Aus-
sagen über einen Gegenstandsbereich zu treffen. Hieraus leitet sich eine besondere Stellung
dieses Ansatzes innerhalb der qualitativen Sozialforschung ab, denn typenbildende Verfahren
schlagen eine Brücke zwischen detaillierten Einzelfallanalysen, wie sie etwa in ethnogra-
fischen Ansätzen praktiziert werden, und Vorgehensweisen, die – beispielsweise im Sinne
der Grounded Theory – auf die Formulierung von Theorien abzielen (vgl. Kuckartz 2010:
555). Der Begriff der Typenbildung lässt sich daher nicht auf eine Analysetechnik reduzieren,
sondern er ist zugleich auch mit methodologischen und methodischen Implikationen ver-
bunden, die den gesamten Forschungsprozess betreffen. Die folgenden Abschnitte werden
diese Zusammenhänge eingehender thematisieren.
Angesichts der Vielzahl von Ansätzen kann es in diesem Beitrag nicht darum gehen, einen
detaillierten Leitfaden für den Ablauf der Typenbildung vorzustellen (siehe dazu z. B. Kelle/
Kluge 2010). Stattdessen sollen deren grundlegende Prinzipien aufgezeigt und einige zentrale
Kontroversen nachgezeichnet werden.
In der empirischen Fremdsprachenforschung spielen typenbildende Verfahren bislang eher
eine untergeordnete Rolle. Gleichwohl können sie – und das soll im Folgenden an einigen
Studien verdeutlicht werden – auch bei der Erforschung fremdsprachlicher Lehr- und Lern-
prozesse erkenntnisreiche Perspektiven eröffnen. So bietet sich ihr Einsatz bei qualitativen
Untersuchungsdesigns immer dann an, wenn im Anschluss an Beschreibungen von Einzel-
fällen die Datenanalyse zu generalisierenden Aussagen über das erforschte Phänomen zu-
sammengeführt geführt werden soll (wie z. B. über das didaktische Konzept „Projektunter-
richt“ in Schart 2003). Die Studien von Haudeck (2008) und Roche (2006) demonstrieren,
wie die Typenbildung genutzt werden kann, um verschiedene Verhaltensweisen in Gruppen
von Lernenden (z. B. Lernstrategien, Lerntechniken oder Lernstile,) zu identifizieren und zu
beschreiben. Und Roters (2012) Studie zur Reflexionskompetenz von Studierenden in der
Lehrerausbildung zeigt, dass sich aus Typisierungen Hinweise für die konkrete Gestaltung
von Bildungsprogrammen ableiten lassen.
sinnvolle Möglichkeit dar, die Grundlagen und Ergebnisse einer Typenbildung anschaulich
zu präsentieren.
Bei den Abbildungen 1 und 2 wird dieser Merkmalsraum von nur zwei Dimensionen
gebildet, d. h. die beiden Merkmale (auch: Kategorien oder Variablen) Form und Färbung
lassen jeweils nur zwei Merkmalsausprägungen (auch: Subkategorien) zu, anhand derer die
einzelnen Elemente der Systematik zugeordnet werden können. Dieses Prinzip wird sowohl
bei quantitativen als auch bei qualitativen Analyseprozessen angewendet.
Die Vier-Felder-Matrix von Abbildung 1 zeigt eine Typologie, bei der sich alle gebildeten
Typen trennscharf voneinander unterscheiden lassen. Zugleich weisen diese Typen auch in-
tern keine Varianzen auf. Solche Typologien sind bei sozialen Phänomenen nur dann zu
erwarten, wenn man relativ eindeutige Kategorien wählt (z. B. Geschlecht, Muttersprache
u. ä.) oder den Vergleich auf quantifizierbare Variablen reduziert (z. B. erreichte Punktzahl in
einem Test, Anzahl besuchter Unterrichtsstunden u. ä.). Auf diese Weise entstehen merkmals-
homogene (auch: monothetische) Typen, wie sie sich in Abbildung 1 finden.31
Dagegen münden typenbildende Verfahren, die auf das Erfassen komplexerer Strukturen
und Zusammenhänge abzielen, eher in merkmalsheterogenen (auch: polythetischen) Typen,
wie sie in Abbildung 2 dargestellt werden. Hier sind – im Unterschied zu den vier merk-
malshomogenen Typen aus Abbildung 1 – die einzelnen Elemente innerhalb einer Gruppe
keineswegs identisch. Sie werden vielmehr aufgrund deutlicher Ähnlichkeiten zum gleichen
Typ gezählt. Tritt dabei der Fall ein, dass einzelne Elemente der idealen Ausprägung der ver-
glichenen Merkmale sehr nahe kommen, können diese als Optimalfall (oder auch Prototypen)
ihrer jeweiligen Gruppe gelten. Sie repräsentieren dann ihren Typ, ohne jedoch mit ihm
identisch zu sein (vgl. Nentwig-Gesemann 2013: 301; Kelle/Kluge 2010: 105).
Durch den Vergleich der Abbildungen 1 und 2 lässt sich erkennen, dass die Zusammen-
fassung von Elementen zu Typen anhand von unterschiedlichen Merkmalsausprägungen in
der qualitativen Forschung keine Aufgabe darstellt, die ausschließlich formalisiert erfolgen
kann. Notwendig ist vielmehr die eingehende Interpretationsleistung der Forschenden. Ein
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
sehr anschauliches Beispiel dafür bietet die Arbeit von Roche (2006), in der beschrieben wird,
wie der Analyseprozess mehrere Interpretationsschleifen von der Typologie zu den Daten (in
diesem Fall Einträge in Lernerjournalen) und wieder zurück durchläuft.
Auf dem Weg von den Einzelfällen zu einer Typologie müssen eine Reihe von metho-
dischen und methodologischen Entscheidungen getroffen werden, die im Folgenden anhand
von drei zentralen Fragen der Typenbildung umrissen werden.
Im vorangegangen Abschnitt wurde betont, dass die Definition eines Merkmalsraums die
Grundlage für den Vergleich darstellt. Damit ist jedoch noch nicht die für den Forschungs-
prozess maßgebliche Frage beantwortet, woher die Merkmale oder Kategorien stammen,
anhand derer Daten verglichen werden können. Die verschiedenen Varianten typenbildender
Verfahren finden darauf sehr unterschiedliche Antworten. So werden in einigen Ansätzen
die Merkmale bereits vor dem Beginn des Vergleichs definiert, indem man sie beispielsweise
direkt aus einer Theorie oder der Forschungsfrage ableitet (siehe z. B. die „typenbildende
Inhaltsanalyse“ bei Kuckartz 2012: 115–131; s. Kapitel 5.3.4). Dabei bleibt zunächst unbe-
achtet, ob sich die einzelnen Merkmalskombinationen anhand konkreter Fälle auch tatsächlich
empirisch nachweisen lassen. Diese Herangehensweise kann dazu führen, dass so genann-
te künstliche Typologien entstehen, in denen einzelne Felder des Merkmalsraums im Ver-
lauf des Typisierungsprozesses unbesetzt bleiben. Aber auch dieses Ergebnis stellt natürlich
31 Eine andere Möglichkeit, solche „reinen Typen“ hervorzubringen, geht auf Max Webers Konstruktion von
Idealtypen zurück. Bei deren Bildung werden einzelne Merkmalsausprägungen gedanklich überhöht, an-
dere dagegen ausgeblendet, so dass man „theoretische Konstruktionen unter illustrativer Benutzung des
Empirischen“ erhält (Weber 1988 [1922]: 205). Im Unterschied zu den in den Abbildungen 1 und 2 dar-
gestellten Realtypen besteht bei solchen Idealtypen nur noch bedingt ein Zusammenhang mit empirischen
Daten bzw. realen Fällen.
einen Erkenntnisgewinn über das beforschte Phänomen dar. Denn Felder, die nicht gefüllt
werden können, stehen dann für einen Typ, der zwar logisch plausibel erscheint, sich aber
in den Daten nicht nachweisen lässt (vgl. Lofland et al. 2006: 148). So stößt beispielsweise
Roche (2006) bei seinem Versuch, eine zunächst auf der Basis theoretischer Überlegungen zu
Lernstilen konstruierte Typologie mit konkreten Lernerdaten zu füllen, mehrfach auf diese
Schwierigkeit.
Bei einer anderen Herangehensweise an die Typenbildung wird die Vorabauswahl von Ver-
gleichsdimensionen dagegen grundsätzlich abgelehnt. Ausgangspunkt für die Konstruktion
eines Merkmalsraums bilden in diesem Fall zunächst immer nur die Daten selbst, weshalb
man auf diesem Weg zu sogenannten natürlichen Typologien kommt. Ein Beispiel dafür
stellt die dokumentarische Methode dar, deren Vertreterinnen und Vertreter ihr Vorgehen
auch als praxeologische Typenbildung bezeichnen, weil es sich an „der impliziten Logik der
erforschten Praxis“ (Nohl 2013: 38) orientiert. Es wird eine „abduktive Erkenntishaltung“
(Nentwig-Gesemann 2013: 307) angestrebt, um Hypothesen über das Untersuchungs-
feld allein aus dem empirischen Material heraus mit Hilfe abduktiver Schlüsse zu gewin-
nen.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Die Entscheidung über die Vergleichsdimensionen des Merkmalsraums ist also mit grund-
sätzlichen methodologischen Überlegungen verknüpft. Es geht zum einen um die Frage,
inwieweit Forschende ihr Vorwissen (in Form von Theoriewissen, eigenen Erfahrungen mit
dem zu erforschenden Phänomen etc.) im Forschungsprozess ausblenden oder sich von die-
sem distanzieren können. Zum anderen wird diskutiert, ob die Generierung von neuartigen
Typologien im Sinne eines explorativen Vorgehens überhaupt möglich sei, wenn man die Ver-
gleichsdimensionen bereits vorab festlege und damit die einzelnen Elemente theoriegeleitet
zu Typen anordne (siehe z. B. die Kritik bei Bohnsack 2010: 487 an einem theoriegeleiteten
Vorgehen).
Eine vermittelnde Position nehmen Kelle/Kluge (2010: 18–27) ein. Sie bezeichnen die
Annahme, dass Kategorien und Konzepte gleichsam aus dem Datenmaterial emergieren
könnten, als „induktivistisches Selbstmissverständnis“ der qualitativen Methodenlehre. Der
kreative und spielerische Umgang mit den Daten, wie er für induktive oder abduktive Vor-
gehensweisen typisch ist, sei für das Generieren von Typologien zwar notwendig, aber zu-
gleich auch riskant und vage. Wissenschaftliches Wissen, so die Argumentation bei Kelle/
Kluge, entstehe immer aus der Kombination von bereits Bekanntem und Neuem. Sie sprechen
sich daher für eine beständige Integration von empirischen und theoretischen Arbeitsschritten
aus, wobei das Vorwissen der Forschenden einfließen sollte. Entscheidend sei dabei, dass sich
Forschende auf abstrakte Konzepte bzw. empirisch gehaltlose Kategorien32 beschränkten.
Nur diese könnten als „theoretische Heuristiken“ bei der Typenbildung dienen, weil sie den
Blick auf das Neue in den Daten nicht verstellten (Kelle/Kluge 2010: 63). Während also die
Kategorien in diesem vermittelnden Ansatz theoriegeleitet formuliert werden, entstehen die
Subkategorien des Merkmalsraums in der Auseinandersetzung mit dem Datenmaterial.
32 Kelle/Kluge (2010: 63) nennen als Beispiel das Konzept „Rollenerwartung“, das noch keine konkreten
Aussagen darüber enthalte, wie sich die Rollenerwartungen in einem zu untersuchenden Feld gestalten.
Die Wahrnehmung der Forschenden bei der Analyse werde somit zwar gelenkt, aber der empirische Ge-
halt entstehe erst durch die intensive Beschäftigung mit den Daten.
Dieses Vorgehen lässt sich beispielshaft an der Studie von Haudeck (2008) nachvollziehen.
Am Beginn ihrer Untersuchung zu Lernstrategien und Lerntechniken beim Vokabellernen
formuliert Haudeck aufgrund theoretischer Prämissen Oberkategorien, anhand derer sie die
Lernerdaten (Einträge in Lerntagebüchern) zunächst grob systematisiert. Die eigentliche Ty-
pologie nimmt indes erst durch die induktiv aus dem Datenmaterial gewonnenen Kategorien
ihre Gestalt an. Und auch bei Haudeck finden sich die oben erwähnten Rücküberprüfungen
zwischen Kategorien und Texten, um die Zuordnung abzusichern.
Roters (2012) orientiert sich in ihrer vergleichenden Studie zur Reflexionsfähigkeit von
angehenden Fremdsprachenlehrerinnen und -lehrern in Deutschland und den USA eben-
falls an dem von Kelle/Kluge (2010) beschriebenen Modell. Sie entwickelt einen Merkmals-
raum für die Typisierung von studentischen Reflexionen, indem sie zunächst Daten aus den
beiden Ländern getrennt analysiert. Dabei fließen theoretisches Vorwissen ebenso ein wie
Dokumentenanalysen und Experteninterviews. Durch die Gegenüberstellung der länder-
spezifischen Analyse kommt Roters zu einer sechsstufige Typologie, anhand der sie ver-
schiedene Reflexionsniveaus von Novizen charakterisieren und hochschuldidaktische Emp-
fehlungen für ein reflexives Professionalisierungskonzept in der Lehrerbildung formulieren
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
kann.
Zusammenfasend lässt sich sagen, dass eine Antwort auf die Eingangsfrage dieses Ab-
schnitts, die keine Variante der Typenbildung ausgrenzt, unspezifisch ausfallen muss: Die
einzelnen Vergleichsdimensionen des Merkmalsraums können offensichtlich auf dem Vorwis-
sen der Forschenden beruhen oder ebenso erst im Prozess der Datenauswertung entstehen.
Sie lassen sich von der Forschungsfrage ableiten oder können vom Forschungsinstrument –
etwa den Fragen eines Interviewleitfadens – beeinflusst sein. Welches Vorgehen bevorzugt
wird, hängt letztlich vom untersuchten Gegenstand und den Forschungsfragen ab. Für die
wissenschaftliche Qualität einer Typologie indes ist ausschlaggebend, ob die Konstruktion
des Merkmalsraums eingehend reflektiert, nachvollziehbar dargestellt und begründet wird.
Am Beginn einer Typenbildung sollte nicht nur Gewissheit darüber bestehen, wie man zu den
Kategorien gelangt, anhand derer die empirischen Daten verglichen werden. Ebenso wichtig
ist es, eine Vorstellung davon zu besitzen, worauf sich dieser Vergleich konkret beziehen soll.
Traditionell wird von einer Parallelität zwischen Fällen und typisierten Elementen ausgegan-
gen. Die Individuen werden bei der Datenerhebung (etwa durch Interviews, Beobachtung
u. ä.) als einzelne Fälle behandelt und dann auch in dieser Form typisiert. Sowohl Haudeck
(2008) als auch Roche (2006) wählen in ihren Studien diesen Weg. Lernstrategien, Lerntech-
niken oder Lernstile bleiben somit eng mit den Lernenden verknüpft, auf deren Daten die
Bildung der Typologie beruht. Ebenso ist dies der Fall bei Roters (2012), die ihre Typisierung
von Reflexionsniveaus auf einzelne Studierende bezieht.
Für viele Forschungsinteressen erscheint es aber weitaus sinnvoller zu sein, eine größere
Gruppe von Individuen als Einzelfall zu betrachten, etwa wenn die Lernatmosphäre in un-
terschiedlichen Klassen untersucht werden soll und deshalb u. a. Gruppendiskussionen als
Forschungsinstrument zum Einsatz kommen. Die Typenbildung kann auch derart konzipiert
werden, dass sie sich auf Ereignisse und Situationen konzentriert oder unterschiedliche Denk-
figuren und Handlungsmuster innerhalb eines sozialen Kontextes ins Zentrum der Analyse
rückt. In all diesen Beispielen können zwar Daten von einzelnen Personen die Datengrund-
lage schaffen, doch im Verlauf des Analyseprozesses ergibt sich eine immer größere Distanz
zwischen den ursprünglichen Einzelfällen und den typisierten Elementen.
Ein Beispiel für diesen Ansatz liefert die Studie von Schart (2003), die sich subjektiven
Unterrichtstheorien von DaF-Lehrenden widmet. Auch in dieser Arbeit werden nicht die be-
fragten Individuen selbst typisiert, sondern die Argumentationslinien, denen die Lehrenden
folgen, wenn sie ihre Sicht des Projektunterrichts beschreiben. Ebenso lässt sich in diesem
Zusammenhang die Studie von Ertelt-Vieth (2005) anführen. Die Autorin bezieht sich zwar
nicht explizit auf die Typenbildung, ihr Prozess der Datenanalyse weist jedoch deutliche Ähn-
lichkeiten mit dem hier beschriebenen Vorgehen auf. Bei ihrer Untersuchung von deutsch-
russischem Schüleraustausch richtet Ertelt-Vieth ihr Augenmerk auf Elemente, die das gegen-
seitige Verständnis erschweren (sogenannte Lakunen) und typisiert diese nach einer Reihe
von Kriterien. Sie kommt dadurch zu verschiedenen Typen von Lakunen, die nicht mehr fest
mit den untersuchten Einzelfällen verknüpft sind.
Bei einer solchen weiten Definition der zu typisierenden Elemente, ist es unvermeidlich,
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
dass die Daten einzelner Fälle verschiedenen Typen zugeordnet werden. Man erhält multi-
dimensionale Typologien. Deren Überschneidungen sind jedoch nur dann bedenklich, wenn
sich am Ende ein Großteil der Fälle in vielen Typen wiederfindet. Dann stellt sich zwangsläu-
fig die Frage nach dem Sinn der Typisierung (vgl. Richards 2009: 182). Ein großer Vorteil der
Trennung von Einzelfall und typisierten Elementen liegt darin, dass sich neue Möglichkeiten
der Datenanalyse ergeben. Es lassen sich beispielsweise systematisch und empirisch begrün-
det Modellfälle oder Modelltypen entwickeln, die eine neue Perspektive auf das betreffende
soziale Phänomen erschließen. So verdeutlicht Schart (2003: 212) die extremen Gegensätze
zwischen den typischen Argumentationslinien in seiner Studie, indem er auf der Grundlage
seiner Daten einen fiktiven Dialog zwischen zwei hypothetischen Lehrenden konstruiert
(siehe dazu auch Kuckartz 2012: 130).
Auch wenn in einem konkreten Forschungsprojekt das Verhältnis zwischen den Einzel-
fällen und den Elementen der Typisierung sehr unterschiedlich gehandhabt werden kann, ist
für alle Ansätze der Typenbildung in der qualitativen Sozialforschung jedoch charakteristisch,
dass ein genaues Verständnis der Einzelfälle als zwingend erforderlich betrachtet wird. Hierin
unterscheidet sich die Typenbildung von Analyseverfahren wie etwa der Grounded Theory,
bei der einzelne Fälle im Verlauf des Forschungsprozesses nur eine untergeordnete Rolle spie-
len (vgl. Nohl 2013: 29f). Bleiben die einzelnen Fälle als Ausgangspunkt der Typenbildung
unverstanden, so geben Lofland et al. (2006: 149) zu bedenken, könne das gesamte Verfahren
leicht in einer sterilen Übung enden. Die Typenbildung darf also nicht als ein Ersatz für die
Interpretation der Einzelfälle missverstanden werden. Sie kann nur funktionieren, wenn sich
Forschende zugleich auch um ein tiefes Verständnis der einzelnen Fälle bemühen.
Ein letzter Aspekt, der mit Blick auf das Verhältnis von Fall und Typus erwähnt werden
muss, betrifft die Verteilung der Fälle bzw. Elemente in einer Typologie. Kommt es zu einer
Typologie, in der viele typisierte Elemente mehrfach vertreten sind, muss deren Erklärungs-
kraft bezweifelt werden. Auch die entgegengesetzte Tendenz erscheint problematisch, denn
können viele Elemente gar nicht erst typisiert werden, sind die Vergleichsdimensionen dem
empirischen Material nicht angemessen gewählt (vgl. Lofland et al. 2006: 149).
Die bis hierhin geschilderten Prinzipien und Kontroversen vermitteln eine Vorstellung davon,
weshalb die Typenbildung mehr darstellt als eine reine Technik der Datenanalyse. Die Ent-
scheidung für dieses Verfahren kann sich – je nach gewähltem Ansatz – auf den gesamten For-
schungsprozess auswirken. Daher fällt es auch sehr schwer, eine befriedigende Antwort auf
die Frage zu finden, die diesem Abschnitt voransteht. Tendenziell erscheint es für quantitative
Untersuchungen eher unproblematisch zu sein, den Beginn der Typenbildung erst relativ spät
im Forschungsprozess einsetzen zu lassen. So können auch bereits erhobene und analysierte
Daten nachträglich einem explorativen Verfahren wie der Clusteranalyse unterzogen werden,
um sie nach typischen Mustern zu befragen. Für die qualitative Forschung hingegen ist ein
solches Vorgehen eher selten realisierbar. Hier beginnt die Typenbildung, wie Kelle/Kluge
(2010) überzeugend darstellen, bereits bei der Auswahl der Einzelfälle (s. Kapitel 4.3 Sam-
pling), deren Zusammensetzung das Ergebnis der Typisierung entscheidend beeinflusst.
Selbst wenn man sich auf den zentralen Bereich der Typenbildung konzentriert, also nur
den Vergleich und die Gruppierung der Daten sowie die Formulierung der Typen betrachtet,
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
findet man keine klare Antwort darauf, an welchem Punkt die Typenbildung einsetzen soll-
te. Kuckartz (2012) beispielsweise betont, dass die eingehende Analyse der Einzelfälle eine
grundlegende Voraussetzung dafür darstelle, um mit dem Vergleich beginnen zu können.
Dem steht, wie bereits weiter oben erwähnt, die Dokumentarische Methode mit ihrer Strate-
gie entgegen, die Rekonstruktion der Einzelfälle und deren Vergleich parallel zu vollziehen.
Diese Praxis beruht auf der Idee, dass die Besonderheiten der Einzelfälle gerade durch die
kontinuierliche, gegenseitige Kontrastierung hervortreten. Zugleich ist mit dieser Heran-
gehensweise die Hoffnung verbunden, der Befangenheit, in der sich die Forschenden durch
ihr Vorwissen und ihre Erwartungen befinden, die Wirkungskraft zu nehmen. Der Vergleich
als eine „durchgängige Analysehaltung“ (Nohl 2013: 15) erfüllt somit nicht nur eine erkennt-
nisgenerierende, sondern auch eine erkenntniskontrollierende Funktion.
Die konkrete Ausgestaltung des Vergleichs bei der Typenbildung ergibt sich jedoch nicht
nur aus solchen methodologischen Überlegungen. Eine nicht zu unterschätzende Rolle spielen
auch die technischen Arbeitsmittel, die Forschenden zur Verfügung stehen. Seit den 1990er
Jahren wachsen mit zunehmend umfangreicheren und leistungsfähigeren Computerpro-
grammen auch die Möglichkeiten der Datenanalyse. Diese Entwicklung verlieh gerade der
Typenbildung eine besondere Dynamik, denn hierdurch ergaben sich die notwendigen Mittel
und Wege, diese „wirklich transparent, methodisch kontrolliert und intersubjektiv nachvoll-
ziehbar“ (Kuckartz 2012: 153) zu gestalten. Ein relativ frühes Einsetzen von Quervergleichen
zwischen den Einzelfällen stellt daher aus technischer Sicht inzwischen kein Problem mehr
dar, weil QDA-Software ein kontinuierliches Springen von den kodierten Elementen zu den
Kontexten erlaubt, denen sie entstammen.
Bleibt schließlich die Frage, wann genau die Typenbildung ihren Abschluss findet. Einig
sind sich die verschiedenen Ansätze darin, dass es mit Blick auf die wissenschaftliche Qua-
lität einer Studie nicht ausreicht, diese in der Beschreibung eine Typologie enden zu lassen.
Die Darstellung von empirischen Regelmäßigkeiten bei einem sozialen Phänomen markiert
zwar einen wichtigen Zwischenschritt, ihr muss jedoch zwingend die Erklärung dieser Zu-
sammenhänge folgen. Denn der gesamte Prozess beruht letztlich auf dem Anspruch, über das
5.3.5 Typenbildung
Beschreibung und Gliederung eines Untersuchungsfeldes,
Hypothesengenerierung bzw. Theorieentwicklung
Daten / Fälle
Leitfrage: Welche Zusammenhänge und Muster
lassen sich beschreiben?
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Vergleichsdimensionen festlegen
Merkmalsraum konstruieren
Einzelfälle und Daten zuordnen
Typologie
Daten in klassifikatorischer Ordnung
Typische zu einer Generalisierung zu gelangen und mit den Typologien zur Theorieentwick-
lung beizutragen. Das kann auf sehr unterschiedliche Art und Weise erfolgen. Im Umfeld der
Dokumentarischen Methode beispielsweise wird ein zweistufiges Verfahren gewählt, um die
Erkenntnisse über den untersuchten Kontext zu verallgemeinern. Der sinngenetischen, eng
an den Daten orientierten Typenbildung folgt eine soziogenetische Typenbildung, bei der als
Vergleichsdimensionen soziologische und soziodemografische Kategorien wie Milieu oder
Geschlecht hinzugezogen werden (vgl. Nentwig-Gesemann 2013). Dass ein solcher Blick-
winkel auf die Daten auch in der Fremdsprachenforschung zu interessanten Einsichten führen
kann, lässt sich beispielsweise an der Studie von Schart (2003) verfolgen. Deren Analyse ver-
deutlicht, wie das didaktische Denken von Lehrenden im Bereich Deutsch als Fremdsprache
von den unterschiedlichen Studienabschlüssen der Befragten geprägt ist.
Ein anderes mögliches Vorgehen stellt Kuckartz (2012) dar. Er plädiert dafür, die auf quali-
tativer Datenanalyse beruhende Typologie in ein quantifizierendes Verfahren zu überführen.
Welchen Weg Forschende auch wählen: Als Ergebnis der Typenbildung sollten sie ver-
deutlichen, weshalb es sinnvoll erscheint, das betreffende soziale Phänomen gerade in dieser
Weise zu interpretieren. Sie müssen sich und auch den Rezipienten ihrer Studie Klarheit
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
darüber verschaffen, was eigentlich das Neuartige an ihren Typen darstellt und in wie fern
die konstruierte Typologie als heuristisches Instrument auch in anderen sozialen Kontexten
Anwendung finden kann (vgl. Kuckartz 2010: 565; Richards 2009: 182).
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit
einem Sternchen markiert.
Bohnsack, Ralf (2010). Rekonstruktive Sozialforschung. Einführung in qualitative Methoden. 8., durch-
ges. Aufl. Opladen: Budrich.
Bohnsack, Ralf/Nentwig-Gesemann, Iris/Nohl, Arndt-Michael (2013) (Hg.). Die dokumentarische Me-
thode und ihre Forschungspraxis. 3., aktualisierte Aufl. Wiesbaden: Springer VS.
*Ertelt-Vieth, Astrid (2005). Interkulturelle Kommunikation und kultureller Wandel: eine empirische
Studie zum russisch-deutschen Schüleraustausch. Tübingen: Narr.
*Haudeck, Helga (2008). Fremdsprachliche Wortschatzarbeit außerhalb des Klassenzimmers. Eine qua-
litative Studie zu Lernstrategien und Lerntechniken in den Klassenstufen 5 und 8. Tübingen: Narr.
Kelle, Udo/Kluge, Susann (2010). Vom Einzelfall zum Typus. Fallvergleich und Fallkontrastierung in der
qualitativen Sozialforschung. 2., überarbeitete Aufl. Wiesbaden: Springer VS.
Kuckartz, Udo (2010). Typenbildung. In: Mey, Günter/Mruck, Katja (Hg.). Handbuch qualitative For-
schung in der Psychologie. Wiesbaden: VS Verlag, 553–568.
Kuckartz, Udo (2012). Qualitative Inhaltsanalyse. Methoden, Praxis, Computerunterstützung. Wein-
heim: Beltz Juventa.
Lofland, John/Snow, David/Anderson, Leon/Lofland, Lyn H. (2006). Analysing Social Settings. A Guide
to Qualitative Observation and Analysis. 4th edition. Belmont: Wadsworth.
Nentwig-Gesemann, Iris (2013). Die Typenbildung in der dokumentarischen Methode. In: Bohnsack,
Ralf/Nentwig-Gesemann, Iris/Nohl, Arndt-Michael (Hg.). Die dokumentarische Methode und ihre
Forschungspraxis. 3., aktualisierte Aufl. Wiesbaden: Springer VS, 297–322.
Nohl, Arnd-Michael (2013). Relationale Typenbildung und Mehrebenenvergleich. Neue Wege der Doku-
mentarischen Methode. Wiesbaden: Springer VS.
Richards, Lyn (2009). Handling qualitative data. A practical guide. 2nd ed. London: SAGE.
*Roche, Thomas (2006). Investigating Learning Style in the Foreign Language Classroom. Berlin: Lan-
genscheidt.
*Roters, Bianca (2012). Professionalisierung durch Reflexion in der Lehrerbildung: Eine empirische
Studie an einer deutschen und einer US-amerikanischen Universität. Münster: Waxmann.
*Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden
für Deutsch als Fremdsprache. Hohengehren: Schneider. [Referenzarbeit, s. Kapitel 7]
Schütz, Alfred (1993). Der sinnhafte Aufbau der sozialen Welt. Eine Einleitung in die verstehende
Soziologie. 6. Aufl. Frankfurt/M.: Suhrkamp.
Tippelt, Rudolf (2010). Idealtypen konstruieren und Realtypen verstehen – Merkmale der Typenbildung.
In: Ecarius, Jutta/Schäffer, Burkhard (Hg.). Typenbildung und Theoriegenerierung. Methoden und
Methodologien qualitativer Bildungs- und Biographieforschung. Opladen: Budrich, 115–126.
Weber, Max/Winckelmann, Johannes (1988 [1922]). Gesammelte Aufsätze zur Wissenschaftslehre.
7. Aufl. Tübingen: Mohr.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
1 Begriffsklärung
Unter dem Begriff der Diskursanalyse werden verschiedene pragmalinguistisch fundierte
Verfahren zur Auswertung sozialer Interaktionen gefasst. Nach van Lier (1996: 4) kann die
Bedeutung solcher Interaktionen im Fremdsprachenunterricht nicht einfach als selbstver-
ständlich vorausgesetzt werden, „but the interaction itself must be meticulously described
and understood.“ Der Begriff Interaktion umfasst die beiden Aspekte inter (lat. zwischen) und
actio (lat. Handlung, Tätigkeit) und wird von Henrici folgendermaßen definiert:
Unter Interaktion sollen im Folgenden sprachliche und nichtsprachliche Handlungen verstanden
werden, die zwischen mindestens zwei Gesprächspartnern stattfinden und mindestens einen Beitrag
(’turn’) der jeweiligen Partner umfassen, der inhaltlich an den jeweils anderen gerichtet ist. (Henrici
1995: 25; Hervorhebung im Original)
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Goffman (z. B. 1981) hat für solche Interaktionen den zentralen Begriff der Begegnung (en-
counter) geprägt und impliziert damit, was House (1991: 405) als „wechselseitige Beein-
flussung von Individuen oder Gruppen“ bezeichnet. Demnach hat die Forschung zu Inter-
aktion grundlegend das Gegenüber im Blick – unabhängig von der Frage, ob als direkter
Adressat oder nur als passiver Zuhörender. Es sind alle Partizipientinnen und Partizipienten
im Analyseprozess zu berücksichtigen, was gerade für die Unterrichtsforschung bedeutsam
ist, da die Kommunikation in der Regel in größeren Gruppen, beispielsweise Schulklassen,
stattfindet (Schwab 2011). Eine einseitige Reduktion auf bestimmte Teilnehmende (z. B. nur
die Lehrperson) ist nach diesem Verständnis nicht angemessen, sondern verzerrt den Blick
auf den Interaktionsprozess als Ganzes. Auch wenn der Fokus auf bestimmte Teilnehmende
der Interaktion gelegt wird (z. B. Schülerinnen und Schüler mit Migrationshintergrund oder
Erzieherinnen und Erzieher in der ersten Phase ihrer Ausbildung), so muss doch immer das
Gesamtgefüge in den Analyseprozess eingeschlossen werden (vgl. bspw. Hoshii/Schumacher
2010 zur Konstellation bei der fremdsprachendidaktisch motivierten Videokonferenz).
In der Unterrichtsforschung haben neben der Funktionalen Pragmatik insbesondere die
Interaktionsanalyse und die ihr zuzuordnende Gesprächsanalyse größere Bedeutung gewon-
nen. Die Gesprächsanalyse geht auf die Konversationsanalyse zurück, versteht sich aber als
weitergefasster Ansatz, welcher z. B. „durch Prozeduren der interaktionalen Soziolinguistik,
der discursive psychology und der grounded theory“ (Deppermann 2001: 10; Hervorhebung
im Original) ergänzt wird und weniger eng gefasst ist als die traditionelle (ethnomethodo-
logische) Konversationsanalyse (Deppermann 2001; vgl. hierzu auch Henne/Rehbock 2001).
Beide diskursanalytischen Forschungstraditionen, sowohl (a) die Interaktionsanalyse als
auch (b) die Funktionale Pragmatik, untersuchen Interaktionsabläufe in allen Bereichen des
öffentlichen (z. B. Podiumsdiskussion, Fernsehinterview) und privaten Lebens (z. B. Familien-
debatte, Arztbesuch), werden aber im Folgenden begrenzt auf institutionelle Lernorte wie
Kindergarten, Schule oder Hochschule behandelt. Gemeinsam ist ihnen der Fokus auf die
Handlungsebene, insbesondere die Qualität und Ausgestaltung der sprachlichen Äußerun-
gen: Beide Methoden eignen sich für ein tiefergehendes Verständnis der Sprachhandlungen,
die z. B. Lernende und Lehrende in der Klassenzimmer-Interaktion ausführen, wenngleich
die Ansätze methodologisch aus unterschiedlichen theoretischen Traditionen stammen und
differente Herangehensweisen aufweisen. Während die Interaktionsanalyse stark durch die
soziologische Forschung und Ethnomethodologie beeinflusst wurde (Deppermann 2001), ist
die Funktionale Pragmatik deutlich linguistischer geprägt.
(a) Interaktionsanalyse impliziert ein umfassenderes Verständnis von Gesprächen als dies
z. B. bei der Konversationsanalyse suggeriert wird, da neben verbalen und non-verbalen
Aspekten auch die Rolle des Visuell-Räumlichen von Sprachhandlungen verdeutlicht wird
(Deppermann/Schütte/Ernst o. J.). In der englischsprachigen Literatur wird allerdings eher
der Begriff discourse analysis als übergeordneter Begriff verwendet (z. B. Nunan 1993
oder Schiffrin/Tannen/Hamilton 2003), unter welchem neben interaktionsanalytischen
teilweise auch konversationsanalytische Ansätze firmieren (z. B. Schiffrin 1994). In-
nerhalb der Diskursanalyse unterscheiden Ellis/Barkhuizen (2005) überdies zwischen
interactional analysis und interaction analysis. Während interactional analysis dem
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
deutschen Begriff Interaktionsanalyse entspricht, ist mit Letzerem ein im Vorfeld fest-
gelegtes Beobachtungsraster gemeint, wie z. B. das von Flanders (1978) entwickelte FIAC
(Flanders’ Interaction Analysis Categories) oder das Beobachtungsprotokoll von Brophy/
Good (1976) zur Lehrer-Schüler-Interaktion (s. Kapitel 5.2.3 zur Beobachtung). Ein etwas
anderes, aber nichtsdestotrotz einflussreiches Modell von discourse analysis haben die
britischen Linguisten John Sinclair und Malcolm Coulthard in ihrem Buch Towards an
Analysis of Discourse (1975) entwickelt. Basierend auf einem sprechakttheoretischen Ver-
ständnis von (Unterrichts-)Interaktion stellen sie ein Analysemodell zur Beschreibung
sprachlicher Handlungen vor, in dessen Mittelpunkt der sogenannte IRF-exchange (initia-
tion-response-feedback33), zu Deutsch pädagogischer Austausch (z. B. Schwab 2009), steht.
Diese dreischrittige Sequenz bildet das kommunikative Rückgrat des lehrerzentrierten
Plenumunterrichts – in der Regel operationalisiert durch (1) Lehrerfrage, (2) Schülerant-
wort und (3) Feedback zur Schülerantwort (vgl. hierzu auch Becker-Mrotzek/Vogt 2001:
15–24).
(b) Die Funktionale Pragmatik bezieht dagegen bei der analytischen Modellierung von Unter-
richtsinteraktionen im Gegensatz zur Interaktions- und Konversationsanalyse die mentale
Dimension der Interaktantinnen und Interaktanten explizit mit ein. In sogenannten Hand-
lungsmustern wird das Zusammenspiel sprecher- und hörerseitiger mentaler Operatio-
nen und Entscheidungen mit interaktionalen Handlungsschritten (Pragmemen) in einem
zweckgerichteten Ensemble rekonstruiert (s. einführend Becker-Mrotzek/Vogt 2001,
Weber/Becker-Mrotzek 2012). So wird beispielsweise der oben beschriebene interakti-
onsanalytische IRF-pattern unter Einbezug von lehrpersonseitigen Einschätzungen und
schülerseitigem Wissensabruf als Handlungsmuster „Aufgabe stellen – Aufgabe lösen“ in
nicht nur drei Schritten, sondern als Zusammenspiel von 19 Pragmemen zum Zwecke des
akzelerierten Wissenserwerbs modelliert (Ehlich/Rehbein 1986). Ein weiterer wichtiger
33 Manche Autorinnen und Autoren sprechen anstelle von feedback auch von evaluation und damit einem
IRE exchange bzw. IRE structure (vgl. Walsh 2006: 46).
en detail beschrieben und interpretiert; zum anderen wird versucht, das Lernen selbst in
seiner interaktionalen Verortung zu beschreiben und hieraus Schlüsse für den Spracherwerb
zu ziehen. Um dies zielführend umzusetzen, müssen bei der Analyse einige Prinzipien berück-
sichtigt werden, die im Folgenden aufgezeigt und erklärt werden (vgl. Ehlich/Rehbein 1986,
Becker-Mrotzek/Vogt 2001, Deppermann 2001, Seedhouse 2004, Dalton-Puffer 2007, Schwab
2009, Weber/Becker-Mrotzek 2012).
(a) Empirische Datengrundlage: Interaktionsanalyse und Funktionale Pragmatik basieren auf
Daten, die in natürlichen Settings gewonnen werden. In der Regel sind dies Video- und/
oder Audiomitschnitte. Das schließt vorherige Absprachen (sogenannte Untersuchungs-
skripts) mit den Forschungssubjekten aus; vielmehr sollte das Unterrichtsgeschehen mög-
lichst natürlich und unbeeinflusst von den Forschenden vonstatten gehen. Dabei geht man
bei der Datenerhebung von einer nicht-teilnehmenden Beobachtung aus (s. Kapitel 5.2.3
zur Beobachtung), bei der die Forschenden nicht verdeckt, sondern für alle Akteure sicht-
bar mitschneiden. Mit observer’s paradox (Labov 1972) bezeichnet man das sich daraus
ergebende Dilemma, dass Forschende bei Interaktionen anwesend sind, bei denen sich
die Interaktantinnen und Interaktanten aber so verhalten sollen, als ob sie unbeobachtet
wären. Häufig wird jedoch in Forschungsberichten konstatiert, dass sich der Zustand
natürlichen Verhaltens recht schnell einstellt, gerade bei jüngeren Personen.
(b) Emische Perspektive: Mit emischer Perspektive ist ein grundsätzliches Verständnis ethno-
graphischer Arbeiten angesprochen, bei welchem das Handeln der Beteiligten aus deren
Perspektive betrachtet wird (Seedhouse 2004). Nicht die Sichtweise der von außen be-
obachtenden Forscher (etische Perspektive) ist ausschlaggebend, sondern das Verständnis
der Partizipientinnen und Partizipienten selbst. Ziel der Analyse muss sein, die ureigene
Handlungslogik der Interaktantinnen und Interaktanten zu ergründen. Dies geht aus
interaktionsanalytischer Perspektive nur, wenn man sich konsequent und permanent der
Frage stellt „[W]hy that now?“ (Schegloff/Sacks 1973: 299), d. h., warum Akteure in einer
konkreten Situation so und nicht anders handeln. Aus funktional-pragmatischer Per-
spektive steht hingegen die Rekonstruktion der Handlungsziele der Beteiligten im Vor-
dergrund, die sie in gesellschaftlich etablierten Handlungsmustern verfolgen.
(c) Detail- und Materialtreue: Beide Ansätze implizieren, dass sämtliche Interpretationen und
Deutungsvorschläge vom Material ausgehen, wobei die Konversationsanalyse sich hier
deutlich von der Funktionalen Pragmatik unterscheidet und theoretische Überlegungen
grundsätzlich hintan stellt. Nur was in den Daten sichtbar ist, sollte Berücksichtigung
finden. A priori Annahmen, theoriegeleitet oder auf Alltagswissen beruhend, müssen
zunächst außen vor bleiben. Dabei sollte eine Aufnahme immer Vorrang vor der Ver-
schriftlichung (Transkription) haben. Allerdings sollte nie vergessen werden, dass auch
ein Videomitschnitt immer nur einen Ausschnitt der Wirklichkeit darstellt.
(d) Sequentialität von Interaktionen/Handlungsmuster: Die Interaktionsanalyse geht davon
aus, dass Gespräche einer sequentiellen Ordnung folgen. Das bedeutet, Äußerungen bau-
en auf das unmittelbar zuvor Gesagte auf und werden in einem zeitlichen Kontinuum
positioniert. In dieser Zeitlichtkeit ist auch der Analyseprozess zu sehen (‚Zeile für Zeile‘).
Ein einzelner Redebeitrag (turn) steht also niemals unabhängig von anderen Äußerungen.
Vielmehr hat jeder Beitrag einen bestimmenten Platz innerhalb einer Sequenz. Depper-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
mann (2001) spricht daher auch von der Sequenzanalyse, d. h. der Untersuchung von sich
fortschreibenden Sequenzen, die einer inhärenten Ordnung unterliegen. Sacks (1984: 22)
hat dies mit „order at all points“ ausgedrückt. Gespräche gelten demnach auch dann noch
als geordnet, wenn der subjektive Eindruck von einem vielstimmigen Durcheinander
dominiert – was in einem Klassenzimmer ja immer wieder der Fall sein kann. Im Gegen-
satz dazu betont die Funktionale Pragmatik den zweckgebundenen Zusammenhalt ver-
schiedener Pragmeme in einem Handlungsmuster. Die Sequentialität von Interaktionen
wird auch bei der funktionalpragmatischen Analyse berücksichtigt; jedoch wird mit dem
Konzept des Musterdurchlaufs die Linearität der Interaktion in eine zugrundliegende
nicht-lineare Ordnung gebracht und zusätzlich auch der möglicherweise iterative Cha-
rakter von Handlungseinheiten (also die Möglichkeit mehrfacher Musterdurchläufe)
erfasst.
(e) Kontextualität: In enger Verbindung zur Sequentialität von Interaktionen steht der Be-
griff der Kontextualität, der nur für die Interaktionsanalyse zentral ist und in der Funk-
tionalen Pragmatik nicht zu den grundlegenden Prinzipien gehört. Nach diesem Prinzip
sind Sprachhandlungen immer aus ihrer unmittelbaren Situiertheit zu verstehen, d. h.
im Kontext der sequentiellen Entfaltung einer Interaktion zu deuten (context-shaped).
Dadurch sind sie gleichzeitig context-renewing: Jeder Beitrag, jede Äußerung schafft
wiederum einen erweiterten, wenn nicht neuen Kontext (vgl. Seedhouse 2004). Par-
tizipientinnen und Partizipienten realisieren das u. a. mithilfe linguistischer Mittel (z. B.
deiktische Ausdrücke wie ‚er‘, ‚dieses‘ oder ‚dort‘), paralinguistischer Ressourcen (z. B.
Intonation bei der Verabschiedung der Klasse) oder non-verbaler Handlungen (z. B. Pro-
xemik oder Zeigen auf bestimmte Gegenstände oder Personen). Solche contextualization
cues (Gumperz 1982) werden von den Interaktantinnen und Interaktanten permanent
benutzt und gedeutet, um einem Gespräch den kontextuellen Rahmen zu geben, den
man als Außenstehende(r) leicht als gegeben ansieht, ohne zu bemerken, wie er doch erst
durch die Sprachhandlungen der Akteure zum Leben erweckt wird. Ein schönes Beispiel
stellt die zielsprachliche Begrüßung am Anfang des Fremdsprachenunterrichts dar. Damit
Datenaufbereitung
Audio- oder videografierte Gesprächsdaten (s. Kapitel 5.2.3) müssen für diskursanalytische
Auswertungen grundsätzlich verschriftet, d. h. transkribiert werden.34 Eine Transkription
basiert in der Regel auf einer Transkriptionskonvention, die sich an der Standardorthografie
orientiert, aber auch non-verbale und parasprachliche Elemente einbeziehen kann. Inwieweit
darüber hinaus eine phonetische Umschreibung nötig ist, hängt neben dem Datum selbst vor
allem von der Zielsetzung des Vorhabens ab.
Im deutschsprachigen Kontext finden die Transkriptionssysyteme GAT und HIAT beson-
ders häufig Verwendung (vgl. Mempel/Mehlhorn 2014). Mit GAT bzw. GAT 2 (Gesprächs-
analytisches Transkriptionssytem) (Selting et al. 2009) können ausgehend von einer sequen-
tiellen Darstellung (Zeile für Zeile) mit unterschiedlicher Genauigkeit (Minimal-, Basis- oder
Feintranskript) verbale und non-verbale Gesprächsdaten (also auch deren paralinguistische
Merkmale, z. B. Prosodie) verschriftlicht werden, ohne dass ein besonderer Schriftsatz (z. B.
IPA-Lautschrift) verwendet werden muss. Das grundlegende Inventar der zu verwenden-
den Zeichen und Regeln ist im Anhang dieses Beitrags beigefügt. Mittlerweile werden in
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
34 Hierfür gibt es mittlerweile eine Reihe an Computerprogrammen, die Forschende bei dieser Arbeit unter-
stützen (s. Kapitel 5.2.6). Diese Programme bieten überdies bereits Applikationen, welche bei der Analyse
der Daten helfen.
Datenanalyse
An dieser Stelle kann keine ausführliche Darstellung aller möglichen Aspekte diskurs-
analytischer Transkriptauswertungen erfolgen. Hierfür empfehlen wir z. B. Ehlich/Rehbein
(1986), Deppermann (2001), Becker-Mrotzek/Vogt (2001) oder Seedhouse (2004). Für die
Interaktionsanalyse gilt jedoch grundlegend, dass „[d]ie detaillierte Sequenzanalyse […] das
Herzstück der Gesprächsanalyse [ist]“ (Deppermann 2001: 53). Hier geschieht die wichtigste
Arbeit, an deren Ende eine in sich stringente Interpretation des vorhandenen Datenmaterials
steht. Für Neulinge der Interaktionsanalyse stellt sich immer wieder die Frage, wo überhaupt
begonnen werden kann, nachdem man erste Erhebungen gemacht hat. Deppermann schreibt
hierzu:
Üblicherweise sucht man Passagen aus, die auffällige, neuartige etc. Phänomene enthalten, klare
Fälle (‚clear cases‘) einer Gesprächspraktik zu sein scheinen oder offenbare Verdeutlichungsleis-
tungen (‚displays‘) der Interaktionsteilnehmer beinhalten. (Deppermann 2001: 52; Hervorhebung
im Original)
Solch ein phänomenologischer Zugang entwickelt sich am Material selbst (data-driven) und
impliziert im Gegensatz zu einem theoriegeleiteten Vorgehen (theory-driven) den Vorrang der
konkreten Praxis über die Theorie. Nachdem eine erste Sequenz beschrieben und analysiert
wurde, werden weitere, vergleichbare Stellen gesucht und, basierend auf den ersten Erkennt-
nissen, untersucht. Im Laufe der weiteren Analyse ergibt sich eine Kollektion an Sequenzen,
die auf ein bestimmtes Interaktionsmuster hinweist. Dies nennt man eine Gesprächspraktik.
Im Kontext der schulischen Interaktion gehört der pädagogische Austausch respektive IRF-
untersucht.
Ein wichtiges Charakteristikum diskursanalytischer Interpretationen ist ihre Überprüf-
barkeit an den entsprechenden Transkripten. Das Gütekriterium der intersubjektiven Nach-
vollziehbarkeit wird dadurch erfüllt, dass die Leserinnen und Leser am Material selbst die
Interpretation nachvollziehen und bei Bedarf im Anhang der Forschungsarbeit den Tran-
skriptausschnitt in seinem Kontext situiert nachlesen können.
Theoriebildung
Ausgehend von der Datenanalyse kommt es zur Theoriebildung, die auf einer Zusammenfüh-
rung der Interpretationen mit der einschlägigen Literatur beruht. Hierbei geht es vor allem
um die Abstraktion und Verallgemeinerung der gewonnenen Erkenntnisse, welche wiederum
auf den Transkriptdaten basieren. Da bei diskursanalytischen Untersuchungen im Vorfeld kei-
ne Hypothesen gebildet werden, muss es an dieser Stelle darum gehen, die Forschungsfragen
zu beantworten und in einen größeren Forschungskontext zu stellen. Während gesprächsana-
lytische Arbeiten versuchen, sogenannte Gesprächspraktiken herauszuarbeiten (vgl. Depper-
mann 2001), gilt es bei der Funktionalen Pragmatik, Handlungsmuster zu eruieren. Hierbei
geht es jeweils um übergeordnete (Sinn-)Strukturen, welche für bestimmte Gesprächsabläufe
konstituierend sind. So untersuchte z. B. Méron-Minuth (2009: 11), „wie sich eine Gruppe von
Grundschülerinnen und -schülern in einem immersiv angelegten Fremdsprachenunterricht
kommunikationsstrategisch einbringt“ und ihre Anliegen mit ihren zielsprachlichen Mitteln
realisiert. Basierend auf transkribierten Videoaufzeichnungen sowie Protokollen der betei-
ligten Lehrpersonen als auch Protokollen zu den videografierten Stunden analysierte sie das
umfangreiche Korpus. In dieser Studie konnte eine detaillierte Typologie an Kommunikati-
onsstrategien herausgearbeitet werden, die von Schülerinnen und Schülern im Verlauf ihrer
ersten vier Jahre Fremdsprachenunterricht entwickelt und eingesetzt wurden.
4 Beispielanalyse
Im Folgenden soll exemplarisch an der interaktionsanalytischen Referenzarbeit von Schwab
(2009) gezeigt werden, wie eine Unterrichtsdiskursanalyse konkret aussehen kann.
Nachdem der Feldzugang und damit die Möglichkeit der Datenerhebung mit Lehrperson,
Schulleitung, Eltern und Schulbehörde abgeklärt worden war, konnten die ersten Video- und
Audioaufnahmen gemacht werden. Die Transkription erfolgte parallel zu den Aufnahmen
und ersten Analysen nach der Konvention GAT. Dabei wurden folgende Aspekte als zentral
und unterrichtskonstituierend herausgearbeitet: (1) Lehrerinitiative, (2) Schülerinitiative (vgl.
auch van Lier 2001).
Insbesondere die Konstitution der sogenannten Schülerinitiative im lehrerzentrierten
Unterrichtsgespräch erwies sich als auffällig, bedeutungsvoll und bis dahin wenig beforscht.
Das Korpus wurde daraufhin gezielt auf dieses Phänomen hin untersucht und es wurden
Ankerbeispiele herausgearbeitet respektive zu einer Kollektion verdichtet. In Abbildung 3 ist
ein Beispiel aus der Kollektion abgebildet. Es soll exemplarisch analysiert und in den größeren
Kontext der Arbeit eingebettet werden.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Die hier als Schülerinitiative bezeichnete Gesprächspraktik ist in Zeile 7 sichtbar. Sequen-
tiell positioniert die Schülerin ihren leise artikulierten Beitrag unmittelbar in die kurze Lü-
cke, die sich nach der Lehrerfrage auftut, obschon sie nicht von ihr aufgerufen wurde (self
selection). Inhaltlich könnte man die Äußerung als Antwort auf die Frage (ohne direkten
Adressaten) kennzeichnen, da sie thematisch an die Frage anschließt und ihren Beitrag in die
von der Lehrerin angebotene sequentielle Lücke setzt. Allerdings passiert hier etwas anderes.
Die Reaktion der Lehrperson in Zeile 8 (‚mit leichtem Lächeln‘) zeigt die Besonderheit des
Schülerbeitrags, mit der die Lehrerin scheinbar nicht gerechnet hat. Dementsprechend wird
Rachels Beitrag auch nicht evaluiert, sondern generiert eine neue Sequenz, die kurzerhand
eingeschoben wird. Aus einem gewöhnlichen pädagogischen Austausch bzw. IRF-exchange
(Sinclair/Coulthard 1975) entwickelt sich ein sogenanntes Nachbarschaftspaar (adjacency
pair) mit wechselseitigen Beiträgen (Zeile 7/8–9/10), wobei gerade die Schülerin die wichtige
Position am Anfang der Sequenz und damit die Initiative übernimmt. Nachbarschaftspaare
stellen nach interaktionsanalytischer Auffassung in nicht-institutionellen, alltäglichen Ge-
sprächen die sequentielle Grundstruktur dar und bilden das strukturelle Grundgerüst für
informelle Kommunikation. In solchen Situationen adäquat zu agieren ist ein bedeutsames
Ziel kommunikativen Unterrichts. Das scheint hier ansatzweise der Fall zu sein, wobei –
wiederum ein typisches Phänomen unterrichtlicher Interaktionswirklichkeit – die Lehrperson
in Zeile 13 zum ursprünglichen Modus zurückkehrt und eine neue Frage stellt, nachdem von
Rachel kein weiterer Beitrag folgt.
Die Analyse weiterer solcher Beispiele verdeutlicht, wie diese Gesprächspraktik einer
Schülerinitiative von den Partizipientinnen und Partizipienten in lehrpersonenzentrierte Ge-
sprächsabläufe integriert wird. Lehrpersonen können kommunikative Räume zur Verfügung
stellen und damit die interaktionale Kontrolle kurzfristig abgeben. Sie holen sich diese Kon-
trolle aber immer wieder zurück, um das Unterrichtsgeschehen in ihrem Sinne fortführen zu
können (vgl. Zeile 13). Von Schülerseite wird dies im Regelfall akzeptiert.
Im Rückgriff auf die einschlägige Literatur zeigt sich, dass diese Gesprächspraktik bisher
nur in Ansätzen behandelt wurde (z. B. Garton 2012). Zumeist wird zwischen lehrerzen-
trierten Interaktionen, die allein auf dem pädagogischen Austausch basieren, und schülerzen-
trierten und damit eher gleichberechtigen Gesprächsformen unterschieden. Eine detaillierte
Untersuchung von Unterrichtsgesprächen zeigt hingegen eine weitaus größere Komplexität
und vermag überdies Impulse für einen bewussteren und kommunikativer gestalteten Un-
terricht geben (vgl. Schwab 2014). So wird deutlich, dass mithilfe der Interaktionsanalyse
detaillierte Einsichten in unterrichtliche Interaktionsabläufe gewonnen werden können, die
mit anderen Methoden kaum auszumachen wären.
eg
- Daten aus natürlichen Settings (Audio/Video,
Theoriebildung
na
nun
teilnehmende Beobachtung)
Lerne
Prinzipien
Analyse
- emische Perspektive
g m it a n d er
- Detail- und Materialtreue
- Sequentialität bzw. Handlungsmuster
- Kontextualität
- Offenheit gegenüber Methodentriangulation
en
- Quantifizierbarkeit
─
Ko n
mm pe
unik up
ation in Gr
© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
292 5. Forschungsverfahren
nicht selbstverständlich ist. Je nach Zielsetzung der Studie ist der eigentliche Gewinn der
Untersuchung nicht unbedingt für Lehrpersonen einsichtig – es sei denn, man bezieht sie
von vornherein in den Analyseprozess mit ein (z. B. Schwab 2014); das ist aber nicht immer
möglich und/oder zielführend.
Als diskursanalytische Forschungsdesiderate lassen sich vier zentrale Bereiche nennen.
Erstens überwiegt die Zahl der Untersuchungen zum Plenumsunterricht bei weitem und
es besteht ein großer Bedarf an der Untersuchung von lernerzentrierten Interaktionen (z. B.
bei Partner- und Gruppenarbeit). Zweitens geht es um Möglichkeiten, interaktionale und
psycholinguistische Ansätze zu verknüpfen, also den Versuch, Prozess und Produkt des
Zweit- und Fremdspracherwerbs in institutionellen Lernumgebungen besser zu verzahnen
(vgl. Keßler/Schwab 2015). Drittens sind im Hinblick auf die Verbindung von sprachlichem
und fachlichem Lernen auch interdisziplinäre Verknüpfungen diskursanalytischer Verfahren
mit anderen fachdidaktischen Vorgehensweisen von Interesse. So zeigen Schramm/Hardy/
Saalbach/Gadow (2013) und Gadow (2016) am Beispiel des wissenschaftlichen Begründens
im Sachunterricht der Grundschule das Potenzial, aber auch die terminologischen Heraus-
forderungen einer solchen Theorientriangulation auf. Viertens sind im Sinne einer video-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit
einem Sternchen markiert.
Becker-Mrotzek, Michael/Vogt, Rüdiger (2001). Unterrichtskommunikation. Linguistische Analyse-
methoden und Forschungsergebnisse. Tübingen: Niemeyer.
Brophy, Jere E./Good, Thomas L. (1976). Die Lehrer-Schüler-Interaktion. München: Urban & Schwar-
zenberg.
*Dalton-Puffer, Christiane (2007). Discourse in Content and Language Integrated Learning (CLIL)
Classrooms. Amsterdam: Benjamins.
*Dauster, Judith (2007). Früher Fremdsprachenunterricht Französisch: Möglichkeiten und Grenzen der
Analyse von Lerneräußerungen und Lehr-Lern-Interaktion. Stuttgart: Ibidem.
Deppermann, Arnulf (2001). Gespräche analysieren – Eine Einführung in konversationsanalytische
Methoden. 2. durchgesehene Auflage. Opladen: Leske und Budrich.
Deppermann, Arnulf/Schütte, Wilfried/Ernst, Hannah (o. J.). Datenerhebung. GAIS – Gesprächsanalyti-
sches Informationssystem [Online: http://prowiki.ids-mannheim.de/bin/view/GAIS/DatenErhebung]
(16. 09. 2015).
*Eckerth, Johannes (2003). Fremdsprachenerwerb in aufgabenbasierten Interaktionen. Tübingen: Narr.
*Ehlich, Konrad/Rehbein, Jochen (1986). Muster und Institution: Untersuchungen zur schulischen Kom-
munikation. Tübingen: Narr.
Ellis, Rod/Barkhuizen, Gary (2005). Analysing Learner Language. Oxford: Oxford University Press.
*Seedhouse, Paul (2004). The Interactional Architecture of the Language Classroom: a Conversation
Analysis Perspective. Oxford: Blackwell.
Selting, Margret/Auer, Peter/Barth-Weingarten, Dagmar/Bergmann, Jörg/Bergmann, Pia/Birkner, Karin/
Couper-Kuhlen, Elizabeth/Deppermann, Arnulf/Gilles, Peter/Günthner, Susanne/Hartung, Martin/
Kern, Friederike/Mertzlufft, Christine/Meyer, Christian/Morek, Miriam/Oberzaucher, Frank/Peters,
Jörg/Quasthoff, Uta/Schütte, Wilfried/Stukenbrock, Anja/Uhmann, Susanne (2009). Gesprächsana-
lytisches Transkriptionssystem 2 (GAT 2). In: Gesprächsforschung – Online-Zeitschrift zur verbalen
Interaktion 10, 353–402 [Online: www.gespraechsforschung-ozs.de] (22. 09. 2015).
Sinclair, John McH./Coulthard, Richard M. (1975). Towards an Analysis of Discourse. The English Used
by Teachers and Pupils. Oxford: Oxford University Press.
van Lier, Leo (1996). Interaction in the Language Curriculum: Awareness, Autonomy and Authenticity.
London: Longman.
van Lier, Leo (2001). Constraints and Resources in Classroom Talk: Issues of Equality and Symmetry.
In: Candlin, Christopher N./Mercer, Neil (Hg.). English Language Teaching in its Social Context: a
Reader. London: Routledge, 90–107.
Vygotsky, Lev Semyonovich (1978). Mind in Society. Cambridge, MA: Harvard University Press.
Weber, Peter/Becker-Mrotzek, Michael (2012). Funktional-pragmatische Diskursanalyse als For-
schungs- und Interpretationsmethode [Online: http://www.fallarchiv.uni-kassel.de/wp- content/
uploads/2012/06/weber_mrotzek_diskurs_ ofas.pdf (8. 3. 2015).
»» Anhang
a k Z E NT Fokusakzent
a k ! Z E NT ! extra starker Akzent
? hoch steigend
, mittel steigend
- gleich bleibend
; mittel fallend
. tief fallend
`SO fallend
´SO steigend
´` S O steigend-fallend
1 Begriffsklärung
Das Konzept der Lernersprache (interlanguage, Selinker zuerst 1969, veröffentlicht 1972)
und die Idee, diese zu analysieren, haben zu einem grundlegenden Perspektivenwechsel in
der Fremdsprachenforschung und -didaktik geführt. Das Lernersprachenkonzept entwickelte
sich aus unterschiedlichen Forschungstraditionen, wobei v. a. die Kontrastive Analyse (vgl.
Fries 1945, Lado 1957 und Weinreich 1953) und die Fehleranalyse (error analysis, u. a. Corder
1967) eine große Rolle spielten. Es wuchs aus dem Verständnis heraus, dass das erfolgreiche
Lernen einer neuen Sprache nicht nur durch die Zielsprache an sich sowie den Fleiß des
Lernenden beeinflusst wird, sondern auch durch andere Faktoren wie das System der Erst-
sprache. Da die Lernersprachenanalyse seit den ersten Auseinandersetzungen mit dem Thema
eines der wichtigsten Standbeine der Fremdsprachenforschung ist, wird ihr in diesem Werk
ein gesondertes Kapitel gewidmet.
Lernersprache – im Deutschen auch bekannt als Interimsprache (Raabe 1974) – bezeichnet
das individuelle sprachliche System, das Lernende beim Aneignen einer Zielsprache im Ver-
laufe ihres Sprachlernprozesses aufbauen und das ihren Äußerungen zugrundeliegt (u. a.
Selinker 1972, 1992, Corder 1967, 1974, Nemser 1971). Lernersprachen sind somit nicht nur
unvollständige Versionen einer langue (i.S. Saussures), sondern dynamische und hoch indivi-
duelle Systeme eines jeden Sprechenden. Sie enthalten zu nicht prognostizierbaren Anteilen
neben Merkmalen der Zielsprache auch Eigenschaften der Erst- und weiterer Fremdsprachen
(vgl. Selinker 1992: 164) sowie Merkmale, die keinem anderen, dem Lernenden bekannten
Sprachsystem zugeschrieben werden können. Sie können sich immer weiter in Richtung ziel-
sprachlicher Strukturen entwickeln.
Lernersprache ist vor allem durch Dynamik und Individualität gekennzeichnet. Die Dy-
namik der Lernersprache zeigt sich im kontinuierlichen Prozess des Bildens und Testens von
Hypothesen über die Zielsprache (vgl. u. a. Herdina/Jessner 2002, Zhao/Song/Cherrington
2013: 357). Zudem ist jede Lernersprache individuell und stellt ein System dar, das auf be-
stimmten – z. T. recht idiosynkratischen – Regeln basiert, die durchgehend überprüft und evtl.
korrigiert, erweitert, verworfen oder verfestigt werden. Dies zeigt sich u. a. durch systema-
tische Abweichungen von der Zielsprache (Fehler). Zur Individualität von Lernersprachen
gehört auch ihre Instabilität auf Grund persönlicher und situationeller Faktoren. Wer müde,
aufgeregt oder desinteressiert ist, wird i. d. R. seine sprachlichen Kompetenzen anders prä-
sentieren als diese tatsächlich sind.
Ziel der Lernersprachenanalyse ist es, die Performanz von Lernenden zu untersuchen, um
Aufschlüsse über den jeweiligen individuellen Lernstand zu gewinnen und evtl. die Entwick-
lung der Sprachkompetenzen von Lernenden nachzeichnen zu können. Bei der Untersuchung
der Lernersprache müssen v. a. die genannten Merkmale der Dynamik und Individualität
beachtet werden.
auf kognitive Prozesse, die beim Lernen und bei der Verwendung einer Sprache eingesetzt
werden. Obwohl solche Prozesse nicht einheitlich konzipiert werden, bietet das ursprüngliche
Verständnis von Interlanguage einen sinnvollen Anfang für Lernersprachenanalysen.
Mit der Analyse von Lernersprache nehmen die meisten Forschenden eine produktionsori-
entierte Sicht ein: Von Interesse ist das, was der Lernende in der Zielsprache selbst formuliert.
Zunächst kann Lernersprache anhand der unterschiedlichen Sprachebenen wie Phonetik/
Phonologie, Orthographie, Morphologie, Syntax, Lexik, textdiskursive Merkmale und Prag-
matik untersucht werden. Für die Spracherwerbsforschung ist v. a. das Zusammenwirken der
verschiedenen Bereiche sprachlichen Wissens interessant. Aber auch kognitive Prozesse, die
für die Entwicklung einer Lernersprache bedeutend sind, können erforscht werden. Selinker
(1972: 216–217) zufolge sind fünf, sich zum Teil überschneidende kognitive Prozesse von
Bedeutung:
• Transfer von der Erstsprache bzw. anderen bereits bekannten Sprachen auf die Zielsprache
(sowohl „positiver“, also zu korrekten Äußerungen führender Transfer als auch „negativer“
Transfer oder „Interferenz“, die zu Fehlern in der Zielsprache führt),
• Übungstransfer (z. B. durch das häufige Üben einer Struktur im Unterricht),
• Fremdsprachenlernstrategien,
• Fremdsprachenkommunikationsstrategien,
• Übergeneralisierungen zielsprachlicher Einheiten.
Hierbei handelt es sich um unterschiedliche Kategorien. Die beobachtbaren sprachlichen
Phänomene können als Indizien für viele der o. g. kognitiven Prozesse herangezogen werden
(ein Wort aus der L1, das in der L2 verwendet wird, dient z. B. als Indiz für Transfer). Da-
gegen kann eine Untersuchung der kognitiven Prozesse – hierfür werden eher introspektive
Erhebungen, s. u., benötigt – Erklärungen für bestimmte sprachliche Phänomene in der Ziel-
sprache liefern. Viele Untersuchungen zur Lernersprache gehen auf den Zusammenhang von
(nur indirekt beobachtbaren) kognitiven Prozessen und (direkt beobachtbaren) sprachlichen
Phänomenen ein, wenn sie z. B. die Entwicklung einer Verbalform untersuchen und dabei
mögliche Erklärungen für die unterschiedlichen Varianten finden. Als Erläuterung ein Bei-
spiel eines Englisch lernenden Deutschen, der im Laufe eines Kurses unterschiedliche Va-
rianten produziert:
Innerhalb einzelner sprachlicher Ebenen lassen sich weitere Aspekte von Lernersprache dif-
ferenzieren, wie im Beispiel oben. Auch schrift- oder diskurslinguistische Phänomene rücken
immer häufiger in den Fokus von lernersprachlichen Analysen. Hierzu gehören u. a. die Äu-
ßerungskomplexität, z. B. die Anzahl und Art produzierter erweiterter Nominalphrasen oder
das Aufkommen von Nominalisierungen. Bei schriftlichen Textproduktionen können auch
textdiskursive Merkmale wie Kohäsion und Kohärenz, Anaphorik und Textstruktur sowie
schreibstrategische Aspekte wie die Nähe zu einer Textvorlage unter die Lupe genommen
werden; bei mündlicher Sprachproduktion spielt z. B. die Flüssigkeit von Äußerungen in Form
von typischen Performanz- und Hesitationsphänomenen wie Wiederholungen (z. B. von Pro-
nomen), gefüllten und ungefüllten Pausen und Reduktionen eine wichtige Rolle.
Lernersprache kann aus beschreibender oder beurteilender Perspektive untersucht werden
(deskriptive vs. normative Analyse). V.a. bei der beurteilenden Analyse sind Vergleichsdaten
von L1-Sprechenden sinnvoll, so dass neben Normentsprechungen (i. d. R. korrekten Äuße-
rungen) auch Normabweichungen feststellbar sind. Bei bilingualen Sprechenden sollte ein
Vergleich mit Gleichaltrigen der jeweiligen Erstsprache erfolgen.
gorien, oder die Kategorien werden aus dem erhobenen Datenmaterial entwickelt (rationalis-
tische vs. empirische Kategorienbildung). Die Kategorisierungen sollten möglichst konsistent
durchgeführt und Zuordnungsentscheidungen bei der Ergebnispräsentation dokumentiert
werden. Neben der Entscheidung für eine Herangehensweise wird zwischen unterschiedli-
chen theoretischen Ansätzen für die Lernersprachenanalyse unterschieden. Für den europäi-
schen Kontext nennt Ahrenholz (2014: 171) drei besonders relevante Ansätze:
• strukturalistisch orientierte Analysen, die u. a. der Steuerung des Spracherwerbs durch uni-
versalgrammatische Prinzipien nachgehen (z. B. Clahsen/Meisel/Pienemann 1983),
• die Funktionale Pragmatik, die den Sprachgebrauch in Handlungsmustern einschl. der
sozialen Einbettung der Sprachverwendung beschreibt (z. B. Ehlich/Rehbein 1979),
• den funktionalen konzeptorientierten Ansatz, bei dem die lernerseitige Sprachproduktion
als Bezugspunkt zur Untersuchung der Realisierung semantischer Grundkonzepte wie
Temporalität, Lokalität und Modalität dient (z. B. von Stutterheim 1997).
Der theoretische Ansatz bestimmt den Fokus der Analyse, kann in einer Theorietriangulie-
rung (vgl. Kapitel 4.4) aber mit anderen Ansätzen kombiniert werden, um unterschiedliche
Perspektiven auf erhobene Daten zu ermöglichen (vgl. z. B. die Untersuchung von Zweit-
spracherwerbsphasen in Wegener 1995).
In der Fremdsprachenforschung gibt es unterschiedliche Methoden zur Lernersprachen-
analyse. Wir gehen im Folgenden insbesondere auf die Möglichkeiten der Fehleranalyse,
kompetenzbezogener Analysen, Profilanalysen und Ratings ein.
Der Tradition der Kontrastiven Analyse folgend wird nach wie vor das Zusammenwirken
von Erstsprache, Lernersprache und Zielsprache v. a. anhand von Fehleranalysen untersucht.
Hierbei werden häufig nur Ausgangs- und Zielsprache verglichen, obwohl auch drei oder
mehrere Sprachen verglichen werden können (z. B. Kärchner-Ober 2009). Auch zur Erläute-
rung von Informationen zur Lernprogression, erreichten Lernniveaus, möglichen Fossilierun-
gen, interindividuellen Unterschieden u.v.m. werden Fehleranalysen durchgeführt. Bei allen
Varianten ist der noch umstrittene Fehlerbegriff von zentraler Bedeutung; Fehler werden
i. d. R. als nicht normgerechte Äußerungen definiert.
Die typischen Schritte einer linguistischen Fehleranalyse sind Identifizierung, Klassifizie-
rung und Erklärung der einzelnen Fehler. In der Unterrichtspraxis kommen Fehlerkorrektur
und -bewertung hinzu; für die Unterrichtsvorbereitung ist die Fehlertherapie und -prophyla-
xe relevant (vgl. Kuhs 1987). Schon bei der Identifizierung von Fehlern müssen unterschied-
liche Überlegungen vollzogen werden, z. B. ob zwischen eindeutigen Fehlern (z. B. ein nicht
existentes oder in einem bestimmten Kontext nicht passendes Wort, eine falsche Endung, eine
falsch betonte Silbe) und graduellen Abweichungen (z. B. ein in Bezug auf das Register nicht
ganz passendes Wort, ein betonter Vokal im Deutschen oder Englischen, der weder als lang
noch als kurz klassifiziert werden kann) differenziert werden sollte. Anders als in der Mor-
phologie gibt es gerade im Bereich der Phonetik meist kein „Richtig“ oder „Falsch“; vielmehr
befinden sich Segmentalia und Suprasegmentalia in der Lernersprache auf einem Kontinuum
zwischen stark abweichender und zielsprachennaher Realisierung. Auf ein ähnliches Problem
trifft man bei der Analyse von Texten, weswegen für diese sprachlichen Ebenen oft andere
Analyseverfahren wie Ratings herangezogen werden.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Nach der Identifizierung werden Fehler nach der Art der Abweichung klassifiziert. Hierfür
bestehen bereits mehrere Fehlerkataloge (z. B. Kleppin 1997), so dass man im Normalfall
keinen eigenen entwickeln muss. In einem dritten Schritt wird nach Fehlerursachen gesucht –
z. B. ein oder mehrere der im Abschnitt 5.3.7.2 genannten kognitiven Prozesse. Hat man die
Fehlerkategorien schon vor der Datenerhebung bestimmt, kann eine einfache Fehleranalyse
in bestimmten sprachlichen Bereichen mit geringerem Aufwand z. B. als Rating durchgeführt
werden. Allerdings soll hier vor einer Versimplifizierung des Prozesses gewarnt werden: Ge-
rade die Bestimmung einer Fehlerursache ist ohne Kombination mit introspektiven Methoden
äußerst schwierig, und sogar der erste Schritt, die Fehleridentifikation, kann zu Problemen
führen, wenn es sich z. B. um dialektal unterschiedlich ausgeprägte Merkmale handelt. Pro-
blematisch ist zudem, dass Fehleranalysen wenig über Fremdsprachenlernprozesse verraten
und keine Aussagen zu positivem Transfer geben können. Sprachliche Kreativität, Überpro-
duktionen bestimmter Strukturen sowie Vereinfachungs- und Vermeidungsstrategien werden
dabei ebenfalls kaum berücksichtigt.
Im Gegensatz zu Fehleranalysen legen kompetenzbezogene Analysen den Schwerpunkt
darauf, was Lernende in der Zielsprache bereits ausdrücken können. In der Fremdsprachen-
didaktik am bekanntesten hierfür sind wohl die Kann-Beschreibungen des Gemeinsamen
europäischen Referenzrahmens (GeR) und Erweiterungen wie der FREPA (Candelier et al.
2012), die anhand von Kompetenzlisten versuchen zu ermitteln, in welchem Maße bestimm-
te Kompetenzen von einzelnen Lernenden bereits gemeistert werden. Für die frühkindliche
Spracherwerbsforschung ist diese Art von Analyse das wohl wichtigste Analyseverfahren
schlechthin (ein bekanntes Beispiel sind die Screenings der MacArthur Communicative Deve-
lopment Inventories, CDI, u. a. Fenson et al. 2007). Solche Analysen können von der Lehrkraft,
vom Lernenden oder von anderen beteiligten Personen – beim Erstspracherwerb z. B. von
einem Betreuer – ausgefüllt werden und sind in unterschiedlichem Maße differenziert (vgl.
die Frage: „Versteht das Kind das Wort ‚Ameise‘?“ im CDI vs. „Kann das eigene Sprachver-
halten mit dem der Sprecher anderer Sprachen vergleichen“ im FREPA). Insgesamt hat die
Fremdsprachendidaktik in den letzten Jahren eine Wende von der Fehler- zur Kompetenzfo-
302
Kompetenzbezogene Analysen
Einordnung auf skalierten Kompetenzbeschreibungen
Korpora von
Lernersprache
Profilanalysen ['lɛʁnɐʃpʁaːxə]
Lernstadien in Modellen
„das individuelle sprachliche System, das
Lernende beim Aneignen einer
Ratings Zielsprache im Verlaufe ihres
Experteneinschätzungen spezifischer Merkmale Sprachlernprozesses aufbauen und das
ihren Äußerungen
kussierung erfahren, was sich u. a. auch in den Bildungsstandards sowie in Lehrwerken für
die Fremdsprachen widerspiegelt; eine ähnliche Entwicklung wäre für die wissenschaftliche
Analyse lernersprachlicher Äußerungen wünschenswert.
Kompetenzorientiert sind ebenfalls Profilanalysen, die sich dadurch auszeichnen, dass sie
anhand bestimmter Kriterien natürliche Sprachaufnahmen analysieren. Oft setzen sie das
Ziel, notwendige Förderbereiche herauszustellen. Sie beruhen auf einem stufenweisen Ver-
ständnis der Lernersprachenentwicklung und legen unterschiedliche – meist syntaxbasierte –
Lernstadienmodelle zugrunde. Weil Profilanalysen spezifischen sprachlichen Elementen nach-
gehen, konzentrieren sie sich i. d. R. auf einen sprachlichen Bereich wie Grießhabers (2006,
2012) Profilanalyse für Kinder mit Deutsch als Zweitsprache, die syntaktische Strukturen
in mündlichen und schriftlichen Produktionen einzelner Lernender kategorisiert, oder auf
eine bestimmte Menge quantifizierbarer Elemente wie das Rapid Profile-Verfahren für Eng-
lisch als Fremdsprache (zuerst Pienemann/Johnston/Brindley 1988), das elizitierte mündliche
Lerneräußerungen kodiert. Wenn hier z. B. im Rahmen eines Elizitationstasks auf die Frage
„What is the man doing?“ geantwortet wird: „He read a book.“, können sowohl Aussagen
zur Morphologie (inkorrekte Deklination), zum Aspekt, zur Syntax (korrekte Wortfolge) und
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
zur Lexik getroffen werden. Profilanalysen haben den Vorteil, in einem standardisierten Ver-
fahren unterschiedliche Lernende vergleichen zu können und somit in Situationen einsetzbar
zu sein, in denen Aufschlüsse über individuellen Lernzuwachs im Kontext einer ähnlichen
Situation benötigt werden.
Für die Untersuchung kleiner (z. B. phonetischer) Merkmale und großer sprachlicher Ein-
heiten (Texte) bieten sich Verfahren an, die Experteneinschätzungen heranziehen (Ratings).
In diesen Verfahren werden mindestens zwei Experten (je nach Untersuchungsaspekt z. B.
geschulte Erstprachler oder Schreibexperten) darum gebeten, spezifische Äußerungen, oft auf
einer bestimmten Skala, nach ihrer Korrektheit, Verständlichkeit und/oder Angemessenheit
einzuschätzen. Bei einer Analyse der phonetischen Ebene von Lernersprache können somit
neben akustischen Analysen im digitalen Sprachsignal (z. B. mit dem OpenSource-Programm
Praat, vgl. Richter 2008) auch eine perzeptive Bewertung durch trainierte Expertenhörer
(oft Erstsprachler), die Abweichungen einschätzen (vgl. Baur/Nickel 2009), herangezogen
werden. In Praat kann eine Rating-Skala hinzugefügt werden, um die akustischen Stimuli
auch auditiv zu bewerten. Die Triangulierung beider Methoden kann eine Balance zwischen
der inhärenten Subjektivität perzeptiver Bewertung und der Einseitigkeit von akustischen
Analysen als einzigem Auswertungsinstrument schaffen (vgl. Mehlhorn 2012: 206).
Sehr sinnvoll lassen sich Ratings auch in Hinblick auf textlinguistische Aspekte einsetzen, die
sich nur schwierig in ein richtig/falsch-Schema einordnen lassen und eher schwer bestimm-
bare Merkmale wie Angemessenheit, Kohärenz und Kohäsion einbeziehen. Ob eine Ellipse
oder eine pronominale Referenz im satzübergreifenden Zusammenhang kohäsionstiftend
ist, kann mit den o. g. Verfahren kaum bestimmt werden; stattdessen müssen Experten in der
jeweiligen Sprache die Angemessenheit einschätzen. In letzter Zeit finden u. a. wissenschafts-
sprachliche Aspekte eine besondere Betonung in der Erforschung der Lernersprache. Ratings
finden auch in Prüfungen wie dem TestDaF Anwendung; hier wird der Testteil „Schriftlicher
Ausdruck“ anhand diverser Kriterien wie „Sind die Sätze im Text miteinander verbunden,
d. h. ist der Text kohärent?“ (http://www.testdaf.de/) durch den Prüfer bewertet.
Um ein ganzheitliches Bild der Entwicklung von Lernersprache zu erhalten, ist es notwen-
dig, über Fehleranalysen und eine Konzentration auf interlingualen Transfer hinauszugehen
(Selinker 1992, passim). Auch die Prozesshaftigkeit der Lernersprachenentwicklung muss
stärkere Beachtung finden; Apeltauer (2010: 840) zufolge wird gegenwärtig noch weitgehend
die von Lernenden praktizierte Selbststeuerung, die für große individuelle Unterschiede bei
der Lernersprachentwicklung mitverantwortlich sein könnte, vernachlässigt, wie z. B. das
Elizitieren sprachlicher Daten für die Entwicklung der eigenen Lernersprache bei Gesprächs-
partnern. Ebenfalls unklar ist, in welchen Situationen und in welchem Ausmaß Transfer
(positiver sowie negativer) auftritt und wann sowie von welchen Lernenden bestimmte ko-
gnitive Prozesse in den Lernprozess eingehen. Hierbei würden grundlegende sprachlernbio-
graphische Daten (vorgelernte Sprachen, Umfang des erhaltenen Fremdprachenunterrichts,
Qualität und Quantität des Zielsprachenkontakts u.v.m.) das Wissen über Lernersprache
deutlich vergrößern.
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit
einem Sternchen markiert.
Aguado, Karin (2008). Wie beeinflussbar ist die lernersprachliche Entwicklung? Theoretische Über-
legungen, empirische Erkenntnisse, didaktische Implikationen. In: Fremdsprache Deutsch 38,
53–58.
Ahrenholz, Bernt (2014). Lernersprachenanalyse. In: Settinieri, Julia et al. (Hg.), 167–181.
Apeltauer, Ernst (2010). Lernersprache(n). In: Krumm, Hans, Jürgen/Fandrych, Christian/Hufeisen,
Britta/Riemer, Claudia (Hg.). Deutsch als Fremd- und Zweitsprache. Ein internationales Handbuch.
1. Halbband. Berlin: de Gruyter, 833–842.
*Baur, Rupprecht S./Nickel, Aneta (2009). „Man kann doch sowieso merken, dass wir nicht Deutsch bin“.
Phonetische Analysen am ESA-Korpus. In: Ahrenholz, Bernt (Hg.) (2009). Empirische Befunde zu
DaZ-Erwerb und Sprachförderung. Beiträge aus dem 3. Workshop Kinder mit Migrationshintergrund.
Freiburg i.Br.: Fillibach, 313–331.
Candelier, Michelle/Camilleri-Grima, Antoinette/Castellotti, Véronique/de Pietro, Jean-Françoise/
Lőrincz, Ildikó/Meißner, Franz-Joseph/Noguerol, Arthur/Schröder-Sura, Anna (2012). FREPA. A
framework of reference for pluralistic approaches to languages and cultures: competences and re-
sources. Straßburg: Council of Europe Publishing.
*Clahsen, Harald/Meisel, Jürgen M./Pienemann, Manfred (1983). Deutsch als Zweitsprache. Der Sprach-
erwerb ausländischer Arbeiter. Tübingen: Narr.
*Corder, Steven Pit (1967). The significance of learner’s errors. In: International Review of Applied
Linguistics 5, 161–170.
Corder, Steven Pit (1974). The elicitation of interlanguage. In: International Review of Ap-
plied Linguistics. Special issue of IRAL on the occasion of Bertil Malmberg’s 60th birthday,
45–58.
Ehlich, Konrad/Rehbein, Jochen (1979). Sprachliche Handlungsmuster. In: Soeffner, Hans-Georg
(Hg.). Interpretative Verfahren in den Sozial- und Textwissenschaften. Stuttgart: Metzler,
243–274.
Fenson, Larry/Marchman, Virginia A./Thal, Donna J./Dale, Philip S./Reznick, J. Steven/Bates, Elizabeth
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
(2007). MacArthur-Bates Communicative Development Inventories. User’s guide and technical ma-
nual. 2. Auflage. Baltimore: Paul H. Brookes Pub. Co.
Fries, Charles Carpenter (1945). Teaching and Learning English as a Foreign Language. Ann Arbor:
University of Michigan Press.
*Grießhaber, Wilhelm (2006). Endbericht der wissenschaftlichen Begleitung, März 2006. Projekt
„Deutsch und PC“. Münster: WWU Sprachenzentrum.
Grießhaber, Wilhelm (2012). Die Profilanalyse. In: Ahrenholz, Bernt (Hg.). Einblicke in die Zweitsprach-
erwerbsforschung und ihre methodischen Verfahren. Berlin: de Gruyter, 173–193.
Herdina, Philip/Jessner, Ulrike (2002). A dynamic model of multilingualism. Perspectives of change in
psycholinguistics. Clevedon: Multilingual Matters.
*Kärchner-Ober, Renate (2009). The German language is completely different from the English language.
Besonderheiten des Erwerbs von Deutsch als Tertiärsprache nach Englisch und einer Nicht-indoger-
manischen Erstsprache. Tübingen: Stauffenburg. [Referenzarbeit, s. Kap. 7]
Kleppin, Karin (1997). Fehler und Fehlerkorrektur. Berlin: Langenscheidt.
*Kuhs, Katharina (1987). Fehleranalyse am Schülertext. In: Apeltauer, Ernst (Hg.). Gesteuerter
Zweitspracherwerb. Voraussetzungen und Konsequenzen für den Unterricht. München: Hueber,
173–205.
Lado, Robert (1957). Linguistics across cultures. Applied linguistics for language teachers. Ann Arbor:
University of Michigan Press.
Mehlhorn, Grit (2012). Phonetik/Phonologie in der L3 – neuere Erkenntnisse aus der Psycholinguistik.
In: Deutsch als Fremdsprache 49, 201–207.
Mempel, Caterina/Mehlhorn, Grit (2014). Datenaufbereitung: Transkription und Annotation. In: Setti-
nieri, Julia et al. (Hg.), 147–166.
Nemser, William (1971). Approximative systems of foreign language learners. In: International Review
of Applied Linguistics 9, 115–123.
*Nesselhauf, Nadja (2005). Collocations in a learner corpus. Amsterdam: John Benjamins.
*Pienemann, Manfred/Johnston, Malcolm/Brindley, Geoff (1988). Constructing an acquisition-ba-
sed procedure for second languge assessment. In: Studies in Second Language Acquisition 10,
217–243.
Raabe, Horst (1974). Interimsprache und kontrastive Analyse. In: Raabe, Horst (Hg.). Trends in kont-
rastiver Linguistik. Bd. 1. Tübingen: Narr, 1–50.
*Richter, Julia (2008). Phonetische Reduktion im Deutschen als L2. Eine empirische Querschnittsstudie.
Baltmannsweiler: Schneider Verlag Hohengehren.
Selinker, Larry (1972). Interlanguage. In: International Review of Applied Linguistics 10, 219–231.
Selinker, Larry (1992). Rediscovering interlanguage. London: Longman.
Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia
(Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schö-
ningh
*Stutterheim, Christiane von (1997). Einige Prinzipien des Textaufbaus. Empirische Untersuchungen
zur Produktion mündlicher Texte. Tübingen: Niemeyer.
*Wegener, Heide (1995). Das Genus im DaZ-Erwerb. Beobachtungen an Kindern aus Polen, Rußland
und der Türkei. In: Handwerker, Brigitte (Hg.). Fremde Sprache Deutsch. Grammatische Beschrei-
bung – Erwerbsverläufe – Lehrmethodik. Tübingen: Narr, 1–24.
Weinrich, Uriel (1953). Languages in contact. Findings and problems. New York: Linguistic Circle of
New York.
Zhao, Yuqin/Song, Li/Cherrington, Ruth (2013). Interlanguage. In: Byram, Michael/Hu, Adel-
heid (Hg.). Routledge Encyclopedia of Language Teaching and Learning. London: Routledge,
357–359.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
5.3.8 Korpusanalyse
1 Begriffsklärung
Die empirische Auseinandersetzung mit Korpusdaten ist für die eher anwendungsorientierten
Disziplinen der Fremdsprachenerwerbsforschung mittlerweile unerlässlich. Untersuchungen
auf der Basis breiter Datenkollektionen können dabei in linguistischen, didaktischen, kul-
turwissenschaftlichen, soziologischen sowie weiteren verwandten Kontexten angesiedelt und
mit je spezifischen Fragestellungen verbunden sein. In der Fremdsprachenerwerbsforschung
werden Korpora einerseits zum Zweck linguistischer Beschreibungen herangezogen, ins-
besondere, um Regelmäßigkeiten und Gebrauchsmuster einer Sprache (auch kontrastierend)
zu ermitteln oder auch Lernersprache selbst im Hinblick auf verschiedene Aspekte der Sprach-
verwendung und Kompetenzentwicklung zu analysieren. Andererseits kommen Korpora u. a.
in der Lehrmaterial- und Curriculaentwicklung, der Testwissenschaft, der empirischen Unter-
richtsforschung sowie als Unterrichtsmedium selbst zur Anwendung. Das folgende Kapitel
stellt zentrale Begriffe und Methoden der Korpusanalyse vor und verweist auf entsprechende
Analysewerkzeuge.
Die Verwendung des Korpusbegriffs ist in den Kontexten linguistischer und didaktischer
Forschung nicht immer sehr einheitlich. Man kann Sammlungen von Sprachressourcen
bezüglich vielerlei Kriterien voneinander unterscheiden. Auswahl und Zuschnitt solcher
Sprachdatensammlungen sollten in erster Linie in Hinblick auf die Erfordernisse des spezi-
fischen Untersuchungsgegenstandes und der konkreten Forschungsfrage(n) erfolgen. Der hier
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Quantitative Methoden
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Cosmas Corpus Search, Management and Analysis System/DGD Datenbank für Gesproche-
nes Deutsch, DWDS Das Digitale Wörterbuch der Deutschen Sprache (für das Deutsche) oder
BNC British National Corpus, VOICE Vienna-Oxford International Corpus of English, (für
das Englische) sind hingegen oft nur online verfügbar. Die Analysemöglichkeiten sind dann
auf das beschränkt, was die Weboberfläche des Korpusbetreibers anbietet (dies umfasst oft
vor allem unterschiedlich umfangreiche Konkordanzsuchen).
Im Folgenden werden grundlegende Werkzeuge der quantitativen Korpusanalyse vor-
gestellt, mit denen sich Textsammlungen in ihrer Gesamtheit charakterisieren lassen (Wort-
listen, Schlüsselwortanalysen, N-Gramme, Type-Token-Verhältnis), sowie solche, die auf
die quantitative Analyse ausgewählter Einheiten abzielen (Quantitative Konkordanzsuche,
Kookkurrenzanalyse).
der Häufigkeit ihres Vorkommens. Sie können für den durch die Korpuszusammenstellung
repräsentierten Sprachverwendungsbereich Aufschluss über frequente und weniger frequente
Einheiten geben und so etwa bei der Bestimmung von Lernwortschätzen zu Rate gezogen
werden. Entscheidend für die Bewertung von Wortlisten ist die der Zählung zugrunde gelegte
Wort-Definition, in die u. a. Entscheidungen bzgl. der Art der Grenzmarkierung oder hinsicht-
lich der Beachtung der Großschreibung einfließen. Bspw. würde die Beachtung der Groß-
schreibung in deutschen Sprachdaten dazu führen, dass Wortvorkommen an Satzanfängen
anders behandelt werden als im Satz. Eine Wortdefinition, die Leerzeichen als Grenzsymbole
zugrunde legt, würde z. B. bei englischen Daten mit Spatien innerhalb von Komposita dazu
führen, dass die Kompositumsbestandteile jeweils separat gezählt werden. Es ist daher zu
beachten, wie die Parameter der Wortdefinition in der Korpusanalysesoftware voreingestellt
sind bzw. wie sie für die eigene Untersuchung gewählt werden. Unabhängig von der kon-
kreten Korpuszusammensetzung werden in Wortlisten immer wenige hoch- und viele nied-
rigfrequente Einheiten erscheinen (vgl. Baroni 2009). Die häufigen Einheiten umfassen dabei
i. d. R. Funktionswörter. Neben der frequenzbezogenen Sortierung bietet Korpusanalysesoft-
ware für Wortlisten oft auch eine alphabetische sowie eine rückläufige Sortierungsoption an,
welche es ermöglichen, gezielt bspw. verschiedene Wortbildungstypen zu untersuchen. Der
über frequenzbasierte Wortlisten ermittelte häufigste Wortschatz wird etwa zur Bestimmung
von Grund- und Aufbauwortschätzen herangezogen (vgl. Tschirner 2005).
Keyword-Analyse: Neben den häufigsten Wörtern eines Korpus können diejenigen von
Interesse sein, die es von vergleichsrelevanten anderen Textsammlungen unterscheiden.
Solche Wörter lassen sich mittels Keyword-Analysen ermitteln. Die Schlüsselwörter (key
words) eines Textes oder einer Textsammlung sind jene, die signifikant häufiger auftreten, als
aufgrund ihrer Vorkommenshäufigkeit in einem Referenzkorpus zu erwarten wäre. Grund-
lage ist dabei der Vergleich der Wortliste des untersuchten Korpus mit der Wortliste eines
Referenzkorpus: Bei der statistischen Ermittlung wird für jedes Wort des Spezialkorpus (z. B.
akademische Lehrbuchtexte verschiedener Fächer) die Häufigkeit bestimmt und mittels Sig-
nifikanztest mit der Häufigkeit der Wörter in einem Referenzkorpus (z. B. einem gemein-
Type-Token-Verhältnis: Der Type-Token Quotient (engl. type-token ratio, kurz TTR) ist ein
Maß zur Beschreibung der Wortschatzvarianz bzw. lexikalischen Vielfalt. Zu seiner Berech-
nung wird die Anzahl der Types eines Textes oder einer Textsammlung durch die Anzahl der
Tokens geteilt. Je näher der Quotient bei 1 liegt, desto größer die lexikalische Vielfalt. Das
Maß findet u. a. Anwendung zur Einschätzung des Schwierigkeitsgrades von Texten oder
zur Beschreibung des Wortschatzreichtums von Lernertexten, anhand dessen die lexikalische
Kompetenz der Schreibenden eingeschätzt werden kann. Zu beachten ist bei der Verwendung
des TTR einerseits dessen starke Abhängigkeit von der Textlänge, zum anderen sein rein
quantitativer Charakter, welcher die Art der gezählten Wörter unberücksichtigt lässt. Soll
in einer Untersuchung etwas über die Sprachkompetenz eines Lerners ausgesagt werden, ist
nicht nur die Anzahl verwendeter Types relevant, sondern etwa auch, ob es sich hierbei um
Einheiten des Grundwortschatzes handelt oder um spezifischere, niedrigfrequentere Ein-
heiten fortgeschrittener Sprachstände (vgl. Daller/van Hout/Treffers-Daller (2003) für eine
diesbezügliche Diskussion des TTR).
Quantitative Konkordanzsuche: Der einfachste Weg, die Häufigkeit einer untersuchten Ein-
heit zu ermitteln, ist die Konkordanzsuche. Nach Eingabe des Suchbegriffs oder der komple-
xen Suchanfrage erhält man die Anzahl aller Treffer im Korpus und die zugehörigen Belege,
die anschließend auf mögliche Fehltreffer geprüft werden sollten. Im Normalfall wird die
Konkordanzsuche als Wortformensuche ausgeführt, d. h. bei flektierenden Wortarten sind
ggf. alle einzelnen Wortformen einzugeben, die gefunden werden sollen. Die Suche nach
Lemmata setzt ein diesbezüglich annotiertes Korpus voraus (z. B. bietet das DWDS eine solche
lemmabezogene Abfrage an). Im Abschnitt Qualitative Methoden wird ausführlich auf die
Arbeit mit Konkordanzsuchen eingegangen.
Kookkurrenzanalyse: Die mit einer untersuchten Einheit typischerweise gemeinsam auftre-
tenden Wörter lassen sich über statistische Zusammenhangsmaße in der Kookkurrenzanalyse
Qualitative Methoden
sches Vorgehen bezüglich der manuellen Identifikation und Klassifizierung bestimmter in den
Daten abgebildeter Phänomene sowie die rückwirkende und prüfende Anwendung dieser
Klassen auf die Datensamples sollte in nachvollziehbaren induktiven und deduktiven Zy-
klen erfolgen und nach Möglichkeit durch weitere Forscherpersonen validiert werden (vgl.
Lüdeling 2007: 38–39). Die aus den Auswertungsprozessen gewonnenen Kategorien lassen
sich schließlich als Annotationen in das Datenkorpus einbinden und sind insbesondere für
diejenigen Untersuchungsaspekte nötig, für die es entsprechende empirisch gewonnene
Kategorien oder Standards nicht gibt. Für einzelne Beschreibungsebenen stehen bereits er-
probte Tagsets zur Verfügung, an denen sich die manuelle Annotation orientieren kann und
die für die jeweiligen Datensamples adaptiert werden können, so zum Beispiel das Stutt-
gart-Tübingen-TagSet (STTS) für die Wortartenannotation (POS-Tagging). Für die technische
Integration induktiv erarbeiteter Annotationen können neben speziell in der Korpuslinguistik
genutzten Werkzeugen wie @nnotate39 oder dem Annotation-Panel des EXMARaLDA-Par-
titureditors auch verschiedene QDA-Tools (Qualitative Data Analysis) verwendet werden,
sofern die zur Verfügung stehenden Korpora das Herunterladen ganzer Texte zur Weiterver-
arbeitung zulassen. Verfügbare Tools zur (halb-)automatischen Annotation sind zum Bei-
spiel der TreeTagger40 oder WebAnno41, das im Rahmen der CLARIN-Initiative42 aufgebaut
wurde. Bei der Nutzung derartiger Tagger ist zu beachten, dass die automatisch annotierten
Daten einer manuellen Qualitätsüberprüfung unterzogen werden sollten, da insbesondere
im Hinblick auf Ambiguitäten bestimmter Wortformen unzuverlässige Kategorisierungen
erfolgen können (vgl. hierzu auch die Hinweise von Lüdeling 2007: 32). Bei der Auswahl der
Annotationssoftware sollte berücksichtigt werden, ob eine elektronische Weiterverarbeitung
oder Verfügbarmachung für weitere Analyseschritte, ggf. mit zusätzlichen Such- oder Ana-
lysewerkzeugen, gewährleistet bleibt.
314
5.3.8 Korpusanalyse
elektronisch gestützte Analyse größerer Mengen von Sprachdaten
Korpus (ling.) Korpusanalysen
Korpustypen
Referenz-, Spezial-, Vergleichs-, Parallel-, Volltextsuche
Lernerkorpora (nach Verwendungszweck) durchsuchen Inhaltsanalyse
sortieren Tag-Set-Suche
schriftliche Textkorpora, mündliche Sprach- Konkordanzsuche
zählen
daten, multimodale Korpora (nach Medium)
Für die Fremdsprachenerwerbsforschung hat sich die Analyse und Beschreibung von
Lernersprache und damit im Zusammenhang auch die Annotation von Fehlern als äußerst
fruchtbar erwiesen (vgl. Granger 2008). Das Lernerkorpus Falko stellt fehlerannotierte Ler-
nertexte für Analysen frei zur Verfügung (zu Prinzipien und Problemen im Zusammenhang
mit Fehlerannotation vgl. Lüdeling 2007). Im Hinblick auf die Erforschung von Transfers und
Interferenzen, von Fehlerursachen, der Lernprogression und zur Ermittlung von potenziellen
Problemen für bestimmte Lernergruppen ist zudem der Vergleich zu Sprachstrukturen der
jeweiligen Erstsprachen mittels entsprechender Parallelkorpora oder (multilingualer) Ver-
gleichskorpora notwendig (vgl. auch Römer 2008: 117). Lernertexte und deren Analyse lassen
sich darüber hinaus auch als Mittel der Sprachsensibilisierung und -förderung nutzen. So
zeigt Mukherjee (2006), wie die Fehleranalyse englischsprachiger Lernertexte von deutschen
Schülern zur motivierenden und konstruktiven Auseinandersetzung mit der Fremdsprache
beitragen kann (vgl. dazu auch Römer 2008: 121).
Abbildung 1: Konkordanzansicht zum Suchwort „vermitteln“ in den deutschsprachigen Korpora des GeWiss-
Korpus
Darüber hinaus bieten Konkordanztools weitere Optionen zur Aufbereitung der Ergebnisse
für eine eingehendere Analyse. Im Hinblick auf qualitativ bearbeitbare Forschungsfragen
43 http://dgd.ids-mannheim.de:8080/dgd/pragdb.dgd_extern.welcome (24. 3. 2014).
gehört hierzu die Erweiterung der Konkordanz um zusätzliche Angaben wie Metadaten oder
Annotationen, die Möglichkeit des manuellen An- und Abwählens von Belegen, das Filtern
der Ergebnisse nach bestimmten Kriterien, das Sortieren sowohl des Kontextes als auch an-
derer hinzugewählter Parameter, sowie das Exportieren der Belege, um die lokale Weiter-
verarbeitung mit Hilfe anderer Programme zu gewährleisten (detaillierter zu den einzelnen
Operationen vgl. z. B. Wynne 2008). Diese Analyseoptionen erlauben es, relevante Belege
in der Art auszuwählen, anzuordnen und zu reduzieren, wie es für das Forschungsinteresse
erforderlich ist und so die Grundlage für die interpretative Auseinandersetzung mit den
Datensamples zu schaffen.
›› Literatur
Forschungsarbeiten, in denen die hier erörterten Verfahren angewendet werden, sind mit
einem Sternchen markiert.
*Biber, Douglas/Conrad, Susan/Cortes, Viviana (2004). If you look at …: Lexical Bundles in University
Teaching and Textbooks. In: Applied Linguistics 25, 371–405.*
Bubenhofer, Noah (2009). Sprachgebrauchsmuster. Korpuslinguistik als Methode der Diskurs- und Kul-
turanalyse. Berlin: de Gruyter.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
*Daller, Helmut/van Hout, Roeland/Treffers-Daller, Jeanine (2003). Lexical Richness in the Spontaneous
Spech of Bilinguals. In: Applied Linguistics 24, 197–222.
Granger, Sylviane (2008). Learner Corpora. In: Lüdeling, Anke/Kytö, Merja (Hg.), 259–275.
*Granger, Sylviane/Paquot, Magali (2009). Lexical Verbs in Academic Discourse: A corpus-driven Study
of Learner Use. In: Charles, Maggi/Pecorari, Diane/Hunston, Susan (Hg.). Academic Writing. At the
Interface of Corpus and Discourse. London: Contiunuum, 193–214.
Hunston, Susan (2002). Corpora in applied linguistics. Cambridge: University Press.
Lemnitzer, Lothar/Zinsmeister, Heike (2010). Korpuslinguistik. Eine Einführung, 2. Aufl. (= Narr Stu-
dienbücher). Tübingen: Narr.
Lüdeling, Anke/Kytö, Merja (Hg.) (2008). Corpus Linguistics. Handbücher zur Sprach- und Kommuni-
kationswissenschaft (HSK) 29.1, Berlin: de Gruyter.
Lüdeling, Anke/Kytö, Merja (Hg.) (2009). Corpus Linguistics. Handbücher zur Sprach- und Kommuni-
kationswissenschaft (HSK) 29.2, Berlin: de Gruyter.
Lüdeling, Anke/Walter, Maik (2010). Korpuslinguistik. In: Krumm, Hans-Jürgen/Fandrych, Christi-
an/Hufeisen, Britta/Riemer, Claudia (Hg.). Deutsch als Fremd- und Zweitsprache. Handbücher zur
Sprach- und Kommunikationswissenschaft (HSK) 35.1. Berlin: de Gruyter, 315–322.
Mukherjee, Joybrato (2006). Corpus linguistics and language pedagogy: the state of the art – and
beyond. In: Braun, Sabine/Kohn, Kurt/Mukherjee, Joybrato (Hg.). Corpus Technology and Language
Pedagogy: New Resources, New Tools, New Methods. Frankfurt am Main: Lang, 5–24.
*Niederhaus, Constanze (2011). Fachsprachlichkeit in Lehrbüchern. Korpuslinguistische Analysen von
Fachtexten in der beruflichen Bildung. Münster: Waxmann.
*Paquot, Magali (2007). Towards a productively-oriented Academic Word List. In: Walinski, Jacek/Kre-
dens, Krzysztof/Gozdz-Roszkowski, Stanislaw (Hg.). Corpora and ICT in Language Studies. Frankfurt
am Main: Lang, 127–140.
Scherer, Carmen (2006). Korpuslinguistik. Heidelberg: Winter.
*Schlüter, Norbert (2002): Present Perfect: Eine korpuslinguistische Analyse des englischen Perfekts mit
Vermittlungsvorschlägen für den Sprachunterricht.Tübingen: Narr. (Reihe Language in Performance
25 (LiP))
Stefanowitsch, Anatol (2005). Quantitative Korpuslinguistik und sprachliche Wirklichkeit. In: Solte-
Gresser, Christiane/Struve, Karen/Ueckmann, Natascha (Hg.). Von der Wirklichkeit zur Wissenschaft:
Baroni, Marco (2009). Distributions in text. In: Lüdeling, Anke/Kytö, Merja (Hg.), 803–822.
Der Handbuchartikel stellt grundlegende Eigenheiten von Häufigkeitsverteilungen in Texten bzw.
Korpora dar. Er geht insbesondere auf das Zipfsche Gesetz ein, welches besagt, dass für beliebige
natürlichsprachige Textsammlungen immer nur wenige Types mit hoher Tokenfrequenz und viele
Types mit niedriger Tokenfrequenz zu erwarten sind. Auch praktische Auswirkungen für die Korpus-
analyse, wie die resultierende unhintergehbare Belegknappheit im Bezug auf viele Einheiten, werden
diskutiert.
Lüdeling, Anke (2007). Das Zusammenspiel von qualitativen und quantitativen Methoden in der
Korpuslinguistik. In: Kallmeyer, Werner/Zifonun, Gisela (Hg.). Sprachkorpora – Datenmenge
und Erkenntnisfortschritt (IDS-Jahrbuch 2006). Berlin: de Gruyter, 28–48.
Der Beitrag legt zunächst dar, inwiefern auch quantitative Korpusanalysen in jedem Fall auf voraus-
gehenden qualitativen Datenkategorisierungsentscheidungen beruhen und durch diese beeinflusst
sind. Am Beispiel der Fehlerannotation von Lernerdaten wird dann ein Verfahren der Mehrebene-
nenannotation vorgestellt, welches es erlaubt verschiedene, auch konfligierende Interpretationen in
von den Rohdaten getrennten Ebenen festzuhalten und transparent auswertbar zu machen.
Römer, Ute (2008). Corpora and language teaching. In: Lüdeling, Anke/Kytö, Merja (Hg.),
112–131.
Römer untersucht in ihrem Beitrag die Beziehungen zwischen Korpuslinguistik und der Sprach-
vermittlung und gibt im Zuge dessen einen gelungenen Überblick über wichtige pädagogische und
methodisch-didaktische Anwendungsfelder von Korpora im Rahmen der Sprachlehre.
Stefanowitsch, Anatol/Gries, Stefan Th. (2009). Corpora and grammar. In: Lüdeling, Anke/Kytö,
Merja (Hg.), 933–952.
Der Handbuchartikel stellt den korpuslinguistischen Ansatz der Collostruction-Analyse vor, welcher
Muster gemeinsamen Auftretens von lexikalischen Elementen und grammatischen Strukturen erfas-
sen will. Das statistische Verfahren wird an Beispielen illustriert und im Kontext früherer kollokati-
onsbasierter Ansätze eingeordnet.
Schmied, Josef (2009). Contrastive corpus studies. In: Lüdeling, Anke/Kytö, Merja (Hg.),
1140–1159.
Der Beitrag skizziert aktuelle Entwicklungen und Ansätze in der kontrastiven Korpusanalyse und
zeigt ihr Potential für verschiedene linguistische Disziplinen auf. Schmied betont dabei den Wert mul-
tilingualer Korpora für Untersuchungen in diesem Feld, gibt aber auch einen Ausblick auf mögliche
Anwendungsbereiche in weiteren Fächern.
Wiechmann, Daniel/Fuhs, Stefan (2006). Concordancing software. In: Corpus Linguistics and
Linguistic Theory 2, 107–127.
Der Artikel diskutiert und evaluiert die Funktionalitäten von zehn (kostenpflichtigen und freien)
Konkordanzwerkzeugen. Er geht u. a. auf Anforderungen für den Dateninput, die jeweils angebote-
nen Analyse- und Darstellungsoptionen sowie die Exportmöglichkeiten ein.
auszubauen. In diesem Zuge ließe sich auch der Mythos zerschlagen, für quantitative Studien
seien hohe Stichprobenzahlen nötig, die von einzelnen forschenden Personen nie erreicht
werden können. Auch Studien mit kleinen Stichprobengrößen können zu aufschlussreichen,
methodisch sauberen Ergebnissen führen (vgl. z. B. Bortz/Lienert 2008). Zudem kann bei der
Studienplanung a priori der optimale Stichprobenumfang ermittelt werden (s. u.).
Nachfolgend werden Qualifikations- und Forschungsarbeiten beschrieben, in denen in sehr
unterschiedlichem Ausmaß quantitative Methoden zum Einsatz kommen. Da sich die Fremd-
sprachenforschung diesbezüglich noch in der Entwicklungsphase befindet, ist die jeweilige
Anwendung und Interpretation statistischer Analysen von ganz unterschiedlicher Qualität.
geeigneter statistischer Verfahren und deren Auswertung hat. Viele gängige statistische Ana-
lyseverfahren setzen normalverteilte Daten voraus, da ihr mathematisches Modell auf dieser
Grundannahme beruht. Mathematische Details dazu lassen sich ausführlicher etwa in Bortz/
Schuster (2010), Field (2013) oder Rasch et al. (2010) nachlesen. Auf die mathematische
Berechnung deskriptiver Kennwerte (arithmetisches Mittel, Varianz, Standardabweichung)
geht Duscha (2007) in seiner Arbeit zum Einfluss von Schrift auf das Fremdsprachenlernen
in der Grundschule näher ein, bevor er diese in inferenzstatistische Folgeanalysen einfließen
lässt.
Sollen die gewonnenen Daten nicht nur zusammenfassend beschrieben, sondern auf ihrer
Basis auch allgemeingültige, über die Stichprobe hinausgehende Hypothesen überprüft wer-
den, müssen inferenzstatistische Verfahren herangezogen werden. Beispielsweise wird in der
Studie von Staschen-Dielmann (2012) zur narrativen Kompetenz im bilingualen Geschichts-
unterricht u. a. folgende, ungerichtete Forschungshypothese untersucht: Die Stichprobe der
Schülerinnen und Schüler aus der 10. Jahrgangsstufe unterscheidet sich hinsichtlich des An-
teils akademischer Lexik in schriftlichen Aufgaben von der der 12. Jahrgangsstufe. Diese Hy-
pothese lässt sich in eine Nullhypothese (H0: Es besteht kein systematischer Unterschied, die
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Befunde resultieren zufällig aus der Zusammensetzung der Stichprobe.) und eine gegenläufige
Alternativhypothese (H1: Es besteht ein systematischer Unterschied, die Befunde resultieren
nicht zufällig aus der Zusammensetzung der Stichprobe.) aufteilen. Mit Hilfe eines statisti-
schen Tests lässt sich nun formal prüfen, ob die H0 unter Annahme eines geringen Restrisiko-
faktors, falsch zu liegen, zugunsten der H1 verworfen werden kann. Es liegen eine ungerichte-
te Hypothese, metrisch skalierte, normalverteilte Daten sowie zwei unabhängige Stichproben
vor, so dass ein zweiseitiger t-Test für unabhängige Stichproben gerechnet werden kann (vgl.
Kapitel 5. 3. 11). Aufgrund der Befunde (t(124) = -7.99***) kann die H0 abgelehnt und die H1,
unter einem geringen Restrisiko von maximal 1 % bei der Ablehnung der H0 falsch zu liegen
(p < .001), angenommen werden. T-Testverfahren sind in der Fremdsprachenforschung recht
weit verbreitet, da oftmals in Hinblick auf die Wirksamkeit eines Unterschiedsmerkmals oder
Treatments (z. B. Bilingualer Sachfachunterricht, Einsatz vom Schriftbild, Verwendung von
ePortfolios) zwei unterschiedliche Schülergruppen (Experimental- vs. Kontrollgruppe) mit-
einander verglichen werden sollen. In anderen Fällen interessiert beispielsweise der Vergleich
von zwei Gruppen, die mehrfach einem Treatment ausgesetzt wurden; dann kann ein t-Test
für abhängige Stichproben herangezogen werden.
Sollen mehr als zwei Gruppen verglichen werden, kann eine Varianzanalyse (Analysis of
Variance = ANOVA) eingesetzt werden. Sollen mehr als zwei Gruppen in Bezug auf mehre-
re Einflussfaktoren gleichzeitig verglichen werden, ließe sich eine MANOVA (Multivariate
ANOVA) durchführen (vgl. z. B. Bortz/Schuster 2010, Field 2013). Beispielsweise untersuchte
Biebricher (2008) in ihrer Studie zu Effekten extensiven Lesens in der Fremdsprache u. a.
anhand einer univariaten Varianzanalyse mit Messwiederholung, welche Unterschiede zwi-
schen der Experimental- und Kontrollgruppe bezüglich der Ergebnisse eines C-Tests vor und
nach dem Treatment (selbstgesteuertes, extensives englisches Lesen) erreicht werden. Es wird
also geprüft, ob sich die Allgemeine englische Sprachkompetenz (gemessen an einem C-Test)
in den beiden Gruppen durch den vermuteten Einfluss des Treatments unterscheidet. Auch
Marx (2005) setzt eine univariate Varianzanalyse mit Messwiederholung ein, um Einfluss-
faktoren auf Hörverstehensleistungen im Deutschen als Tertiärsprache (Deutsch als Fremd-
sprache nach Englisch) in einer Experimental- und einer Kontrollgruppe zu analysieren, die
beide mehrfach getestet wurden. Hingegen werden Unterschiedshypothesen zwischen den
beiden Gruppen bezüglich eines Merkmals zu einem bestimmten Messzeitpunkt mit Hilfe
eines Mann-Whitney-U-Tests untersucht. Dieser stellt das ordinale Pendant zum t-Test für
unabhängige Stichproben dar (vgl. Kapitel 5. 3. 11).
Richtet sich die Forschungsfrage nicht auf die Untersuchung von Unterschiedshypothesen,
sondern auf die von Zusammenhängen zwischen Variablen, eignen sich korrelationsstatis-
tische Verfahren zur Aufklärung. Beispielsweise war für Hochstetter (2011) in ihrer Studie
zu diagnostischen Kompetenzen von Grundschullehrerinnen im Englischunterricht u. a. die
Frage interessant, ob es einen statistischen Zusammenhang zwischen der Güte der Einschät-
zung von Schülerleistungen durch Lehrende und der Übereinstimmung der Einschätzungsur-
teile der Lehrkräfte untereinander gab. Da es sich um metrische Daten bei beiden Variablen
handelte, wurde die Korrelation nach Pearson berechnet (r = –.80**, p = .002). So konnte
folgender statistischer Zusammenhang festgestellt werden: Je besser die Leistung des Kindes,
desto übereinstimmender die Einschätzungen der Lehrkräfte. In der Studie von Grum (2012)
hingegen lagen die Daten der Variablen metrisch und ordinal skaliert vor, so dass alle Korre-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
interpretieren ist). Ohne den Einsatz statistischer Analyseverfahren wären diese empirischen
Befunde nicht möglich gewesen.
Zur Entscheidungsfindung darüber, welche Fragestellung mit welchem Auswertungsver-
fahren beantwortet werden kann bzw. welche statistischen Analysen mit welchen Daten
durchgeführt werden können, sind Baumdiagramme, wie z. B. in Field (2013: 916) oder Porte
(2010: 292–293) dargestellt, sehr hilfreich. Denn vor der Anwendung eines statistischen
Verfahrens ist es unabdingbar, sich genau über dessen Voraussetzungen und die Reichweite
der Ergebnisinterpretation zu informieren. Zudem kann zur Qualitätssteigerung einer em-
pirischen Studie a priori mittels Power-Analyse der optimale Stichprobenumfang berechnet
werden (vgl. Kapitel 5. 3. 11) oder z. B. Rasch u. a. 2010, Bortz/Lienert 2008). Kann auf die
Stichprobengröße jedoch kein Einfluss genommen werden (was in der schulischen Fremd-
sprachenforschung durchaus der Fall sein kann), lassen sich a posteriori Effekt- und Teststärke
(power) berechnen und so die Qualität eines gefundenen Effekts beurteilen und die Sinnhaf-
tigkeit einer Folgestudie abschätzen. Zudem ermöglichen diese Parameter die Vergleichbarkeit
verschiedener Studien, so wie es sich etwa Hattie (2009) zunutze gemacht hat. In Grum (2012)
wurden für alle dort durchgeführten t-Tests deren Effekt- und Teststärke berechnet.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
3 Abschließender Appell
Der Umgang mit statistischen Verfahren gilt (nicht zuletzt unter fremdsprachendidaktisch
Forschenden) als schwierig bzw. mühsam. Er ist nicht selten angstbesetzt oder wird als irre-
levant abgetan. Wer sich im Rahmen einer wissenschaftsfundierten wie berufsfeldbezogenen
Lehrerbildung genuin für die Vermittlung und den Erwerb von Fremdsprachen unter schu-
lisch-unterrichtlichen Bedingungen interessiert, wird an einer forschungsbasierten quanti-
tativen Empirie – verbunden mit einem vergleichend-prüfenden und generalisieren Nach-
denken – nicht vorbeikommen. Eine derartige Forschung sollte den zusätzlichen Anspruch
haben, die eigenen Ergebnisse und Implikationen so zu modellieren, dass daraus curriculare
Weichenstellungen erwachsen und unterrichtsmethodische Konsequenzen sichtbar werden.
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit
einem Sternchen markiert. In eckigen Klammern werden statistische Analyseverfahren ge-
nannt, die in der jeweiligen Studie verwendet oder diskutiert werden und über deskriptive
Kennwerte hinausgehen.
*Bellingrodt, Lena Christine (2011): ePortfolios im Fremdsprachenunterricht. Empirische Studien zur
Förderung autonomen Lernens. Frankfurt/Main: Lang. [Cramer’s V]
*Biebricher, Christine (2008): Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens. Tü-
bingen: Narr. [Cronbachs Alpha, Varianzanalyse, Korrelation (Pearson)] [Referenzarbeit, Kapitel 7]
Bortz, Jürgen/Lienert Gustav R. (2008): Kurzgefasste Statistik für die klinische Forschung. Leitfaden für
die verteilungsfreie Analyse kleiner Stichproben. 3. Auflage. Berlin: Springer.
Bortz, Jürgen/Schuster, Christof (2010): Statistik für Human- und Sozialwissenschaftler. 7. Auflage.
Berlin: Springer.
*Duscha, Michael (2007): Der Einfluss der Schrift auf das Fremdsprachenlernen in der Grundschule.
Dargestellt am Beispiel des Englischunterrichts in Niedersachsen. Dissertation. Universität Braun-
schweig. http://www.digibib.tu-bs.de/?docid=00 021 088 (06. 02. 2015). [t-Test]
Field, Andy P. (2013): Discovering Statistics Using IBM SPSS Statistics. 4. Auflage. London: Sage.
*Grum, Urška (2012): Mündliche Sprachkompetenzen deutschsprachiger Lerner des Englischen. Ent-
wicklung eines Kompetenzmodells zur Leistungsheterogenität. Frankfurt/M.: Lang. [t-Test, Rang-
korrelation (Spearman), Effekt-, Teststärke, exploratorische Faktorenanalyse; diskutiert: Kolmogo-
roff-Smirnov-Anpassungstest (KSA-Test), Levene-Test, Mann-Whitney-U-Test, Chi-Quadrat-Test,
Rangkorrelation (Kendall), Varianzanalyse]
Hattie, John (2009). Visible Learning. A Synthesis of over 800 Meta-Analyses Relating to Achievement.
Oxford: Routledge.
*Hochstetter, Johanna (2011): Diagnostische Kompetenz im Englischunterricht der Grundschule. Tübin-
gen: Narr. [Korrelation (Pearson)] [Referenzarbeit, Kapitel 7]
*Marx, Nicole (2005): Hörverstehensleistungen im Deutschen als Tertiärsprache. Zum Nutzen eines
Sensibilisierungsunterrichts in „DaFnE“. Baltmannsweiler: Schneider Verlag Hohengehren. [Mann-
Whitney-U-Test, t-Test, Varianzanalyse] [Referenzarbeit, Kapitel 7]
*Özkul, Senem (2011): Berufsziel Englischlehrer/in. Berufswahlmotive der Lehramtsstudierenden in
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
5.3.10 D
eskriptiv- und Inferenzstatistik
Julia Settinieri
1 Begriffsklärung
Der Begriff Statistik umfasst alle Rechenverfahren, die der Beschreibung und Analyse quan-
titativer Daten dienen. Die Spannbreite reicht dabei von sehr einfachen, problemlos im Kopf
zu rechnenden Verfahren bis hin zu sehr komplexen, ausschließlich mit Statistik-Software
zu bewältigenden. Dieses Kapitel erläutert statistische Grundüberlegungen und gibt einen
Überblick über die unterschiedlichen Verfahrensgruppen und ihre Einsatzmöglichkeiten mit
dem Ziel, eine Auswahl aus Grundverfahren treffen zu können. Abschließend werden Mög-
lichkeiten und Grenzen statistischen Erkenntnisgewinns diskutiert, wobei ein besonderer
Schwerpunkt auf in jüngerer Zeit verstärkt diskutierten effektstärkenbasierten methodischen
Herangehensweisen liegt.
2 Skalenniveaus44
Der erste Schritt im Rahmen quantitativer Datenanalyse besteht darin, alle für die Unter-
suchung relevanten Beobachtungen (z. B. eine Unterrichtsbeobachtung, einen schriftlichen
Test oder auch das Sprachverhalten von Kindern im KiTa-Alltag) in Zahlen umzuwandeln
(sofern sie nicht ohnehin schon in Zahlenform vorliegen). Bei der Kodierung müssen ver-
schiedene Regeln beachtet werden, die im Folgenden erläutert werden.
Zunächst gilt, dass die Konversion einer Beobachtung bzw. einer Messung in eine Zahl
einerseits von Eigenschaften des Merkmals selbst, andererseits von der Abbildung dieser
Eigenschaften durch das Messinstrument abhängt. So können Merkmale beispielsweise latent
oder manifest, dichotom, kategorial, diskret oder stetig ausgeprägt sein (Eigenschaften des
Merkmals). Gleichzeitig kann eine genuin stetige Variable wie das Lebensalter sowohl dis-
kret in Jahren (z. B. 14, 34, 25 Jahre usw.) als auch kategorial (z. B. Kinder vs. Jugendliche
vs. Erwachsene) als auch dichotom (z. B. unter 18 vs. über 18 Jahren) modelliert werden
(Eigenschaften des Messinstruments). In Abhängigkeit davon, wie differenziert das Merkmal
selbst ist und wie differenziert das Instrument es misst, können vier unterschiedliche Skalen-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
niveaus zur Abbildung von Merkmalen unterschieden werden, die jeweils unterschiedliche
Rechenverfahren zulassen.
Kann über die unterschiedlichen Ausprägungen einer Variable lediglich ausgesagt werden,
ob das Merkmal bei den Untersuchungsteilnehmern jeweils in gleicher oder unterschiedlicher
Form vorhanden (oder auch nicht vorhanden) ist, so handelt es sich um ein Merkmal auf No-
minalskalenniveau. Dies trifft auf Variablen wie das Geschlecht, Sprachen, die jemand spricht,
oder auch den Aufenthaltsstatus zu. Nominalen Merkmalen wird im Zuge der Kodierung
einfach eine beliebige Zahl zugeordnet, wobei lediglich darauf geachtet werden muss, dass
jeder gegebenen Merkmalsausprägung genau eine und immer dieselbe Zahl zugeordnet wird.
Möchte ich beispielsweise Untersuchungsteilnehmer danach klassifizieren, ob sie Deutsch
jeweils als L1 oder nicht als L1 sprechen, so spielt es keine Rolle, ob ich die Nichtmutter-
sprachler mit 1 und die Muttersprachler mit 2 oder umgekehrt kodiere oder auch ganz andere
Zahlen wähle; wichtig ist nur, dass allen Nichtmuttersprachlern respektive allen Mutter-
sprachlern die gleiche Zahl zugeordnet wird und dass sich diese Zahlen zwischen beiden
Gruppen wiederum voneinander unterscheiden.
Auf dem nächsthöheren Skalenniveau, der Ordinalskala, ist es nun nicht nur möglich,
etwas über die Gleich- oder Verschiedenheit von Merkmalsausprägungen zu sagen, sondern
die unterschiedlichen Ausprägungen darüber hinaus auch in eine Rangfolge zu bringen. Die
Anordnung spiegelt dabei die unterschiedliche Intensität der Merkmalsausprägung wider,
so dass Zahlen in aufsteigender Folge zugeordnet werden können. Rankings oder Schul-
abschlüsse sind Beispiele für ordinalskalierte Variablen. So ist es beispielsweise möglich, die
Aussage zu treffen, dass eine Person mit Abitur einen höheren Schulabschluss hat als eine
mit Hauptschulabschluss, so dass eine Kodierung von Schulabschlüssen z. B. mit 0 = kein
Abschluss, 1 = Hauptschulabschluss, 2 = Realschulabschluss, 3 = Abitur möglich wäre. Dabei
könnten theoretisch auch beliebige andere Zahlen, wie z. B. 2, 5, 23 und 69 vergeben werden,
solange diese den Abschlüssen, denen sie zugeordnet werden, entsprechend aufsteigen.
44 Die Ausführungen dieses Abschnitts folgen in enger Anlehnung Rasch et al. (2006: 1–28).
oder dass die Abstände zwischen allen Zweien und Dreien genauso groß wären wie die
zwischen allen Dreien und Vieren. Die Vergabe von Zahlen bei der Notengebung suggeriert
hier also eine Genauigkeit der Leistungsmessung, die de facto gar nicht gegeben ist.
Zusammenfassend erlauben Variablen unterschiedlicher Skalenniveaus die in Tabelle 1 in
Übersicht dargestellten Aussagen und Rechenoperationen, wobei die höheren die niedrigeren
jeweils mit einschließen:
treffen, ob die Zahlenverhältnisse in einer einzelnen Studie, die durchgeführt wurde, mit einer
gewissen Wahrscheinlichkeit auch als exemplarisch für vergleichbare Kontexte gelten können
oder ob sie über die vorliegenden Daten hinaus nicht verallgemeinerbar sind.
Der Begriff ‚Statistik‘ umfasst somit in unserem Verständnis alle quantitativen Analysetechniken,
mit denen empirische Daten zusammenfassend beschrieben werden können (deskriptive Statistik)
bzw. mit denen auf Grund empirischer Daten Aussagen über die Richtigkeit von Hypothesen for-
muliert werden können (Inferenzstatistik). (Bortz 2005: 15)
Deskriptivstatistik
Die deskriptive Statistik versucht also, die häufig sehr unüberschaubare Zahlenmenge, die
im Rahmen quantitativer Untersuchungen entsteht, mittels weniger Kennwerte zusammen-
zufassen. „Hier werden Eigenschaften der Merkmale in einer Stichprobe beschrieben. Eine
bestimmte Gruppe wird zu einem bestimmten Zeitpunkt beschrieben und analysiert. De-
skriptivstatistische Ergebnisse sagen ausschließlich etwas über die Objekte aus, die tatsächlich
untersucht wurden.“ (Wirtz/Nachtigall 2006: 29).
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Bei der Beschreibung einer Stichprobe geht es einerseits um die Frage, welche Werte in
Bezug auf eine bestimmte Variable sehr häufig vorkommen und typische Werte darstellen
(→ Maße der zentralen Tendenz), andererseits darum, wie viele Abweichungen es von diesen
typischen Werten gibt (→ Streuungsmaße). In Abhängigkeit vom Skalenniveau der Varia-
ble werden dabei unterschiedliche statistische Kennwerte verwendet (vgl. Tab. 3), wobei
wiederum gilt, dass für höhere Skalen prinzipiell auch Kennwerte niedrigerer Skalen zur
Stichprobenbeschreibung herangezogen werden können. Um die folgenden Ausführungen
zu veranschaulichen, wird ein Rechenbeispiel eingesetzt.
Rechenbeispiel45
Nehmen wir an, wir hätten mit 30 Lernern, die seit einigen Monaten in Deutschland leben
und von Beginn ihres Aufenthalts an studienvorbereitende Deutschkurse desselben Kurs-
anbieters besuchen, einen Sprachtest durchgeführt, in dem maximal 100 Punkte zu erreichen
waren. Die Bestehensgrenze für den Test liegt bei 50 Punkten. Je 15 Lerner unterscheiden
sich in einem für die Studie relevanten Merkmal, nehmen wir an der L1, von den anderen
15, was in Tabelle 2 durch A vs. B symbolisiert wird. Außerdem wurde die Kontaktdauer
mit der getesteten Sprache (in Monaten) erfasst, die gleichzeitig auch die Unterrichtsdauer
in Monaten darstellt.
Untersucht werden sollen die folgenden Fragestellungen:
– Schneiden Untersuchungsteilnehmer mit L1 A vs. B im Test gleich oder unterschiedlich
gut ab?
– Besteht ein Zusammenhang zwischen der Kontaktdauer mit der Zielsprache und den Test-
ergebnissen?
TN 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
TW 52 45 90 44 24 39 58 66 50 64 80 83 76 61 85
KD 2 8 8 1 1 3 1 2 4 7 7 6 3 4 6
L1 A A A B A B B A A B B A B B A
TN 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30
TW 52 83 86 60 28 65 86 81 83 76 66 55 95 47 95
KD 9 14 13 9 8 10 10 8 12 16 17 11 9 13 14
L1 B B B A B A A B A B A B B A A
Tabelle 2: Testwerte (TW) und Kontaktdauer mit der Zielsprache in Monaten (KD) sowie L1 von 30 Untersu-
hungsteilnehmern (TN, laufend durchnummeriert)46
Als Maß der zentralen Tendenz für nominalskalierte Variablen wird der Modus oder Mo-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
46 Obwohl es sich nur um 30 Untersuchungsteilnehmer und drei Variablen handelt und obwohl der Test
nicht in seinen Einzelaufgaben, sondern bereits in Form eines Summenwertes abgebildet ist, sind aus
der Wertetabelle auf den ersten Blick kaum Tendenzen bzgl. der Fragestellungen zu erkennen, was den
Nutzen deskriptiver Statistik unmittelbar einsichtig erscheinen lässt.
4 → 6, 6, 8, ← 8 →, 9, 10, 10 ← 12 → 13, 14, 17). Die drei Werte, die die vier Viertel jeweils
voneinander trennen, werden Quartile genannt. Das zweite Quartil ist ja der Median, und
der Quartilsabstand wird nun gebildet, indem die Differenz zwischen dem dritten und ersten
Quartil berechnet wird (z. B. 12–4 = 8). Median und Quartilsabstand zusammen vermitteln
einen Eindruck von der Symmetrie der Verteilung, ob sie beispielsweise links- oder rechtssteil
ist, ob sich ein Deckeneffekt abzeichnet o. Ä.
Bei metrischen Daten schließlich wird die Streuung als Varianz angegeben, die sich aus der
Summe der quadrierten Abweichungen aller einzelnen Messwerte vom Mittelwert, divi-
diert durch die Anzahl der Messwerte (z. B. [1–8,13]2 + [2–8,13]2 + [2–8,13]2 + [4–8,13]2
+ [6–8,13]2 + [6–8,13]2 + [8–8,13]2 + [8–8,13]2 + [9–8,13]2 + [10–8,13]2 + [10–8,13]2 +
[12–8,13]2 + [13–8,13]2 + [14–8,13]2 + [17–8,13]2 : 15 = 22,67) berechnet. Zieht man die
Wurzel aus der Varianz, erhält man die Standardabweichung (z. B. 4,72), die den Vorteil hat,
dass ihr Maß der Achsenskalierung entspricht und daher unmittelbar interpretiert werden
kann (z. B. 4,72 Monate). Maße der zentralen Tendenz und Streuungsmaße sollten in empiri-
schen Studien stets für jede einzelne Variable angegeben werden. In der Regel werden dabei
Modus 66, 83 76 83 2, 6, 8, 10 1, 3, 7, 8, 9 8
Median 66 64 65,5 8 8 8
Mittelwert 66,47 65,20 65,83 8,13 7,60 7,87
Spannweite 71 67 71 16 15 16
Minimum 24 28 24 1 1 1
Maximum 95 95 95 17 16 17
Quartilsabstand 35 29 31,5 8 8 7,5
Varianz 414,84 372,03 380,28 22,27 21,40 21,15
Standard 20,37 19,29 19,50 4,72 4,63 4,60
abweichung
Tabelle 4: Vollständige deskriptive Statistik für das Rechenbeispiel (in Publikationen zu referierende Werte
durch Fettung hervorgehoben)
für jede Variable nur die höchstmöglichen Kennwerte der zentralen Tendenz und Streuung
referiert (vgl. Tab. 4). Alternativ ist jedoch auch die Wahl eines niedrigeren Skalenniveaus
möglich. Im vorliegenden Beispiel wäre es z. B. denkbar, angesichts der relativ kleinen Stich-
probe und der Tatsache, dass bei einem nicht-normierten Test nicht ohne Weiteres von einer
Gleichabständigkeit der Skalenwerte auszugehen ist, zumindest die Testwertvariable auf Or-
dinalniveau herunterzuskalieren. In ähnlicher Weise betrachtet auch die Referenzarbeit von
Marx (2005: 216–217) Daten aus einem Hörverstehenstest lediglich als ordinalskaliert, da sie
zwei Gruppen vergleicht, die nur aus 14 Personen bestehen. Darüber hinaus handelt es sich
bei dem eingesetzten Hörverstehenstest um keinen normierten Test, so dass das Kriterium
der Gleichabständigkeit nicht als gegeben gelten kann.
Inferenzstatistik
Zumeist möchte quantitative Forschung aber nicht nur eine bestimmte, ausgewählte Gruppe
beschreiben, sondern vielmehr aus den Daten auch verallgemeinernde Schlussfolgerungen
ziehen. Diesem Zwecke dient die Inferenzstatistik (auch schließende Statistik). „Die erfassten
Personen oder Objekte werden als repräsentative Teilmenge einer Gesamtheit (Population)
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Auf welche Population eine Studie zielt, wird im Zuge der Formulierung einer genauen
Forschungsfrage vom Forscher selbst festgelegt. Für die Sprachlehr- und -lernforschung
interessante Populationen könnten z. B. alle Integrationskursteilnehmenden Deutschlands,
alle Schülerinnen und Schüler, die im 1. Schuljahr mit Englisch als Fremdsprache beginnen
und monolingual mit Deutsch als L1 aufgewachsen sind, oder auch alle Studierenden eines
bestimmten Faches einer bestimmten Universität sein. Da eine Grundgesamtheit aus rein
forschungspraktischen Gründen in den seltensten Fällen vollständig untersucht werden
kann, muss eine begründete Auswahl an Untersuchungsteilnehmern getroffen werden. Ent-
scheidendes Kriterium ist dabei, dass die Stichprobe in allen für die Fragestellung relevanten
Merkmalen repräsentativ für die Population sein sollte. Das bedeutet beispielsweise, dass in
eine Stichprobe prozentual ebenso viele Sprecher einer bestimmten L1, durchschnittlich eben-
so gebildete Personen usw. eingehen sollten wie in der Grundgesamtheit, der sie entstammt,
vorhanden sind. Probanden dürfen folglich keineswegs beliebig ausgewählt werden. Vielmehr
spielt das Sampling eine zentrale Rolle für die Güte einer empirischen Untersuchung und
sollte sehr genau reflektiert werden (s. Kapitel 4.3).47 Zusammenfassend kann festgehalten
47 Zu Methoden der Stichprobenziehung in quantitativen Studien vgl. z. B. Bortz (2005: 86–89), Bortz/Dö-
ring (2006: 393–487), Raithel (2008: 54–61) und Meindl (2011: 132–134).
Ein signifikantes Ergebnis liegt vor, wenn ein Signifikanztest eine sehr geringe Irrtumswahrschein-
lichkeit ermittelt. Dies bedeutet, dass sich das gefundene Stichprobenergebnis nicht gut mit der
Annahme vereinbaren lässt, dass in der Population die Nullhypothese gilt. Man lehnt deshalb die
Nullhypothese ab und akzeptiert die Alternativhypothese. (Bortz/Döring 2006: 26–27)
Welches statistische Verfahren jeweils zur Hypothesentestung eingesetzt werden kann, hängt
von verschiedenen Faktoren ab. Zunächst ist zwischen einfachen (univariaten und bivariaten)
und komplexen (multivariaten) Verfahren, d. h. Verfahren, die mehrere Variablen in Bezie-
hung zueinander modellieren, zu unterscheiden.
Im Rahmen einfacher statistischer Verfahren hängt die Wahl zunächst davon ab, wie die
entsprechenden Variablen skaliert sind und ob eine Unterschieds- oder Zusammenhangs-
hypothese getestet werden soll. Im Falle einer Unterschiedshypothese ist für die Auswahl zu-
sätzlich entscheidend, ob Unterschiede zwischen zwei oder mehr als zwei Gruppen untersucht
werden sollen und ob die Stichproben voneinander unabhängig oder miteinander verbunden
sind. Diese Auswahlkriterien sollen im Folgenden genauer erläutert werden.
Unterschiedshypothesen postulieren einen Unterschied bzgl. einer Variablen zwischen zwei
oder mehreren Gruppen, z. B. ‚Teilnehmer der L1-Gruppen A und B schneiden im Test un-
terschiedlich gut ab‘. Zusammenhangshypothesen hingegen beziehen sich auf eine einzige
Gruppe bzw. Stichprobe, für die ein Zusammenhang zwischen zwei Variablen vermutet wird,
z. B. ‚Kontaktdauer mit der Zielsprache und Testergebnisse korrelieren positiv miteinander‘.
Sie sind in Je-desto-Formulierungen transformierbar, z. B. ‚Je länger Kontakt mit der Ziel-
sprache besteht, desto besser fallen die Testergebnisse aus‘. Sind die zwei Variablen metrisch
skaliert (wie im vorliegenden Beispiel), wird Pearsons r (auch Produkt-Moment-Korrelation)
48 Ob eine Hypothese gerichtet oder ungerichtet formuliert wird, d. h., ob eine Annahme über die Richtung
eines Unterschieds oder Zusammenhangs formuliert wird oder ob dies offen gelassen wird, hängt vom
Stand der bereits vorhandenen Forschung zum Thema ab. Lässt sich aus Vorstudien eine Richtungsannah-
me ableiten, sollte eine gerichtete Hypothese formuliert werden (vgl. genauer z. B. Brown 1988: 109–111,
Meindl 2011: 148–152, Kuckartz et al. 2013: 144–151).
als Korrelationskoeffizient berechnet; sind beide oder eine von beiden Variablen lediglich
ordinalskaliert, wird Spearmans Rho verwendet. Im Rechenbeispiel korrelieren Kontaktdauer
und Testergebnisse beispielsweise mit r = .43, p = .02 miteinander.49 Für nominale Daten kann
der Kontingenzkoeffizient C herangezogen werden (vgl. Bortz 2005: 234–235).
Bei der Berechnung von Gruppenunterschieden ist weiter zu prüfen, ob die zu verglei
chenden Stichproben voneinander unabhängig gezogen wurden, ob es sich z. B. um Männer
vs. Frauen oder auch um Lerner mit L1 Kurdisch vs. Arabisch vs. Türkisch handelt oder ob
die Stichproben in irgendeiner Art und Weise miteinander verbunden, d. h. voneinander
abhängig sind. Verbundene Stichproben liegen z. B. vor, wenn Messwiederholungen durch-
geführt werden, um zu prüfen, ob sich der Sprachstand derselben Lerner zwischen dem Zeit-
punkt T1 und dem Zeitpunkt T2 signifikant verbessert hat. Ist dies der Fall, sind Verfahrens-
varianten der Rechenwege für unabhängige Stichproben einzusetzen (vgl. Tab. 5 für eine
Übersicht).
Im vorliegenden Beispiel würde die Unterschiedshypothese beispielsweise mit einem t-
Test geprüft, da zwei unabhängige Stichproben (Lerner der Gruppen A und B) vorliegen,
die bezüglich einer metrisch skalierten Variablen (dem Sprachtest) miteinander verglichen
werden sollen. Der Unterschied zwischen beiden Gruppen ist nicht signifikant (t (28) = –.18,
p = .86).
Für alle Verfahren gelten spezifische Voraussetzungen, wie z. B. Normalverteilung oder
Varianzhomogenität der Daten, die im Vorfeld der Testung zu prüfen sind (vgl. genauer z. B.
Larson-Hall 2010: 250–251). Sind Voraussetzungen metrischer Verfahren verletzt, ist es im
Rahmen einfacher statistischer Verfahren häufig sinnvoll, die korrespondierenden ordinalen
Verfahren einzusetzen. Einen Einblick in komplexere statistische Verfahren bietet das Folge-
kapitel (vgl. für eine knappe Verfahrensübersicht auch Settinieri 2012: 266).
49 Zur Interpretation dieser und der folgenden statistischen Kennwerte vgl. die Erläuterungen in Abschnitt
4.
Letztendlich handelt es sich also um eine willkürliche, konventionelle Festlegung des Sig-
nifikanz-Niveaus. Eingebürgert haben sich ferner weitere Niveau-Abstufungen.50
Bedacht werden sollte allerdings, dass 5 % Fehlerquote auch bedeuten, dass durchschnittlich
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
jede 20. Messung fälschlich signifikant wird. Dieser Umstand wird vor allem dann kritisch,
wenn eine große Anzahl von Hypothesentestungen durchgeführt wird (vgl. Faller 2004: 175,
Larson-Hall 2010: 252, Bühner/Ziegler 2009: 551–554). Außerdem bedeutet ein nicht sig
nifikantes Ergebnis keinesfalls, dass die Nullhypothese deshalb zutreffend wäre; vielmehr
bleibt die Frage, ob ein Effekt vorliegt, genau genommen offen (vgl. Bortz/Döring 2006:
26–27). Denn neben dem sog. Alpha-Fehler (auch Fehler 1. Art), der im Signifikanz-Niveau
ausgedrückt wird, ist auch der Beta-Fehler (auch Fehler 2. Art) in Betracht zu ziehen. Während
der Alpha-Fehler den Fall beschreibt, dass ein in der Stichprobe vorgefundener Effekt in der
Population nicht vorhanden ist, bezieht sich der Beta-Fehler auf den umgekehrten Fall, dass in
der Stichprobe kein Effekt gefunden wird, obwohl er in der Population existiert (vgl. Tab. 6).
Obgleich sich die Forschung lange Zeit ausschließlich auf den Alpha-Fehler konzentriert
hat, gibt es Forschungszusammenhänge, in denen ein Beta-Fehler durchaus problematischer
als ein Alpha-Fehler sein kann. Denkt man z. B. an die Medizinforschung, so wäre es u. U.
problematischer, die tatsächlich sehr hohe Wirksamkeit eines Medikaments im Kampf gegen
eine gefährliche Krankheit nicht entdeckt zu haben als ein unwirksames, den Zustand eines
Patienten aber auch nicht verschlimmerndes Medikament fälschlich für wirksam gehalten
zu haben.
Population
H0 H1
H0 ✔ Beta-Fehler
Stichprobenentscheidung
H1 Alpha-Fehler ✔
Tabelle 6: Alpha- und Beta-Fehler
50 So findet sich in der Literatur häufig eine Differenzierung in p > 0.05 (nicht signifikant, n.s.), p ≤ 0.05*
(signifikant), p ≤ 0.01** (sehr signifikant) und p ≤ 0.001*** (hoch signifikant).
Die (alleinige) Aussagekraft des p-Wertes wird nun allerdings zunehmend noch viel grund-
sätzlicher in Frage gestellt, wie Faller (2004: 175–176; vgl. auch Larson-Hall 2012: 248–249)
zusammenfassend erläutert:
Die Signifikanzprüfung hat mehrere erhebliche Nachteile: 1. Sie setzt ein willkürliches, dichotomes
Kriterium; 2. ob dieses Kriterium erfüllt wird oder nicht, hängt aber sehr wesentlich von der Stich-
probengröße ab; 3. sie gibt uns keine Information über die Größe und 4. über die […] Bedeutsamkeit
eines Effekts […]. Im Gegenteil: Ein und derselbe Effekt kann in der einen Studie signifikant sein, in
einer anderen, bis auf die Stichprobengröße identischen Studie hingegen nicht. […]
Dass sich Wissenszuwachs entlang derartiger Ja-oder-Nein-Entscheidungen vollzieht, ist wenig
plausibel; viel interessanter ist dagegen die Frage, wie groß ein Unterschied zwischen zwei Gruppen
oder wie stark ein Zusammenhang zwischen zwei Merkmalen ist. Darüber enthält der p-Wert
jedoch keinerlei Information. […] ‚Sehr signifikant‘ heißt nicht ‚sehr wichtig‘.
Die Abhängigkeit des Signifikanzwertes von der Stichprobengröße hängt damit zusammen,
dass die Standardabweichung in sehr großen Stichproben verhältnismäßig klein ausfällt, so
dass größere Abweichungen vom Mittelwert entsprechend seltener vorkommen (vgl. Faller
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
2004: 176). Dieser Zusammenhang hat zur Folge, dass bei sehr großen Stichproben auch
sehr kleine Effekte signifikant werden, obwohl sie erkenntnistheoretisch unbedeutend sind,
und bei sehr kleinen Stichproben größere, theoretisch bedeutsame Effekte nicht aufgedeckt
werden können, obgleich sie vorhanden sind. Daher wird immer häufiger die zusätzliche In-
betrachtnahme von Effektstärkemaßen gefordert, welche weitere Interpretationshilfen bieten
können (vgl. z. B. Rasch et al. 2006: 65–76, Albert/Marx 2010: 159–165, Larson-Hall 2010:
114–120). Die relative Effektstärke ist ein von der Stichprobengröße unabhängiges und da-
mit grundsätzlich auch über unterschiedliche Studien vergleichbares Maß: „Effect size is a
measure of how important the differences between groups are, or how strong the relationship
between variables is.“ (Larson-Hall 2012: 248). A priori kann unter Berücksichtigung der
gewünschten minimalen Effektstärke ein optimaler Stichprobenumfang für die Untersuchung
berechnet werden. Während Stichprobengrößen herkömmlich entweder als anfallende Stich-
proben oder Daumenregeln, wie z. B. mindestens zehn Fälle pro Zelle bzw. pro Gruppe (vgl.
z. B. Raithel 2008: 61–62) oder auch mindestens 30, um von einer Normalverteilung der
Daten ausgehen zu können (vgl. z. B. Meindl 2011: 137), folgend gebildet wurden, ist es somit
möglich, optimale Stichprobengrößen zu berechnen (z. B. Rasch et al. 2006: 103, Larson-Hall
2010: 104–111). Dies geschieht mittels Power-Analyse.51 Die Power oder Teststärke ist dabei
definiert als die Wahrscheinlichkeit, mit der ein in einer Population vorhandener Effekt einer
bestimmten Mindestgröße mit einer bestimmten Stichprobengröße N und einem festgelegten
Alpha-Fehler auch tatsächlich entdeckt werden kann.
Die Wahrscheinlichkeit, dass man bei zutreffender Alternativhypothese ein signifikantes Ergebnis
erhält und dann auch die richtige Entscheidung trifft (also die Alternativhypothese auch annimmt),
wird als Teststärke (power) des Signifikanztests bezeichnet. Sie wird mit dem griechischen Buch-
51 Vgl. genauer z. B. Rasch et al. (2006: 103), Atteslander (2010: 281–283), Larson-Hall (2010: 104–111);
vgl. auch einschlägige Webseiten, wie z. B. G*Power 3 (http://www.psycho.uni-duesseldorf.de/abteilun-
gen/aap/gpower3) (10. 07. 2015) oder den Statistics Calculators (http://danielsoper.com/statcalc3/default.
aspx) (10. 07. 2015).
staben ε (epsilon) gekennzeichnet und ist das Komplement zum Beta-Risiko, also ε = 1-β. (Meindl
2011: 153; Hervorhebung im Original)
Eine Power-Analyse zielt also auf die Frage, wie groß eine Stichprobe sein muss, damit ein be-
stimmter Effekt überhaupt entdeckt werden kann. Sinnvollerweise sollte die Teststärke min-
destens .50, idealerweise aber .80 und mehr betragen (Larson-Hall 2010: 96 und 100–111).
Die Durchführung einer Power-Analyse im Vorfeld einer empirischen Studie kann einerseits
dazu beitragen, Studien mit zu kleiner Stichprobe und Teststärke gar nicht erst durchzuführen
bzw. andererseits Studien von vornherein mit einem genau berechneten, zur Aufdeckung
eines bestimmten Effekts notwendigen N planen zu können (Stichprobenplanung).
A posteriori kann ein Blick auf die Effekt- und Teststärken im Falle signifikanter Ergeb-
nisse die Vergleichbarkeit unterschiedlicher Studien ermöglichen, im Falle nicht signifikanter
Ergebnisse aufzeigen, ob eine weitere Untersuchung auf Basis einer größeren Stichprobe
interessant sein könnte.
Als Effektstärkemaß für t-Tests wird häufig Cohens d (Cohen 1988; berechnet aus der
Differenz beider Stichprobenmittelwerte, geteilt durch die gemeinsame Standardabweichung
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
über alle Messwerte, vgl. z. B. Lind 2012: 7–8) herangezogen, wobei konventionell d = 0.2
als kleiner, 0.5 als mittlerer und 0.8 als großer Effekt gelten und der Wert weder nach oben
noch nach unten begrenzt ist.52 Larson-Hall (2012: 252) verweist jedoch auf Oswald/Plonsky
(2010: 99), die auf Grundlage der Sichtung von Metaanalysen (s. Kapitel 4.5) spezifisch für
die Zweitsprachenerwerbsforschung tentativ d = 0.4, 0.7 und 1.0 als Richtwerte vorschla-
gen. Im vorliegenden Rechenbeispiel liegt die Effektstärke bei d = 0.06, ist also sehr gering.
Ein Beispiel für die konsequente Berücksichtigung der Effektstärke im Rahmen eines quasi-
experimentellen Vergleichs zwischen zwei unverbundenen Stichproben ist die Studie von
Pietrzykowska (2011), die Effekte typographischer Hervorhebung linguistischer Strukturen
auf den Erwerb indirekter Fragesätze untersucht. Obwohl mehrere Testergebnisse nicht sig-
nifikant sind, lassen sich durch den Einbezug von Effektstärken in die Diskussion der Ergeb-
nisse relevante Schlussfolgerungen ziehen.
Die Stärke des Zusammenhangs zwischen zwei metrisch skalierten Variablen wird hin-
gegen in der Regel mit dem Produkt-Moment-Korrelationskoeffizienten r ausgedrückt, wobei
r = 0.1 als kleiner, 0.3 als mittlerer und 0.5 als großer Effekt gelten (Cohen 1992: 156–157).
Der Wert kann positiv oder negativ zwischen 0 und ±1 schwanken, wobei -1 einen maxima-
len negativen und +1 einen maximalen positiven Zusammenhang darstellt, während 0 für
einen Nicht-Zusammenhang steht. Letztendlich hängt die Interpretation der Größe eines
Effekts aber immer auch von der Fragestellung und von den Effektgrößen vergleichbarer
Studien ab, so dass Richtwerte grundsätzlich zu relativieren sind. Wie weiter oben bereits
erwähnt, liegt der Zusammenhang zwischen Kontaktdauer und Testergebnissen bei r = .43,
was einen mittleren Effekt darstellt. Der Beitrag von Piske, MacKay und Flege (2001) zeigt
exemplarisch, wie auf Basis korrelationaler Analysen der Einfluss unterschiedlicher Faktoren
52 „Effektgrößen für Unterschiede werden Abstandsmaße genannt, weil sie den Abstand der beiden Mit-
telwerte repräsentieren. […] Die Effektgröße d drückt einen Mittelwertsunterschied durch die Stan-
dardisierung folglich in Standardabweichungseinheiten aus. Ein d von 1 oder -1 entspricht also einer
Standardabweichungseinheit und kann auch entsprechend interpretiert werden.“ (Schäfer 2011: 76, vgl.
auch Larson-Hall 2012: 248). Für ANOVA-Analysen wird analog Eta-Quadrat herangezogen, das als pro-
zentuale Varianzaufklärung interpretiert werden kann (Larson-Hall 2012: 249, 258).
auf den Spracherwerb (hier die Akzentuiertheit von L2-Aussprache) modelliert werden kann.
Außerdem verdeutlicht die Studie, dass Korrelationen zwischen Variablen nicht als kausale
Zusammenhänge missverstanden werden dürfen.
Cohens d Pearsons r
Einschränkend ist allerdings anzumerken, dass der Wert der relativen Effektstärke von der
Standardabweichung beeinflusst wird, die in unterschiedlichen Studien wiederum unter-
schiedlich groß sein kann, was bei der Interpretation von Metaanalysen bedacht werden muss
(vgl. zu weiteren Einschränkungen auch Lind 2012: 8–11).
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Ebenfalls für die Einschätzung der praktischen Bedeutsamkeit der Ergebnisse einer quan-
titativen Studie herangezogen werden sollte die absolute Effektstärke, also beispielsweise der
Mittelwertunterschied zwischen zwei Stichproben. Wie wir die Größe dieses Unterschieds
einschätzen, hängt zunächst einmal damit zusammen, wie gut die verwendete Skala bereits
erforscht ist, d. h., einerseits von unserem Wissen darüber, wie groß Effekte in vorherigen
Studien auf dieser Skala waren, andererseits von unserem Wissen über lebensweltliche Kon-
sequenzen von Unterschieden einer bestimmten Größenordnung. Lind (2012: 12–13) zieht
als Beispiel einer sehr gut erforschten Skala Temperaturmessungen in Celsius heran.
Die Temperaturskala ist uns Menschen seit langem gut vertraut. Wir wissen z. B. [sic] wie viel
Energie notwendig ist, die Temperatur eines Liters Wasser von 20 Grad Celsius Raumtemperatur
auf 100 Grad Kochtemperatur anzuheben. Wir wissen auch, welche Konsequenzen ein Anstieg
der Körpertemperatur auf 40 Grad hat und wie wir unsere Bekleidung ändern müssen, wenn die
Außentemperatur um ca. 5 Grad steigt oder fällt. (Lind 2012: 12–13)
Zusammenfassend sind also vier miteinander interagierende Wirkgrößen für die Planung
und Interpretation einer quantitativen Studie relevant: Stichprobenumfang, Signifikanzni
veau, Effektgröße und Teststärke (vgl. Abb. 1 und 2). Schließlich kann zusätzlich auch das
Konfidenzintervall des Unterschieds zwischen Gruppen berechnet werden, um einen Ein-
druck davon zu vermitteln, innerhalb welcher Bandbreite der Effekt mit 95 %-iger Wahr-
scheinlichkeit liegt (Faller 2004: 178).
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Abbildung 1: Zusammenhang von Alpha-Fehler, Beta-Fehler, Effektstärke und Teststärke (Bortz 2005: 123;
ergänzt um Effekt und Teststärke)
In Publikationen referiert werden im Bereich der Inferenzstatistik neben dem p-Wert regulär
die für die einzelnen Verfahren spezifischen Kennwerte, die häufig, aber nicht immer, auch
namensgebend für das Verfahren sind, wie z. B. im Falle des Chi-Quadrat- oder des t-Tests.
Darüber hinaus müssen in einigen Fällen auch Freiheitsgrade53 angegeben werden. Zusätzlich
sollten Angaben zu Effekt- und Teststärke in die Interpretation eingehen.
53 Freiheitsgrade „[b]estimmen die Genauigkeit von Populationsschätzern und damit die Form von Ver-
teilungen, die auf Schätzern basieren wie z. B. der t-Verteilung. Die Zahl der Freiheitsgrade gibt an, wie
viele Werte theoretisch frei variieren können, wenn das Ergebnis bereits feststeht […]“ (Rasch et al. 2006:
53–55). Dabei hat jede einzelne Varianz n-1 Freiheitsgrade.
338
Inferenzstatistik (schließend)
- Feststellen der Signifikanz einer Beschreibung für die Population
5 Schlussfolgerungen
Zusammenfassend kann also festgehalten werden: „Ein signifikanter Effekt sollte eben nicht
mit einem wichtigen Effekt verwechselt werden. Ob ein Effekt nämlich auch inhaltlich von
Interesse ist, hängt von seiner Größe und der Fragestellung ab. Was aber erfahren wir über
die Größe des Effektes, wenn wir einen Signifikanztest gemacht haben? Die Antwort ist: gar
nichts.“ (Schäfer 2011: 71; Hervorhebung im Original).
Für die Sprachlehr- und -lernforschung eröffnet die Abkehr von der ausschließlichen Fixie-
rung auf den p-Wert interessante Perspektiven, und zwar sowohl bzgl. der Planung als auch
der Auswertung quantitativer Studien. Einerseits können auch Studien mit (aus forschungs-
praktischen Gründen häufig nur erreichbaren) vergleichsweise kleinen Stichproben einen
Erkenntnisgewinn mit sich bringen, wenn zusätzlich auf die Effektstärken geschaut wird und
Replikationsstudien zu ähnlichen Ergebnissen kommen. Und in den Fällen, in denen auch
große Stichproben gezogen werden können, ermöglicht eine Power-Analyse, genau zu bestim-
men, wie viele Probanden benötigt werden, um einen Effekt einer bestimmten, theoretisch
als relevant erachteten Stärke auch tatsächlich aufdecken zu können.54
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit
einem Sternchen markiert.
Albert, Ruth/Marx, Nicole (2010). Empirisches Arbeiten in Linguistik und Sprachlehrforschung. An-
leitung zu quantitativen Studien von der Planungsphase bis zum Forschungsbericht. Tübingen: Narr.
Atteslander, Peter (2010). Methoden der empirischen Sozialforschung. 13. neu bearbeitete und erwei-
terte Auflage. Berlin: Erich Schmidt.
Bortz, Jürgen (2005). Statistik für Human- und Sozialwissenschaftler. 6. vollständig überarbeitete und
aktualisierte Auflage. Heidelberg: Springer.
Bortz, Jürgen/Döring, Nicola (2006). Forschungsmethoden und Evaluation für Human- und Sozialwis-
senschaftler. 4. überarbeitete Auflage. Heidelberg: Springer.
Brown, James Dean (1988). Understanding Research in Second Language Learning. A Teacher’s Guide
to Statistics and Research Design. Cambridge: Cambridge University Press.
Bühner, Markus/Ziegler, Matthias (2009). Statistik für Psychologen und Sozialwissenschaftler. München:
Pearson.
Cohen, Jacob (1988). Statistical Power Analysis for the Behavioral Sciences. 2. Auflage. Hillsdale, NJ:
Lawrence Erlbaum.
Cohen, Jacob (1992). A Power Primer. In: Psychological Bulletin 112, 155–159.
Ellis, Paul D. (2010). The Essential Guide to Effect Sizes. Statistical Power, Meta-Analysis, and the Inter-
pretation of Research Results. Cambridge: Cambridge University Press.
Faller, Hermann (2004). Signifikanz, Effektstärke und Konfidenzintervall. Significance, Effect Size, and
Confidence Interval. In: Rehabilitation 43, 174–178.
Field, Andy (2013). Discovering Statistics Using IBM SPSS Statistics (and sex and drugs and rock ’n’
roll). 4. Auflage. Los Angeles, CA: Sage.
54 Thomas Eckes, Nazan Gültekin-Karakoç sowie dem Herausgeberteam danke ich herzlich für ihre hilf-
reichen Anmerkungen zu früheren Versionen dieses Aufsatzes.
Gültekin-Karakoç, Nazan/Feldmeier, Alexis (2014). Analyse quantitativer Daten. In: Settinieri, Julia/
Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Einführung
in empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh,
183–211.
Hatch, Evelyn/Lazaraton, Anne (1991). The Research Manual. Design and Statistics for Applied Lin-
guistics. New York: Newbury House.
Kuckartz, Udo/Rädiker, Stefan/Ebert, Thomas/Schehl, Julia (2013). Statistik. Eine verständliche Einfüh-
rung. 2. überarbeitete Auflage. Wiesbaden: Springer VS.
Larson-Hall, Jenifer (2010). A Guide to Doing Statistics in Second Language Research Using SPSS. New
York: Routledge.
Larson-Hall, Jenifer (2012). How to run statistical analyses. In: Mackey, Alison/Gass, Susan M. (Hg.).
Research Methods in Second Language Acquisition. Malden, MA: Wiley-Blackwell, 245–274.
Lind, Georg (2012). Effektstärken: Statistische, praktische und theoretische Bedeutsamkeit empirischer
Studien. [http://kops.uni-konstanz.de/bitstream/handle/123 456 789/21 776/Lind_217 760.pdf?
sequence=2] (10. 07. 2015).
*Marx, Nicole (2005). Hörverstehensleistungen im Deutschen als Tertiärsprache. Zum Nutzen eines
Sensibilisierungsunterrichts in „DaFnE“. Baltmannsweiler: Schneider Verlag Hohengehren. [Refe-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
renzarbeit, Kapitel 7]
Meindl, Claudia (2011). Methodik für Linguisten. Eine Einführung in Statistik und Versuchsplanung.
Tübingen: Narr.
Oswald, Frederick L./Plonsky, Luke (2010). Meta-analysis in second language research: Choices and
challenges. In: Annual Review of Applied Linguistics 30, 85–110.
*Pietrzykowska, Agnieszka (2011). The influence of visual input enhancement on the acquisition of
English embedded questions. In: Pawlak, Mirosław (Hg.). Extending the Boundaries of Research on
Second Language Learning and Teaching. Berlin: Springer, 3–13.
*Piske, Torsten/MacKay, Ian R. A./Flege, James Emil (2001). Factors affecting degree of foreign accent
in an L2. A review. In: Journal of Phonetics 29, 191–215.
Popham, William James/Sirotnik, Kenneth A. (1973). Educational Statistics. Use and Interpretation.
2. Auflage. New York: Harper and Row.
Raithel, Jürgen (2008). Quantitative Forschung. Ein Praxiskurs. 2. durchgesehene Auflage. Wiesbaden:
VS.
Rasch, Björn/Friese, Malte/Hofmann, Wilhelm/Naumann, Ewald (2006). Quantitative Methoden 1/2. 2.
erweiterte Auflage. Heidelberg: Springer.
Schäfer, Thomas (2011). Statistik II. Inferenzstatistik. Wiesbaden: VS.
Settinieri, Julia (2012). Statistische Verfahren. Grundlagenbeitrag. In: Doff, Sabine (Hg.). Fremdsprachen-
unterricht empirisch erforschen. Grundlagen – Methoden – Anwendung. Tübingen: Narr, 249–270.
Wirtz, Christof/Nachtigall, Markus (2006). Deskriptive Statistik. Statistische Methoden für Psychologen
1. 4. überarbeitete Auflage. Weinheim: Juventa.
Brown, James Dean (1988). Understanding Research in Second Language Learning. A Teacher’s
Guide to Statistics and Research Design. Cambridge: Cambridge University Press.
Diese fachspezifische Einführung von Brown (1988) ist ein absoluter Klassiker, der grundlegend in
quantitative Forschungslogik einführt. Wiederholungs- und Anwendungsübungen am Ende jedes
Kapitels ermöglichen, das Verständnis des Gelesenen selbständig zu überprüfen.
Diese englischsprachige Einführung in Statistik mit SPSS ist einerseits unterhaltsam und auch für
Einsteiger verständlich geschrieben, umfasst andererseits alle relevanten Grundlagen und Verfahren,
so dass sich die Anschaffung auch längerfristig lohnt. Der Autor hat darüber hinaus zahlreiche wei-
tere Statistik-Einführungen geschrieben, u. a. auch R-basierte.
Backhaus, Klaus/Erichson, Bernd/Plinke, Wulff/Weiber, Rolf (2006). Multivariate Analysever-
fahren. Eine anwendungsorientierte Anwendung. 11. Auflage. Berlin: Springer.
Der Klassiker im Bereich der multivariaten Analyseverfahren ist Backhaus et al. (2006), der kapitel-
weise in die einschlägigen Verfahren einführt, so dass es problemlos möglich ist, auch nur zu einem
ausgewählten Verfahren zu lesen. Allerdings ist auch diese Einführung wiederum nicht auf unser
Fach bezogen. Eine fachspezifische, wenn auch etwas ältere Einführung bieten Hatch/Lazaraton
(1991; s. o.).
5.3.11 E
xploratorische und konfirmatorische
Faktorenanalysen
Thomas Eckes
1 Einleitung
Faktorenanalysen bilden eine Klasse multivariater statistischer Analyseverfahren, die darauf
abzielen, Zusammenhänge zwischen einer großen Zahl von beobachteten (manifesten) Varia-
blen (z. B. Skalen, Aufgaben oder Items von Sprachtests) auf eine deutlich geringere Zahl
von nicht direkt beobachtbaren Variablen (z. B. fremdsprachliche Kompetenzen, Formen der
Sprachlernmotivation) zurückzuführen. Diese nicht direkt beobachtbaren Variablen werden
als Faktoren, latente Variablen oder Dimensionen bezeichnet.
Bei einer exploratorischen Faktorenanalyse (EFA) ist vor der Untersuchung weder die Zahl
der Faktoren noch die Art ihrer Beziehung zu den beobachteten Variablen bekannt. Eine
EFA dient dazu, in den Daten möglicherweise vorhandene Strukturen aufzudecken. Diese
Strukturen können zu Hypothesen darüber führen, wie die beobachteten Zusammenhänge
zustande gekommen sind. Hierfür sind die Faktoren inhaltlich zu interpretieren, d. h., es sind
die theoretisch bedeutsamen Variablen (Konstrukte) zu bestimmen, die den manifesten Varia-
blen zugrunde liegen. Gibt es bereits Hypothesen oder Erklärungsansätze, so können diese
mittels einer konfirmatorischen Faktorenanalyse (confirmatory factor analysis; CFA) über-
prüft werden. Eine CFA verlangt präzise Annahmen darüber, welche Faktoren mit welchen
Variablen in Verbindung stehen; sie lässt sich damit der Formulierung und Analyse von
Strukturgleichungsmodellen (structural equation modeling; SEM) subsumieren.
EFA und CFA teilen die Grundannahme, dass beobachtete Zusammenhänge zwischen
einer Vielzahl von Variablen auf einige wenige Faktoren zurückgehen. Unterschiede zwischen
EFA und CFA liegen primär in den theoretischen Voraussetzungen und im Ziel der Analyse
bzw. im Stand der Forschung (Brown 2006, Bandalos/Finney 2010, Fabrigar/Wegener 2012):
In frühen Phasen eines Forschungsprozesses hilft eine EFA, beobachtete Zusammenhänge
zwischen Variablen zu ordnen, die Anzahl von Faktoren zu bestimmen oder Messinstrumente
(Skalen) zu entwickeln bzw. zu validieren; hierunter fällt auch die Analyse der dimensio-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
nalen Struktur von Sprachtests. In späteren Phasen, wenn schon erste empirisch gesicherte
Erkenntnisse im fraglichen Gegenstandsbereich vorliegen, können im Rahmen einer CFA
weiterführende Hypothesen über relevante Faktoren und ihre Beziehungen zu beobachteten
Variablen formuliert und getestet werden. Eine CFA erlaubt auch den Vergleich konkur-
rierender Hypothesen oder Modelle.
Die Grundidee der EFA sei anhand eines fiktiven Beispiels erläutert. Um einen Test des Lese-
verstehens in Deutsch als Fremdsprache zu entwickeln, mögen die folgenden sieben Test-
verfahren oder Skalen vorliegen: (1) Ein Lesetext mit fünf Multiple-Choice-Aufgaben (Skala
von 0 bis 5 Punkten); (2) ein Text mit drei offenen Fragen (0 bis 3 Punkte); (3) ein C-Test (vier
Lückentexte mit je 20 Lücken; 0 bis 80 Punkte); (4) ein mündlich zu reproduzierender Text
(0 bis 3 Punkte); (5) ein schriftlich zusammenzufassender Text (0 bis 3 Punkte); (6) ein Wort-
schatztest (0 bis 20 Punkte); (7) ein Grammatiktest (0 bis 20 Punkte).
Hat eine Stichprobe von Deutschlernenden jedes dieser Testverfahren bearbeitet, lassen
sich die paarweisen Zusammenhänge zwischen den Verfahren ermitteln, vorzugsweise durch
Berechnung der Produkt-Moment-Korrelation (PMK). Die resultierenden 21 Korrelationen
werden in einer Matrix angeordnet. Diese Korrelationsmatrix dient der EFA als Daten-
basis.
Die Fragen, die zu beantworten sind, könnten wie folgt lauten: Messen alle sieben Ver-
fahren dieselbe zugrunde liegende Dimension, also die Kompetenz im Leseverstehen, oder
messen sie verschiedene Dimensionen? Um welche Dimensionen handelt es sich? Sind alle
Verfahren gleichermaßen geeignet zur Messung einer gegebenen Dimension? Antworten
auf diese Fragen hätten auch Konsequenzen für die Testauswertung (z. B. Berechnung von
Testwerten im Gesamttest oder in Subtests) sowie für die Interpretation und Verwendung der
Testergebnisse (z. B. für Zwecke der Einstufung oder Zertifizierung).
Im Folgenden gehe ich davon aus, dass die manifesten Variablen in standardisierter Form
vorliegen, d. h., die Werteverteilungen aller Variablen haben denselben arithmetischen Mittel-
wert (M = 0) und dieselbe Standardabweichung (SD = 1) bzw. Varianz (Var = 1; so genannte
z-Standardisierung). Die Beziehung zwischen einer standardisierten Variablen z; und den
Faktoren f1 bis fk wird in der Grundgleichung der EFA (common factor model) wie folgt aus
gedrückt:
(1)
Die Gewichtungskoeffizienten ai1 bis aik geben an, wie gut die Variable zi durch die Faktoren f1
bis fk erklärt wird; diese Koeffizienten werden auch Faktorladungen genannt. Faktorladungen
können als Korrelationen zwischen Variablen und Faktoren interpretiert werden. Die Fak-
toren f1 bis fk heißen gemeinsame Faktoren. Schließlich steht ui für die Residualvariable
(uniqueness component; manchmal auch Fehlervariable genannt); die Residualvariable setzt
sich zusammen aus (zufälligen) Messfehlern und (wahren) Anteilen, die auf Einflüsse eines
oder mehrerer spezifischer Faktoren zurückgehen. Spezifische Faktoren sind Faktoren, die nur
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
auf eine einzige Variable Einfluss nehmen. Im obigen Beispiel könnte dies z. B. bedeuten, dass
die Leistung im Multiple-Choice-Test nicht nur von der Lesekompetenz, sondern auch von der
strategischen Kompetenz beim Lösen von Multiple-Choice-Aufgaben abhängt.
Abbildung 1 veranschaulicht das Modell der EFA am Beispiel eines einzigen Faktors. Eine
grafische Darstellung dieser Art heißt auch Pfaddiagramm. Die Testverfahren bilden die
manifesten Variablen; die Korrelationen zwischen den Testverfahren werden auf den Faktor
Lesekompetenz zurückgeführt (die Pfeile zeigen die Richtung des Einflusses an). Die Residual-
variablen sind mit u1 bis u7, die Faktorladungen mit a11 bis a71 bezeichnet.
Abbildung 1: Pfaddiagramm eines (fiktiven) EFA-Modells mit einem einzigen Faktor (Lesekompetenz) und
sieben manifesten Variablen (Testverfahren)
Setzt man unkorrelierte (orthogonale) Faktoren voraus, lässt sich die Varianz einer Variablen
zi, Var(zi) = 1, als Summe der quadrierten Faktorladungen und der Varianz der Residualkom-
ponenten (Residualvarianz), Var(ui), darstellen:
(2)
Die Summe der Faktorladungsquadrate wird Kommunalität genannt. Bei der Kommunalität
einer beobachteten Variablen handelt es sich um den Varianzanteil, der durch die Faktoren
erklärt wird, oder anders ausgedrückt, um den Anteil der gemeinsamen Varianz an der Ge-
samtvarianz einer Variablen. Die Höhe der durch einen Faktor erklärten Varianz aller stan-
dardisierten Variablen wird Eigenwert des Faktors genannt. Je höher der Eigenwert eines
Faktors, desto größer ist sein Einfluss auf die Variablen. Abbildung 2 veranschaulicht die
Varianzzerlegung im Modell der EFA.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Abbildung 2: Aufteilung der Gesamtvarianz einer standardisierten Variablen gemäß EFA in die gemeinsame
Varianz (Summe der Faktorladungsquadrate), die spezifische Varianz und die durch zufällige Messfehler
bedingte Varianz
Die Reliabilität einer Variablen setzt sich aus der Kommunalität (Anteil gemeinsamer Varianz)
und der Spezifität (Anteil spezifischer Varianz) zusammen. Vergleicht man die Kommunalität
einer Variablen mit ihrer Reliabilität, lässt sich der mögliche Einfluss spezifischer Faktoren
abschätzen. Liegt die Kommunalität etwa auf Höhe der Reliabilität, teilt die Variable einen
Großteil ihrer Varianz mit den gemeinsamen Faktoren; spezifische Faktoren sind dann von
geringer oder gar keiner Bedeutung. Fällt dagegen die Kommunalität deutlich niedriger aus
als die Reliabilität, ist anzunehmen, dass die Residualvarianz in erheblichem Maße auf einen
oder mehrere spezifische Faktoren und nicht bloß auf Messfehler zurückgeht.
Die Durchführung einer EFA gliedert sich in mehrere Schritte. Einige dieser Schritte erfordern
Entscheidungen, die sich nicht oder nicht ausschließlich an objektiven Kriterien orientieren.
Abbildung 3 gibt nach Art eines Flussdiagramms die Hauptschritte und ihre Abfolge wieder.
Ausführliche Darstellungen geben z. B. Eid/Gollwitzer/Schmitt (2015), Hair et al. (2014) so-
wie Tabachnick/Fidell (2014). Hinweise zur praktischen Anwendung finden sich bei Henson/
Roberts (2006) sowie Osborne/Costello/Kellow (2008).
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Zunächst ist das Ziel der Analyse zu klären. Liegen bereits Hypothesen über Faktorstrukturen
vor und sind diese empirisch zu prüfen, dann handelt es sich um eine konfirmatorische Fra-
gestellung, die mit einer CFA (oder einem SEM-Ansatz) zu untersuchen wäre; andernfalls
wäre eine EFA angezeigt.
Prinzipiell können Zusammenhänge zwischen Variablen, Fällen oder anderen Analysee-
inheiten betrachtet werden. Üblicherweise werden Korrelationen zwischen Variablen be-
rechnet und analysiert (auch R-Technik genannt; vgl. Bortz/Schuster 2010). Werden dagegen
Fälle (z. B. Testteilnehmer, Beurteiler oder Interviewer) mit Methoden der EFA untersucht,
genommen (z. B. bei Berechnung der PMK). Daher sollten bivariate Streudiagramme (scatter-
plots) auf Abweichungen von der Linearität untersucht werden. Zudem sollten wenigstens
einige Variablen substanziell miteinander korrelieren. Liegt z. B. keine Einzelkorrelation hö-
her als .30, wäre eine EFA wenig sinnvoll (der Anteil gemeinsamer Varianz läge sehr niedrig).
Ein statistischer Test hierzu ist der Bartlett-Test auf Sphärizität. Ein signifikantes Ergebnis
des Tests spräche dafür, dass die Variablen in der Population tatsächlich korreliert sind; damit
wäre eine Mindestvoraussetzung für die Durchführung einer EFA erfüllt.
Die Faktorenextraktion, also die Bestimmung der Faktoren bzw. Faktorladungen, kann
nach mehreren Methoden erfolgen. Häufig kommen die Hauptachsenanalyse (principal axis
factoring; PAF) oder die Maximum-Likelihood-Methode (ML-Methode) zur Anwendung.
Letztere ist zugleich die Standardmethode im Rahmen einer CFA; sie wird im Abschnitt zur
CFA kurz besprochen.
Die PAF ist mit der Hauptkomponentenanalyse (principal component analysis, PCA) ver-
wandt. Aber anders als die PAF (bzw. das Modell der EFA) unterscheidet die PCA nicht
zwischen gemeinsamer Varianz, spezifischer Varianz und Fehlervarianz einer beobachteten
Variablen; Ziel ist es, die gesamte Varianz aufzuklären. Folglich fallen Unterschiede zwischen
PAF- und PCA-Ergebnissen (unter sonst gleichen Bedingungen) umso größer aus, je höher
die Anteile von spezifischer Varianz und Fehlervarianz sind. Die PCA ist eine Methode der
statistischen Datenreduktion; sie dient dazu, eine Vielzahl von beobachteten Variablen unter
möglichst geringem Informationsverlust zusammenzufassen, d. h. in Hauptkomponenten zu
bündeln. Diese Hauptkomponenten bilden neue, unkorrelierte Variablen, die sich etwa als
Prädiktoren in einer multiplen Regressionsanalyse verwenden lassen. Allerdings kommt die
PCA häufig auch dann zum Einsatz, wenn eine Analyse nach dem EFA-Modell angezeigt
wäre. Kritische Einschätzungen dieser weit verbreiteten Praxis geben z. B. Bandalos/Boehm-
Kaufman (2009), Fabrigar/Wegener (2012) und Eid/Gollwitzer/Schmitt (2015).
Im Fall einer PAF werden die gemeinsamen Faktoren aus einer reduzierten Korrelations-
matrix extrahiert. Diese Matrix ergibt sich aus der Ausgangsmatrix, indem die Einsen in der
Hauptdiagonalen um den Anteil der Residualvarianz gemindert werden, d. h., in der Haupt-
diagonalen stehen die Kommunalitäten (bei einer PCA bleibt es dagegen bei den Einsen,
weil die Gesamtvarianz der Variablen aufzuklären ist). Da aber die Kommunalitäten vor der
Analyse noch unbekannt sind, müssen diese zunächst geschätzt werden (z. B. durch das Qua-
drat der multiplen Korrelation einer gegebenen Variablen mit allen anderen Variablen). Die
Faktoren werden dann in einem iterativen Verfahren so extrahiert, dass sie (a) sukzessive ein
Maximum an (gemeinsamer) Varianz der Variablen erklären und (b) voneinander unabhängig
sind.
Im nächsten Schritt ist die geeignete Anzahl von Faktoren zu bestimmen. Hierfür stehen
wieder mehrere Methoden zur Verfügung. Den Standard bildet der Scree-Test – eine grafische
Methode, bei der die Ordnungszahl der Faktoren auf der horizontalen Achse und die Höhe
der Eigenwerte auf der vertikalen Achse abgetragen werden. Diejenigen Faktoren gelten als
substanziell, deren Eigenwerte links von einem „Knick“ im Verlauf der Eigenwerte liegen.
Daneben empfiehlt sich eine so genannte Parallelanalyse. Hierbei werden die Eigenwerte
der empirischen Korrelationsmatrix mit den Eigenwerten von Matrizen gleicher Größe, die
ausschließlich Zufallskorrelationen enthalten, verglichen. Für eine Interpretation in Frage
kommen diejenigen Faktoren, deren Eigenwerte größer sind als die Eigenwerte, die aus einer
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Analyse der Zufallsdaten resultieren. Das häufig verwendete Kaiser-Kriterium, nach dem
Faktoren mit Eigenwerten größer als 1 beizubehalten sind, kommt allenfalls im Rahmen
einer PCA in Betracht; es hat sich zudem in Methodenstudien als wenig geeignet erwiesen
(Bandalos/Boehm-Kaufman 2009, Lorenzo-Seva/Timmermann/Kiers 2011).
Die Extraktion der Faktoren folgt statistischen Kriterien wie dem der sukzessiven Auf-
klärung maximaler Varianz. Das hat zur Folge, dass die meisten Variablen hoch auf dem
ersten, varianzstärksten Faktor laden, mit deutlich niedrigeren Ladungen auf dem zweiten
und allen weiteren Faktoren. Eine inhaltliche Interpretation der Faktoren wird dadurch er-
schwert. Um leichter interpretierbare Faktoren zu gewinnen, wird die Faktorlösung in aller
Regel transformiert. Diese Transformation wird als Rotation bezeichnet. Auf den Anteil der
gemeinsamen Varianz an der Gesamtvarianz der Variablen hat eine Rotation keinen Einfluss
(die Varianz wird zwischen den Faktoren nur umverteilt). Ziel ist zumeist eine so genann-
te Einfachstruktur: Auf jedem Faktor sollten einige Variablen möglichst hoch und andere
möglichst niedrig laden; außerdem sollten auf verschiedenen Faktoren verschiedene Variablen
möglichst hoch laden. Als Minimum gelten Ladungen von ±0.30 bis ±0.40. Eine solide Basis
für inhaltliche Interpretationen bieten Ladungen von ±0.70 oder höher; in diesem Fall erklärt
ein Faktor wenigstens rund 50 % der Varianz einer Variablen (Hair et al. 2014).
Es sind zwei Klassen von Rotationsmethoden zu unterscheiden. Bei einer orthogonalen Ro-
tation (z. B. Varimax) bleiben die Faktoren unkorreliert, bei einer obliquen (schiefwinkligen)
Rotation (z. B. Promax) können untereinander korrelierte Faktoren resultieren. Eine oblique
Rotation kommt insbesondere dann in Betracht, wenn es gute empirische und/oder theo-
retische Gründe gibt, Korrelationen zwischen den Faktoren bzw. zwischen den Konstrukten,
die sie repräsentieren, anzunehmen. Beispielsweise sind im Bereich des Sprachtestens Teil-
kompetenzen wie Leseverstehen und Hörverstehen als korreliert anzunehmen, sodass eine
oblique Rotation der Faktoren angemessener wäre. Sollten die betrachteten Faktoren tatsäch-
lich unkorreliert sein, würde eine oblique Rotation eine orthogonale Lösung liefern.
Im Falle einer obliquen Rotation dürfen die Faktorladungen allerdings nicht mehr wie
Korrelationen zwischen (manifesten) Variablen und Faktoren interpretiert werden. Vielmehr
EFA-Anwendungen
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Die hier skizzierten Anwendungen des EFA-Modells dienen lediglich der Illustration von
Themen und Fragestellungen in fremdsprachendidaktischen Studien. Eine Besprechung ein-
zelner Auswertungsschritte ist aus Platzgründen nicht möglich; auch sind in vielen Arbeiten
die Analysen nicht detailliert genug beschrieben.
Grotjahn (1987) ging der Frage nach, ob C-Tests als Lesetests verstanden werden können.
Eine EFA der Korrelationen zwischen einem französischen C-Test und acht Untertests eines
traditionellen Französischtests (u. a. zum Leseverstehen) lieferte einen einzigen Faktor. Auf
diesem Faktor lud der C-Test mit .82 deutlich höher als die meisten Untertests und auch höher
als der Untertest zum Leseverstehen (mit einer Ladung von .41) – ein Hinweis darauf, dass
C-Tests nicht bloß Lesetests sind.
Andere Studien zielten auf die Analyse der Lernstrategien und Interessen beim Lese-
verstehen in Englisch als Fremdsprache (Finkbeiner 2005), auf die Dimensionalität eines
207 Items umfassenden Englischtests (Zydatiß 2007), auf eine Betrachtung der Faktoren,
die mündlicher Kompetenz in der Fremdsprache Englisch zugrunde liegen (Grum 2012),
auf die Struktur curricularer Standards in der fremdsprachlichen Lehrerbildung (Schneider/
Bodensohn 2008) oder auf die Konstruktion von Skalen zur Messung von Fremdsprach-
verwendungsangst (foreign language anxiety), Sprachlernmotivation und sprachbezogenen
Einstellungen (Grotjahn 2004, Gardner 2010).
Wie bereits ausgeführt ist die CFA ein hypothesentestendes, die EFA ein hypothesengenerie-
rendes Verfahren. Das bedeutet u. a., dass bei einer EFA die Zahl der (gemeinsamen) Faktoren
anhand der Daten empirisch ermittelt, bei einer CFA a priori festgelegt wird. Ebenso wird
bei einer EFA die Zuordnung der manifesten Variablen zu Faktoren datengeleitet zumeist im
Sinne der Einfachstruktur vorgenommen, bei einer CFA erfolgt die Zuordnung hypothesen-
geleitet. Die Datenbasis einer CFA bildet in der Regel nicht eine Korrelationsmatrix, sondern
eine Kovarianzmatrix; in dieser Matrix sind die Variablen nur zentriert (d. h. M = 0), nicht
aber standardisiert.
Das Pfaddiagramm in Abbildung 4 veranschaulicht ein einfaches CFA-Modell mit zwei
latenten Faktoren, denen je zwei manifeste Variablen zugeordnet sind. Der erste Faktor steht
für Sprachrezeption und die beiden zugehörigen Variablen sind separate Tests des Lese- und
Hörverstehens; der zweite Faktor steht für Sprachproduktion mit zugeordneten Tests der
schriftlichen bzw. mündlichen Produktion. Zudem wird postuliert, dass beide Faktoren mit-
einander korreliert sind (dargestellt durch den Doppelpfeil). Die Residual- bzw. Fehlerterme
sind mit u1 bis u4, die Faktorladungen mit a11 und a21 (für Faktor 1, Rezeption) bzw. a32 und
a42 (für Faktor 2, Produktion) bezeichnet. Ziel der Analyse ist es, die im Pfaddiagramm wie-
dergegebenen Hypothesen auf ihre Geltung hin zu prüfen.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Abbildung 4: Pfaddiagramm eines (fiktiven) CFA-Messmodells mit zwei korrelierten Faktoren (Rezeption, Pro-
duktion) und je zwei zugeordneten manifesten Variablen
Die Abfolge der Hauptschritte einer CFA ist in Abbildung 5 wiedergegeben. Hier können
diese zum Teil komplexen Schritte nur sehr knapp umrissen werden (vgl. für detaillierte Dar-
stellungen Bühner 2011, Eid/Gollwitzer/Schmitt 2015, Hair et al. 2014).
Zunächst ist die hypothetische Struktur in ein Messmodell zu übersetzen; d. h., es ist ein
CFA-Modell zu spezifizieren, aus dem hervorgeht, welche Faktoren auf welche manifesten
Variablen Einfluss nehmen; die Faktoren selber können frei miteinander korrelieren. Im all-
gemeineren SEM-Ansatz ist neben einem Messmodell ein Strukturmodell zu spezifizieren. Ein
Strukturmodell definiert die Art der Beziehungen zwischen den Faktoren, also z. B., welche
Faktoren auf bestimmte andere Faktoren direkt oder indirekt Einfluss nehmen (Kunnan 1998,
Brown 2006, Ockey 2014).
Damit ein CFA-Modell überprüft werden kann, ist zu gewährleisten, dass alle Parameter
des Modells (z. B. Faktorladungen oder Faktorkorrelationen) anhand der gegebenen Daten
eindeutig bestimmt werden können; d. h., das Modell muss statistisch identifizierbar sein. Die
Modellidentifikation wird begünstigt, wenn pro Faktor mindestens drei manifeste Variablen
(Indikatoren) erhoben werden (Hair et al. 2014).
Die Schätzung der Modellparameter erfolgt meist mittels der Maximum-Likelihood-Me-
thode. Diese Methode setzt neben einem hinreichend großen Stichprobenumfang (In’nami/
Koizumi 2013) voraus, dass die manifesten Variablen mindestens intervallskaliert und multi-
variat normalverteilt sind. Das Prinzip der ML-Methode besteht darin, die vom Messmodell
implizierte Kovarianzmatrix so zu schätzen, dass sie (a) die Modellvoraussetzungen erfüllt
und (b) möglichst gut mit der empirischen Kovarianzmatrix übereinstimmt. Sind die Voraus-
setzungen für eine ML-Schätzung nicht erfüllt, können weniger anspruchsvolle Methoden
zur Anwendung kommen (z. B. weighted least squares, WLS; Brown 2006, Eid/Gollwitzer/
Schmitt 2015).
Die Güte der Übereinstimmung zwischen Daten und Modell, also die Anpassungsgüte
oder der Modellfit, lässt sich anhand einer ganzen Reihe von statistischen Maßen bestimmen.
Ein Beispiel ist der root mean square error of approximation (RMSEA). Der RMSEA gibt an,
wie gering die Abweichung des zu prüfenden Modells vom wahren Modell ist. Bei RMSEA-
Werten kleiner als .08 spricht man von einer „akzeptablen“ Anpassung, Werte kleiner als .05
indizieren eine „gute“ Anpassung. Ist die Anpassung zufrieden stellend, wird das Modell
beibehalten; ansonsten wird das Modell verworfen. In der Regel ist es ratsam, eine Ent-
scheidung über die Annahme oder Ablehnung eines Modells auf mehrere verschiedene Maße
zu stützen. Statt ein Modell zu verwerfen, könnte in Frage kommen, die Spezifikation des
Modells hypothesengeleitet zu modifizieren (z. B. Korrelationen zwischen einzelnen Faktoren
zuzulassen). So genannte Modifikationsindizes können hierfür wichtige Anhaltspunkte lie-
fern. Die Option der Modellmodifikation rückt den Prozess des Hypothesentestens allerdings
mehr in die Nähe eines exploratorischen Vorgehens.
CFA-Anwendungen
Auch hier seien Themen und Fragestellungen anhand von Untersuchungen illustriert. Das in
Abbildung 4 gezeigte CFA-Modell untersuchten Eckes/Grotjahn (2006) unter Einbeziehung
eines deutschen C-Tests. Der beste Modellfit ergab sich für ein Modell, in dem der C-Test
dem Produktionsfaktor zugeordnet war. Da aber beide Faktoren, Produktion und Rezeption,
hoch miteinander korrelierten und das Ein-Faktor-Modell ebenfalls eine zufrieden stellende
Anpassung lieferte, konnten die Ergebnisse als Beleg dafür interpretiert werden, dass C-Tests
allgemeine Sprachkompetenz messen.
Shin (2005) verglich vier unterschiedlich komplexe Modelle der Struktur des Test of English
as a Foreign Language (TOEFL) und betrachtete den relativen Modellfit in Abhängigkeit vom
Fähigkeitsniveau der Sprecher. Die Struktur des TOEFL erwies sich als weitgehend invariant
gegenüber den Niveauunterschieden (vgl. auch In’nami/Koizumi 2010, 2011). Porsch (2010)
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
4 Computerprogramme
Programme zur Durchführung exploratorischer Faktorenanalysen sind in allen gängigen
kommerziellen Statistikpaketen verfügbar (z. B. in SPSS oder SAS). Dabei ist zu beachten,
dass diese Statistikpakete häufig Voreinstellungen anbieten (z. B. eine PCA als Extraktions-
methode oder das Kaiser-Kriterium zur Bestimmung der Faktorenzahl), von denen in den
meisten Fällen abzuraten ist. Daneben gibt es eine Reihe frei zugänglicher, leistungsstarker
Programme, von denen CEFA (Browne et al. 2010), FACTOR (Lorenzo-Seva/Ferrando 2013)
oder die im Programmpaket R (www.r-project.org) vorhandenen Routinen (z. B. Kubinger/
Rasch/Yanagida 2011) besonders empfehlenswert sind. Für konfirmatorische Faktorenana-
lysen stehen kommerzielle Spezialprogramme wie AMOS, EQS, LISREL oder Mplus zur Ver-
fügung. Auch hier bietet R eine kostenlose Alternative.
352
Variable 1 Variable 2
Faktor 1
Daten
Variable 5 Variable 6 Analysen
Faktorlösung
(Personen x Variablen)
Zusammenhänge
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit
einem Sternchen markiert.
Bacher, Johann/Pöge, Andreas/Wenzig, Knut (2010). Clusteranalyse: Anwendungsorientierte Einfüh-
rung in Klassifikationsverfahren. 3. Auflage. München: Oldenbourg.
Bandalos, Deborah L./Boehm-Kaufman, Meggen R. (2009). Four common misconceptions in explorato-
ry factor analysis. In: Lance, Charles E./Vandenberg, Robert J. (Hg.). Statistical and Methodological
Myths and Urban Legends: Doctrine, Verity and Fable in the Organizational and Social Sciences.
New York: Routledge, 61–87.
Bandalos, Deborah L./Finney, Sara J. (2010). Factor analysis: Exploratory and confirmatory. In: Han-
cock, Gregory R./Mueller, Ralph O. (Hg.). The Reviewer’s Guide to Quantitative Methods in the Social
Sciences. New York: Routledge, 93–114.
Bortz, Jürgen/Schuster, Christof (2010). Statistik für Human- und Sozialwissenschaftler. 7. Auflage.
Berlin: Springer.
Brown, Timothy A. (2006). Confirmatory Factor Analysis for Applied Research. New York: Guilford.
Browne, Michael W./Cudeck, Robert/Tateneni, Krishna/Mels, Gerhard (2010). CEFA: Comprehensive
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
exploratory factor analysis, version 3.04 [Computersoftware und Manual]. [Online: http://faculty.
psy.ohio-state.edu/browne] (15. 07. 2015)
Bühner, Markus (2011). Einführung in die Test- und Fragebogenkonstruktion. 3. Auflage. München:
Pearson Studium.
*Diederich, Paul B./French, John W./Carlton, Sydell T. (1961). Factors in Judgments of Writing Ability
(Research Bulletin No. RB-61–15). Princeton, NJ: Educational Testing Service.
*Eckes, Thomas/Grotjahn, Rüdiger (2006). A closer look at the construct validity of C-tests. In: Langua-
ge Testing 23, 290–325.
Eckes, Thomas/Roßbach, Helmut (1980). Clusteranalysen. Stuttgart: Kohlhammer.
Eid, Michael/Gollwitzer, Mario/Schmitt, Manfred (2015). Statistik und Forschungsmethoden. 4. Auflage.
Weinheim: Beltz.
Everitt, Brian S./Landau, Sabine/Leese, Morven/Stahl, Daniel (2011). Cluster Analysis. 5. Auflage.
Chichester, UK: Wiley.
Fabrigar, Leandre R./Wegener, Duane T. (2012). Exploratory Factor Analysis. New York: Oxford Uni-
versity Press.
*Finkbeiner, Claudia (2005). Interessen und Strategien beim fremdsprachlichen Lesen: Wie Schülerinnen
und Schüler englische Texte lesen und verstehen. Tübingen: Narr.
*Gardner, Robert C. (2010). Motivation and Second Language Acquisition: The Socio-Educational Model.
New York: Lang.
*Grotjahn, Rüdiger (1987). Ist der C-Test ein Lesetest? In: Addison, Anthony/Vogel, Klaus (Hg.). Lehren
und Lernen von Fremdsprachen im Studium. Bochum: AKS-Verlag, 230–248.
*Grotjahn, Rüdiger (2004). „Test and attitude scales for the year abroad“ (TESTATT): Sprachlernmoti-
vation und Einstellungen gegenüber Sprechern der eigenen und der fremden Sprache. In: Zeitschrift
für Interkulturellen Fremdsprachenunterricht 9(2). [Online: http://zif.spz.tu-darmstadt.de/jg-09–2/
beitrag/Grotjahn2.htm] (15. 07. 2015)
*Grum, Urška (2012). Mündliche Sprachkompetenzen deutschsprachiger Lerner des Englischen: Entwick-
lung eines Kompetenzmodells zur Leistungsheterogenität. Frankfurt/Main: Lang.
Hair, Joseph F./Black, William C./Babin, Barry J./Anderson, Rolph E. (2014). Multivariate Data Ana-
lysis. 7. Auflage. Essex, UK: Pearson.
Henson, Robin K./Roberts, J. Kyle (2006). Use of exploratory factor analysis in published research:
Common errors and some comment on improved practice. In: Educational and Psychological Mea-
surement 66(3), 393–416.
*In’nami, Yo/Koizumi, Rie (2010). Can structural equation models in second language testing and
learning research be successfully replicated? In: International Journal of Testing 10, 262–273.
*In’nami, Yo/Koizumi, Rie (2011). Structural equation modeling in language testing and learning re-
search: A review. In: Language Assessment Quarterly 8, 250–276.
In’nami, Yo/Koizumi, Rie (2013). Review of sample size for structural equation models in second
language testing and learning research: A Monte Carlo approach. In: International Journal of Testing
13, 329–353.
*König, Johannes/Rothland, Martin/Darge, Kerstin/Lünnemann, Melanie/Tachtsoglou, Sarantis (2013).
Erfassung und Struktur berufswahlrelevanter Faktoren für die Lehrerausbildung und den Lehrerberuf
in Deutschland, Österreich und der Schweiz. In: Zeitschrift für Erziehungswissenschaft 16, 553–577.
Kubinger, Klaus D./Rasch, Dieter/Yanagida, Takuya (2011). Statistik in der Psychologie: Vom Einfüh-
rungskurs bis zur Dissertation. Göttingen: Hogrefe.
Kunnan, Antony J. (1998). An introduction to structural equation modelling for language assessment
research. In: Language Testing 15, 295–332.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Lorenzo-Seva, Urbano/Ferrando, Pere J. (2013). Manual of the program FACTOR, version 9.20 [Compu-
tersoftware und Manual]. [Online: http://psico.fcep.urv.es/utilitats/factor/index.html] (15. 07. 2015)
Lorenzo-Seva, Urbano/Timmerman, Marieke E./Kiers, Henk A. L. (2011). The Hull method for selecting
the number of common factors. In: Multivariate Behavioral Research 46, 340–364.
*Nold, Günter/Haudeck, Helga/Schnaitmann, Gerhard W. (1997). Die Rolle von Lernstrategien im
Fremdsprachenunterricht. In: Zeitschrift für Fremdsprachenforschung 8(1), 27–50.
Ockey, Gary J. (2014). Exploratory factor analysis and structural equation modeling. In: Kunnan, An-
tony J. (Hg.). The Companion to Language Assessment (Bd. 3). Chichester, UK: Wiley, 1224–1244.
Osborne, Jason W./Costello, Anna B./Kellow, J. Thomas (2008). Best practices in exploratory factor
analysis. In: Osborne, Jason W. (Hg.). Best Practices in Quantitative Methods. Thousand Oaks, CA:
Sage, 86–99.
*Porsch, Raphaela (2010). Schreibkompetenzvermittlung im Englischunterricht in der Sekundarstufe I:
Empirische Analysen zu Leistungen, Einstellungen, Unterrichtsmethoden und Zusammenhängen von
Leistungen in der Mutter- und Fremdsprache. Münster: Waxmann.
*Schneider, Christoph/Bodensohn, Rainer (2008). Curriculare Standards der fremdsprachlichen Lehrer-
bildung in der Praxis: Empirische Erkenntnisse. In: Beiträge zur Fremdsprachenvermittlung, Sonder-
heft 13, 215–236.
*Shin, Sang-Keun (2005). Did they take the same test? Examinee language proficiency and the structure
of language tests. In: Language Testing 22(1), 31–57.
Tabachnick, Barbara G./Fidell, Linda S. (2014). Using Multivariate Statistics. 6. Auflage. Essex, UK:
Pearson.
*Zydatiß, Wolfgang (2007). Deutsch-Englische Züge in Berlin (DEZIBEL): Eine Evaluation des bilingua-
len Sachfachunterrichts an Gymnasien. Frankfurt/Main: Lang.
Bühner, Markus (2011). Einführung in die Test- und Fragebogenkonstruktion. 3. Auflage. Mün-
chen: Pearson Studium.
Der Autor setzt sich in Kapitel 6 mit der EFA und in Kapitel 7 mit der CFA auseinander. In beiden Ka-
piteln werden die theoretischen und konzeptionellen Grundlagen detailliert und zugleich anschaulich
dargestellt. Die praktische Durchführung einer EFA wird mittels SPSS, die Durchführung einer CFA
mittels AMOS anhand von Beispielen gut nachvollziehbar erläutert.
Eid, Michael/Gollwitzer, Mario/Schmitt, Manfred (2015). Statistik und Forschungsmethoden.
4. Auflage. Weinheim: Beltz.
Die Autoren geben in ihrem über 1000 Seiten umfassenden Lehrbuch eine testtheoretisch fundierte
Darstellung faktorenanalytischer Modelle und Methoden. Einen Schwerpunkt bilden die Anwendung
von Maximum-Likelihood-Methoden der Parameterschätzung und die Überprüfung der Modell-
anpassung.
Hair, Joseph F./Black, William C./Babin, Barry J./Anderson, Rolph E. (2014). Multivariate Data
Analysis. 7. Auflage. Essex, UK: Pearson.
Die Autoren behandeln in ihrem bewährten Lehrbuch ausführlich die einzelnen Schritte, die bei der
Durchführung einer EFA bzw. CFA zu beachten sind. Der gewachsenen Bedeutung konfirmatorischer
Ansätze tragen die Autoren durch drei separate Kapitel zu den Grundlagen von SEM, zur CFA und
zur Modellprüfung Rechnung.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Friederike Klippel
und Lebenssituationen, der Persönlichkeiten von Forscher_in und Betreuer_in, des Themas
und des Forschungsansatzes ergeben, erscheint es schwierig, allgemeingültige Ratschläge
und Empfehlungen zu formulieren. Wir verstehen dieses Kapitel daher nicht als ein abzuar-
beitendes Programm, das feste Vorgaben für die einzelnen Etappen einer wissenschaftlichen
Arbeit macht, sondern vielmehr als Hinweis auf Leitlinien, als Anregung zur Reflexion, als
Angebot von Optionen, als Entscheidungshilfe oder Denkanstoß.
Die Empfehlungen dieses Kapitels beruhen zum ersten auf unserer addierten Betreuungs-
erfahrung, die weit über 50 abgeschlossene Promotionen und etwa zehn Habilitationen sowie
mehrere hundert Abschlussarbeiten in den fremdsprachendidaktischen Fächern umfasst, zum
zweiten auf bewährten Techniken wissenschaftlichen Arbeitens allgemein, wie wir sie selbst
praktizieren, unseren Doktorand_innen empfehlen und sie in den einschlägigen, fachunspezi-
fischen Handreichungen zu finden sind. Unsere Leitung von und Mitwirkung bei Graduier-
tenkollegs und Graduiertenschulen, Sommerschulen, Nachwuchstagungen, internationalen
und regionalen Doktorandenseminaren und Forschungskollegs haben uns darüber hinaus
Einblicke in sehr unterschiedliche Herausforderungen und Fragen zum Forschungsprozess in
allen seinen Stadien verschafft. Wir meinen also, die FAQs (frequently asked questions) aus
Sicht der Nachwuchswissenschaftler_innen und Betreuer_innen ganz gut zu kennen, und
haben auf dieser Basis die Struktur und die Inhalte von Kapitel 6 geplant. Dennoch kann
ein solches Kapitel sicherlich nicht für alle individuell existierenden Probleme oder Fragen
Antworten bereithalten und auch das intensive Gespräch mit der/m jeweiligen Betreuer_in
nicht ersetzen.
Auch erfahrene Wissenschaftler_innen, die Promovend_innen und Habilitand_innen be-
treuen, können eventuell von einzelnen Ideen und Empfehlungen profitieren, die im Fol-
genden thematisiert werden. Forschen (und Forschende zu betreuen) bedeutet immer auch,
dass man selbst viel lernt. Da kann es hilfreich sein, die eigene Reflexion festzuhalten und
in Form eines Forschungs- oder Betreuungs-Tagebuchs zu dokumentieren, um sich so den
eigenen Entwicklungsprozess bewusst zu machen und wertvolle Einsichten nicht zu ver-
gessen.
Jeder, der in einem Feld forscht, ist Teil einer community of practice. Eine solche Gemein-
schaft definiert sich u. a. durch eine Reihe von allgemein akzeptierten Arbeitsweisen, Werten
und Einstellungen. Für junge Wissenschaftler_innen ist es wichtig, sich in die community of
practice zu integrieren. Das geschieht durch Teilnahme am Diskurs, etwa durch Lektüre der
Fachliteratur, bei Konferenzen und anderen Veranstaltungen sowie durch die Präsentation
der eigenen Forschung.
Die folgenden Kapitel liefern praktische Hinweise und Reflexionshilfen für alle Phasen
des Forschungsprozesses. Im Groben folgen die einzelnen Kapitel dem Ablauf eines For-
schungsprojekts mit abschließender Veröffentlichung: So beginnt Kapitel 6.1 mit der Genese
der Forschungsfrage, deren klare Festlegung für Forschungsnoviz_innen in der Regel nicht
ganz einfach ist. Bei den meisten fremdsprachendidaktischen Forschungsvorhaben spielt das
Verhältnis zwischen dem Praxisfeld des Unterrichts oder der Lehrerbildung, um nur zwei der
häufig untersuchten Bereiche zu nennen, und der zugrundegelegten Theorie eine zentrale
Rolle; dies ist Thema von Kapitel 6.2. In Kapitel 6.3 finden sich Hinweise und Erläuterungen
zur Erstellung der Literaturüberblicke zum untersuchten Thema und zum gewählten For-
schungsansatz. Die Gestaltung der eigenen Untersuchung bzw. die Konzeption des Designs
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
ist eine besonders anspruchsvolle Herausforderung, die häufig in einem langwierigen Pro-
zess von einer vagen Kernidee über mehrere Phasen der Präzisierung, der Ergänzung, der
Umgestaltung und nicht selten auch des beherzten Zusammenschrumpfens hin zu einem
komplexen – und gleichzeitig doch realisierbaren – Vorhaben bewältigt wird. Diesen kreati-
ven Prozess, der von Forschungsnoviz_innen auch ein gewisses Maß an Frustrationstoleranz
erfordert, beschreibt Kapitel 6.4. Kapitel 6.5 gibt im Anschluss sodann Hinweise dazu, wie
auf der Grundlage eines solchen präzisierten Forschungsvorhabens Zeit- und Arbeitspläne
erstellt werden können, und macht deutlich, dass sie im Zuge einer metakognitiven Kon-
trolle und Steuerung des Arbeitsprozesses immer wieder den aktuellen Gegebenheiten und
Einsichten entsprechend umzustoßen bzw. weiterzuentwickeln sind. Sind Datenerhebung
oder Dokumentensammlung abgeschlossen und die Ergebnisse erarbeitet, stellt sich die He-
rausforderung, den Ertrag der Forschungsarbeit so darzubieten, dass die zentralen Befunde
deutlich herausgestellt, die offenen Fragen thematisiert und die gesammelten Erträge in den
theoretischen Forschungszusammenhang eingeordnet werden (Kapitel 6.6). Anregungen für
die Präsentation der eigenen Forschung in allen Phasen des Forschungsprojekts in mündlicher
oder schriftlicher Form liefert Kapitel 6.7, das auch die unterschiedlichen Optionen der ab-
schließenden Publikation erörtert. Das letzte Kapitel (6.8) befasst sich mit wichtigen Aspekten
der Betreuung von wissenschaftlichen Arbeiten und will sowohl Betreuenden als auch Be-
treuten Hinweise geben, wie dieses Verhältnis für alle Beteiligten fruchtbar und konstruktiv
gestaltet werden kann, damit das Abenteuer des Forschungsvorhabens gelingt.
Daniela Caspari
Themen von Forschungsarbeiten, die der wissenschaftlichen Qualifizierung dienen, also Dis-
sertationen und Habilitationsschriften, können entweder im Rahmen eines größeren Projekts
entstehen oder als Einzelstudie. Im ersten Fall sind Thema und Fragestellung in der Regel
weitgehend vorgegeben; im zweiten Fall erwartet man, dass die betreffende Forscherin oder
der Forscher Thema und Forschungsfrage selbst vorschlägt. In der Fremdsprachenforschung
sind die meisten solcher Qualifikationsarbeiten bislang als Einzelstudien entstanden und sie
spiegeln damit auch die Forschungsthemen der Nachwuchswissenschaftler und -wissenschaft-
lerinnen wider.
Bis Thema, Forschungsfrage und Methode präzise bestimmt sind, kann es leicht mehrere
Wochen oder auch Monate dauern. Aber diese Zeit und Mühe sind gut investiert, denn bei
diesem Findungsprozess handelt sich keineswegs um eine lästige und unnütze Vorarbeit.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Es ist vielmehr ein wichtiger Teil der Forschungsarbeit selbst, in dem nach und nach die
entscheidenden Weichen für das Projekt gestellt und die Betreuerinnen und Betreuer einge-
bunden werden. Zumeist verläuft dieser herausfordernde Prozess zirkulär, denn die Aspekte
„Thema“, „Forschungsfrage“ und „Design“ bzw. „Methode“ sind sehr eng miteinander ver-
bunden und beeinflussen sich gegenseitig: Präzisierungen oder Veränderungen an einem der
Aspekte erfordern zumeist auch Veränderungen an den beiden anderen.
Ausgangspunkte für die Themenfindung können das eigene Studium oder die eigene Praxis
sein (vgl. Schart 2001). So liefern Themen, über die man immer schon mehr wissen wollte,
oder Praxiserfahrung, über die man schon längst einmal gründlicher nachdenken wollte, gute
Startpunkte. Eine andere Möglichkeit besteht darin, mit der Themenwahl auf eine bestimm-
te berufliche Richtung (z. B. Aus- und Fortbildung, Lehrmaterialienentwicklung, Bildungs-
administration) hinzuarbeiten und sich ein Themenfeld neu zu erschließen, in dem man
zukünftig gerne tätig sein möchte. Man kann aber auch damit beginnen, sich einen Überblick
über mögliche Forschungsgebiete und aktuelle Trends in der Fremdsprachendidaktik zu ver-
schaffen. Um herauszufinden, zu welchen Themen gerade geforscht wird, eignen sich neben
unregelmäßig erscheinenden Forschungsüberblicken (z. B. Behrent et al. 2011, Doff 2015,
Gnutzmann/Königs/Küster 2011) und der auf Selbsteintrag beruhenden Chronologie der
Dissertationen und Habilitationen im deutschsprachigen Raum (Sauer 2006, fortgeführt von
Friederike Klippel unter http://www.dgff.de/de/qualifikationsarbeiten.html) eine Durchsicht
aktueller Zeitschriften und Sammelbände. Auf diese Weise erfährt man indirekt ebenfalls,
welche Themen gerade nicht im Zentrum des allgemeinen Interesses stehen, obwohl es sich
möglicherweise um zentrale Fragen der Fremdsprachendidaktik bzw. des Fremdsprachen-
unterrichts handelt, die es lohnen, unter neuen Gesichtspunkten weiter erforscht zu werden.
Möglicherweise kann auch eine Liste der Forschungsschwerpunkte und Abschlussarbeiten in
der Didaktik der jeweiligen Universität Anregungen geben, genau wie eine Empfehlung des
potentiellen Betreuers bzw. der Betreuerin oder anderer Doktoranden und Doktorandinnen.
Wichtig ist, dass einem das Thema persönlich so wichtig ist bzw. wird, dass man sich gut
vorstellen kann, ihm mit Freude und forschender Leidenschaft mehrere Jahre seines Lebens
zu widmen.
Sobald erste Ideen gefunden sind, empfiehlt es sich, einen groben Überblick über das For-
schungsgebiet zu gewinnen. So erfährt man, welche Fragen bereits intensiver diskutiert wor-
den sind und wo es möglicherweise noch Forschungsbedarf gibt. Eine allererste Orientierung
über die zentralen Aspekte, Strukturen und Fragen eines Forschungsgebietes und die an ihm
arbeitenden Forscherinnen und Forscher bieten aktuelle Einführungen, Handbücher und Le-
xika. Auch Sammelbände und Themenhefte von Zeitschriften können eine gute Einführung
darstellen. Für einen genaueren Überblick sind jedoch die Suche nach Forschungsüberblicken
(state of the art-Beiträge in Fachzeitschriften, z. B. Language Teaching) und Rezensionen
sowie Datenbankabfragen (z. B. Fachportal Pädagogik, Informationszentrum Fremdsprachen-
forschung (ifs), Bildungsserver) unerlässlich. Ist die entsprechende Literatur identifiziert, soll-
te man sich Zeit zum ‚Einlesen‘ lassen. Dabei ist es nicht nur wichtig, durch gezielte, the-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
matisch vorstrukturierte Lektüre einen Überblick über das Thema mit seinen verschiedenen
Teilbereichen, Aspekten und Ansatzpunkten zu gewinnen. Es ist ebenfalls sinnvoll, über das
Thema hinaus Einblick in angrenzende Themen und Gebiete zu gewinnen, entweder um sich
abzugrenzen oder um zusätzliche Anregungen zu erhalten. Dieses gezielt suchende und bei-
läufig findende Lesen dauert seine Zeit.
Bereits in dieser vorbereitenden Lesephase kann mit dem Führen eines Forschungstage-
buches begonnen werden. In manchen Ansätzen der qualitativen Sozialforschung, insbeson-
dere in der ethnographischen Feldforschung (Friebertshäuser/Panagiotopoulou 2010) und in
der Aktionsforschung (Altrichter/Posch 2007), ist das Führen eines Forschungstagebuches als
systematisches Selbstreflexions- und Datensicherungsinstrument obligatorisch. Aber auch für
jedes andere Forschungsprojekt ist das regelmäßige schriftliche Reflektieren über den eigenen
Forschungsprozess von Vorteil: Es sichert wichtige Informationen und (auch spontane) Ideen,
Überlegungen und Thesen, es erhöht die Selbstaufmerksamkeit, ermöglicht (beim Wieder-
lesen) eine De-Zentrierung, lässt die Genese von Gedanken, Standpunkten und Entscheidun-
gen nachvollziehen und erlaubt eine Übersicht über das, was man bereits geschafft hat. Inhalte
eines solchen Forschungstagebuches, das entweder als gebundenes Heft, als Ordner oder in
elektronischer Form geführt werden kann, sind in regelmäßigen Abständen die Reflexion der
Forschungsziele, der persönlichen Sicht auf den Forschungsgegenstand und den Forschungs-
prozess sowie die Dokumentation der einzelnen Forschungsschritte, einschließlich der dabei
auftauchenden Probleme (z. B. auch als Vor- bzw. Nachbereitung von Gesprächen mit den
Betreuerinnen und Betreuern oder im Forschungskolloquium, siehe auch Kapitel 6.7 und 6.8).
Dazu kommen die ‚Funde‘ aus der alltäglichen Arbeit und aus Gesprächen, z. B. Hinweise
auf Literatur, andere Quellen oder Personen, interessante Zitate (mit genauer Angabe der
Fundstelle), Überlegungen zu Forschungsmethoden, neue Fragen und Interpretationen, aber
auch die eigenen Emotionen. Hilfreich ist es, sich feste Zeiten für die Einträge zu reservieren,
jeweils Datum, Ort und ggf. Situation zu notieren und das Tagebuch möglichst übersichtlich
zu gestalten (Randspalte, Inhaltsverzeichnis, Seitenzahlen, Unterstreichungen, Symbole …).
Je nach persönlichem Arbeitsstil können auch vorstrukturierte Blätter verwendet werden.
Bei der Eingrenzung des Themas können bestimmte Techniken aus einschlägigen Ratgebern
helfen (z. B. Beinke et al. 2011: 21–30, Boeglin 2012: 131–140, Esselborn-Krumbiegel 2014:
33–70, Kornmeier 2010: 48–53). Man kann z. B. überlegen, was man bereits aus anderen
Zusammenhängen über den Themenbereich weiß, was einen an dem Thema fasziniert bzw.
irritiert, möglichst viele Fragen zu einem Themenbereich stellen und mögliche Antworten
antizipieren, W-Fragen an das Thema stellen oder versuchen, das Thema aus mehreren Per-
spektiven zu betrachten. Auch das Clustern von Assoziationen und ihre Strukturierung in
Form von Mindmaps können dabei helfen, den Themenschwerpunkt zu identifizieren. Wenn
man unsicher ist, ob man mit dem gefundenen Thema tatsächlich die kommenden Monate
oder Jahre verbringen will, könnte es helfen, mit der gleichen Sorgfalt ein alternatives Thema
zu suchen, sich der Diskussion zu beiden Themen in einem Doktorandenseminar zu stellen –
und dann auf sein Bauchgefühl zu achten.
Oftmals besteht die Sorge, dass ein Thema möglicherweise nicht neu bzw. nicht spektakulär
genug sei oder nicht ausreichend neue Erkenntnisse verspreche. Oder auch, dass man in Kon-
kurrenz zu anderen stehe, die zur gleichen Zeit am gleichen Thema arbeiten. Diese Sorge ist
in aller Regel unbegründet, denn selbst sehr ähnliche Arbeiten, z. B. zwei empirische Arbeiten
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
mit fast identischem Titel, werden sich bzgl. der Fragestellung, der zugrunde gelegten Theo-
rien oder der Forschungsmethoden, in aller Regel deutlich unterscheiden. Dies entbindet
einen aber natürlich nicht von der Pflicht, sich mit diesen Arbeiten intensiv auseinanderzuset-
zen. Gerade bei aktuellen Themen ist damit zu rechnen, dass man nicht der bzw. die Einzige
ist, die sich gerade dafür interessiert. Und auch bei länger nicht bearbeiteten bzw. zeitlosen
Themen gilt, dass sie niemals abgeschlossen sind. Denn jede wissenschaftliche Arbeit trägt
einen neuen Aspekt, eine neue Sichtweise oder ein neues Ergebnis zum Gesamtmosaik des
jeweiligen Themenbereiches bei.
Während der Suche und Eingrenzung des Themas konkretisiert sich das Erkenntnisinteresse:
Zu welchem Thema möchte man arbeiten, was interessiert einen daran und warum interes-
siert es einen? Im nächsten Schritt gilt es zu bestimmen, was genau man herausfinden möchte,
d. h. es gilt, die Forschungsfrage bzw. Hypothese zu formulieren. Das bedeutet, dass man aus-
gehend vom eigenen Erkenntnisinteresse unter Berücksichtigung des aktuellen Forschungs-
standes und der geeigneten Forschungsmethodik (zum Zusammenhang siehe Abschnitt 3)
eine solch präzise Fragestellung herausarbeitet, dass zum gewählten Thema tatsächlich neue
Ergebnisse und Erkenntnisse gewonnen werden können. Die Forschungsfrage ist der Start-
punkt des Forschungsprojektes und wird im Verlauf der Arbeit oftmals weiter ausdifferenziert
oder präzisiert. Möglicherweise muss sie mit steigendem Wissensstand oder je nach auf-
findbaren Materialien bzw. aufgrund der Datenlage auch noch einmal verändert werden,
damit sie tatsächlich im Rahmen eines zeitlich und ressourcenmäßig begrenzten Projektes
erfolgreich bearbeitet werden kann. Während das zirkuläre ‚Einkreisen‘ der Forschungsfrage
typisch für historische und hermeneutische Arbeiten und sogar ein fester Bestandteil vieler
qualitativer Arbeiten ist, wird in quantitativen Arbeiten die eingangs formulierte Hypothese
im Forschungsprozess selbst nicht mehr verändert.
Die Formulierung der Forschungsfrage setzt eine theoretische Verortung in Bezug auf
das gewählte Thema voraus und sie führt zu einer Beschränkung und Richtungsbestim-
mung: Was möchte ich mit meiner Arbeit herausfinden? Welches Problem möchte ich be-
arbeiten, welchen Widerspruch klären, welche Frage beantworten? Die Forschungsfrage
definiert somit Ziel und Zweck der Arbeit. Dies kann in Form unterschiedlicher Fragen
geschehen (vgl. z. B. Kornmeier 2010: 54–68), z. B. kann ein Gegenstandsbereich genauer
beschrieben oder systematisiert werden, es können Interpretationen oder Erklärungen für
einen Tatbestand gefunden werden oder es können neue Anwendungsfelder erschlossen
werden.
Gute Forschungsfragen, d. h. Forschungsfragen, die sich im Rahmen einer Forschungs-
arbeit systematisch und ausreichend tief beantworten lassen, sind i. d. R. sehr konkret, sie
sind kurz und eindeutig, sie bestehen aus nur einer Frage (ggf. mit Nebenfragen) bzw. einer
These oder einer pro-contra-Aussage, sie sind klar, einfach und genau formuliert. Dazu sind
sie für den Schreibenden interessant, sie entsprechen dem Stand der Wissenschaft und sind
im Fachkontext relevant und beantwortbar.1 Die größte Herausforderung besteht darin, die
Frage nicht zu weit, aber auch nicht zu eng zu formulieren. Umgekehrt kann man nicht
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
hinreichend entwickelte Forschungsfragen u. a. daran erkennen, dass sie unklar sind, zu weit
gefasst sind, in sich widersprüchlich sind, dass sie auf unklaren Vorannahmen beruht oder
dass es sich nicht um eine echte Frage, sondern um als eine als Frage formulierte Behauptung
oder eine beeinflussende bzw. tendenziöse Frage handelt (vgl. z. B. Karmasin/Ribing 2010:
23–24).
Das Formulieren einer einfachen, konkreten und ausreichend eng gefassten Forschungs-
frage verlangt i. d. R. mehrere Anläufe (hilfreiche Techniken wie Freewriting, Mindmaps,
Präzisierungen findet man z. B. bei Wolfsberger 2010: 77–85) und sollte in Rückkopplung
mit dem Betreuer bzw. der Betreuerin erfolgen. Für ein Dissertationsprojekt ist es nicht un-
gewöhnlich, wenn Lesephase und die ersten Formulierungen der Forschungsfrage ein halbes
Jahr in Anspruch nehmen. Aber dieser Aufwand lohnt sich, denn die Forschungsfrage leitet
den nachfolgenden Lese- und Schreibprozess, sie hilft bei der gezielten Suche und Sichtung
von Literatur bzw. Material und bei der Entwicklung der Struktur bzw. des Argumentations-
gangs der Arbeit. Denn jedes Kapitel der Arbeit zielt zielt durch Beantwortung einer Teilfrage
darauf, dass am Ende die Forschungsfrage beantwortet werden kann.
Mit der Formulierung der Forschungsfrage einher geht die Entscheidung für eine bestimmte
Forschungsmethodik. Während die Wahl eines Themas noch keine Entscheidung bzgl. einer
bestimmten Forschungstradition impliziert, legt die Forschungsfrage in aller Regel zumindest
die Forschungstradition, oft auch bestimmte Forschungsverfahren bzw. -methoden nahe. Dies
soll am Beispiel des Themas „Umgang mit Schülerfehlern“ skizziert werden.
1 Vgl. als Beispiele hierzu die Forschungsfragen in der Darstellung der Referenzarbeiten (Kapitel 7).
• Interessiert am Thema der Aspekt der Veränderungen im Umgang mit Fehlern von 1970
bis heute, ist die Arbeit in der historischen Tradition angesiedelt (vgl. Kapitel 3.1). Inner-
halb dieser Tradition können ganz unterschiedliche Forschungsfragen gestellt werden, z. B.
folgende: Wie haben sich die Curricula bzw. die entsprechenden Verordnungen in diesem
Zeitraum verändert? Wie hat sich die Korrekturpraxis in Klassenarbeiten oder Abitur-
arbeiten verändert? Wie haben sich die Auffassungen der Lehrkräfte diesbezüglich ver-
ändert? Diese Fragen legen unterschiedliche Verfahren nahe. Z. B. könnte man die erste
Frage gut durch eine Dokumentenanalyse der entsprechenden offiziellen Vorschriften be-
antworten.
• Interessiert dabei der Aspekt, was überhaupt ein Fehler ist, bzw. was als Fehler gilt, käme
eine theoretische bzw. konzeptionelle Arbeit in Frage (vgl. Kapitel 3.2). Innerhalb dieser
Forschungsrichtung könnte man z. B. folgende Fragen beantworten: Welche Definitionen
und Bezugsnormen werden für den Begriff Fehler herangezogen? Welche Fehlertypen
werden unterschieden? Welche Hinweise zum Umgang mit Schülerfehlern kann man aus
der Vorstellung konzeptioneller Mündlichkeit gewinnen? Wie unterscheiden sich die Ver-
ordnungen der Bundesländer zur Definition von und zum Umgang mit Fehlern? Zur Be-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
›› Literatur
Altrichter, Herbert/Posch, Peter (2007). Lehrerinnen und Lehrer erforschen ihren Unterricht. 4. Auflage.
Bad Heilbrunn: Klinkhardt.
Beinke, Christiane/Brinkschulte, Melanie/Bunn, Lothar/Thürmer, Stefan (2011). Die Seminararbeit.
Konstanz: UVK-Verlags-Gesellschaft.
Behrent, Sigrid/Doff, Sabine/Marx, Nicole/Ziegler, Gudrun (2011). Review of doctoral research in se-
cond language acquisition in Germany (2006–2009). In: Language Teaching 44, 237–261.
Boeglin, Martha (2012). Wissenschaftlich Arbeiten Schritt für Schritt. München: Fink. [= UTB]
Doff, Sabine (2015). Qualifikationsschriften in der Fremdsprachenforschung im deutschsprachigen
Raum 2007–2013: Titel, Themen, Trends. In: Doff, Sabine/Grünewald, Andreas (Hg.). WECHSEL-
Jahre? Wandel und Wirken in der Fremdsprachenforschung. Trier: WVT, 143–152.
Esselborn-Krumbiegel, Helga (2014). Von der Idee zum Text. Paderborn: Schöningh.
Friebertshäuser, Barbara/Panagiotopoulou, Argyro (2010). Ethnographische Feldforschung. In: Frie-
bertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungs-
methoden in der Erziehungswissenschaft. Weinheim: Juventa, 301–322.
Gnutzmann, Claus/Königs, Frank G./Küster, Lutz (2011). Fremdsprachenunterricht und seine Er-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
forschung. Ein subjektiver Blick auf 40 Jahre Forschungsgeschichte und auf aktuelle Forschungs-
tendenzen in Deutschland. In: Fremdsprachen Lehren und Lernen 40, 5–28.
Karmasin, Matthias/Ribing, Rainer (2010). Die Gestaltung wissenschaftlicher Arbeiten. Ein Leitfaden
für Seminararbeiten, Bachelor-, Master- und Magisterarbeiten sowie Dissertationen. 5. aktualisierte
Auflage. Wien: Facultas. [= UTB]
Kornmeier, Martin (2010). Wissenschaftlich schreiben leicht gemacht für Bachelor, Master und Dis-
sertationen. 3. Auflage. Bern: Haupt. [= UTB]
Sauer, Helmut (2006). Dissertationen, Habilitationen und Kongresse zum Lehren und Lernen fremder
Sprachen. Eine Dokumentation. Tübingen: Narr.
Schart, Michael (2001). Aller Anfang ist Biografie – Vom Werden und Wirken der Fragestellung in der
qualitativen Forschung. In: Müller-Hartmann, Andreas/Schocker-von Ditfurth, Marita (Hg.) (2001).
Qualitative Forschung im Bereich Fremdsprachen lehren und lernen. Tübingen: Narr, 40-61.
Wolfsberger, Judith (2010). Frei geschrieben. Mut, Freiheit und Strategie für wissenschaftliche Abschluss-
arbeiten. 3. Auflage. Wien: Böhlau. [= UTB]
Daniela Caspari
in der Fremdsprachendidaktik als wissenschaftlicher Disziplin begründet, die sich als an-
gewandte Wissenschaft in dem Sinne versteht, dass jegliche Forschung direkt oder indirekt
auf das Verstehen und/oder die Veränderung von Praxis abzielt (vgl. Kapitel 2). Fremdspra-
chendidaktische Studien können somit niemals ‚reine‘ Theorie- oder ‚reine‘ Praxisarbeiten
sein, sondern sie erforschen auf unterschiedliche Art und mit unterschiedlicher Zielsetzung
die komplexen Bezüge zwischen Theorie und Praxis. Dieses Kapitel soll daher – ungeachtet
einer noch ausstehenden Theorie des Theorie-Praxis-Bezuges in der Fremdsprachendidak-
tik – den Blick für die möglichen Wechselspiele schärfen und erweitern. Dies kann dazu
beitragen, die mit der Forschungsarbeit verbundenen Absichten zu klären und gezielt ein
solches Design auszuwählen, das den eigenen Voraussetzungen und Absichten am besten
entspricht.
• Geht es darum, vorhandene theoretische Ansätze z. B. auf eine neue Frage zu beziehen oder
unter einem neuen Aspekt zu betrachten, um daraus eine eigene Theorie oder ein eigenes
Modell bzw. Konzept zu entwickeln, so handelt es sich um Typ 1 (theoretische Forschung,
vgl. Kapitel 3.2). Dieser Typ findet ebenfalls in historischen Forschungsarbeiten Verwen-
dung, in denen es darum geht, vorhandene Texte und Dokumente unter bestimmten Fra-
gestellungen zu analysieren, um daraus neue Erkenntnisse über bestimmte Bereiche des
Fremdsprachenlehrens und -lernens zu gewinnen (vgl. Kapitel 3.1).
• Soll die Gültigkeit, Eignung oder Wirksamkeit vorliegender oder (weiter-) entwickelter
Theorien, Modelle bzw. Konzepte an der Praxis überprüft werden, so gilt Typ 2. Ausgangs-
punkt der empirischen Untersuchung ist bzw. sind die aus den theoretischen Überlegungen
abgeleitete (Hypo-)Thesen, die z. B. in Form eines Experimentes mit Interventions- und
Kontrollgruppen überprüft werden können (vgl. Kapitel 3.3).
• Besteht das Ziel jedoch darin, theoretische Ansätze für die Weiterentwicklung der Praxis
nutzbar zu machen, so handelt es sich um Typ 3. Denn hier erfolgt die Übernahme vor-
liegender Theorien, Modelle und Konzepte bzw. ihre (Weiter-) Entwicklung mit dem Ziel,
daraus Anwendungsmöglichkeiten für die Praxis zu generieren, z. B. in Form von Unter-
richtsvorschlägen, Aufgaben oder Lernhilfen. In der Regel wird die Eignung dieser Vor-
schläge anschließend in der Praxis überprüft, meist in Form von Fallstudien. Anhand dieser
Ergebnisse können abschließend die entwickelten Anwendungsmöglichkeiten überarbeitet
werden und/oder die Ergebnisse für die Weiterentwicklung der Theorie genutzt werden
(Prototypen: Entwicklungs- und Evaluationsforschung, vgl. Kapitel 3.3).
• Von der Praxis aus gehen die Typen 4 und 5. Das Ziel von Typ 4 besteht in der Entwick-
lung einer Theorie auf der Grundlage der in einer empirischen Untersuchung der Praxis
gewonnenen Daten. Die Erhebung erfolgt zunächst datengeleitet, d. h. ohne vorgängige
theoretische Kategorien (Prototyp: Grounded Theory, vgl. Kapitel 5.3.3).
• Besteht das Ziel der Forschung in der systematischen und überprüfbaren Veränderung kon-
kreter Praxissituationen, so eignet sich Typ 5. Ausgehend von der Analyse dieser Praxis
von Theorie für von Theorie, tete Entwick- sche Erprobung entwicklung schungsbemü- forschung
die Praxis Modell, Kon- lung praktischer in der Praxis der Theorie auf hungen Evaluations-
zept Realisierungs- der Basis der forschung
möglichkeiten empirischen
(deduktives Ergebnisse
Vorgehen)
Typ 4 Praxis Theoriebildung 1. datengelei- 2. Theorie der 3. ggf. Weiter- Untersuchungs- Grounded Theory
tete empirische beobachteten entwicklung der gegenstand,
Untersuchung Praxis (indukti- Theorie durch im Feld
der Praxis ves Vorgehen) erneute Be-
obachtung der
Praxis
ggf. erneute
Überprüfung
Tabelle 1: Theorie-Praxis-Bezüge in der fremdsprachendidaktischen Forschung
368 6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
Um sich über diese Grundtypen hinaus der eigenen Verortungen und Ziele noch bewuss-
ter zu werden und die eigenen Stärken gezielt zu nutzen, kann es sinnvoll sein, über die
grundsätzliche Anlage eines Designs hinaus weitere Entscheidungsdimensionen und Phasen
des Forschungsprozesses unter Theorie-Praxis-Bezügen zu betrachten (vgl. auch Caspari
2011).
Dazu gehört zunächst die Person des/der Forscher/in: Auf welche Ausbildung, Berufs-
erfahrung sowie welchen fachlichen bzw. fachwissenschaftlichen Hintergrund rekurrieren
er bzw. sie für die Forschungsarbeit? Über welche fachlichen und forschungsmethodischen
Kompetenzen verfügt er/sie bereits und welche ist er/sie bereit zu erwerben? Welchem Hand-
lungsfeld fühlt er/sie sich primär zugehörig?
Auch Forschungsgegenstand und Forschungsfrage können in Hinblick auf Theorie-Praxis-
Bezüge betrachtet werden: Aus welchem Kontext stammen Thema und Forschungsfrage? Wie
sind sie entstanden? Handelt es sich um theoretische Fragen oder sind eigene oder fremde
Praxisprobleme der Ausgangspunkt?
Besonders wichtig ist es, die Ziele und Absichten des Forschungsprojektes in Hinblick auf
Theorie-Praxis-Bezüge zu durchdenken: Welche Ziele und Absichten werden mit der For-
schungsarbeit primär verfolgt: Soll sie eher die Praxis verändern oder die Theorie weiter ent-
wickeln oder beides? Welche weiteren Ziele und Absichten sind dem/der Forscher/in mögli-
cherweise ebenfalls wichtig? Was soll mit den Ergebnissen geschehen? Diese Fragen betreffen
ebenfalls die avisierte Zielgruppe: Für wen sind das Thema, die Forschungsfrage und die
Ergebnisse (möglicherweise) relevant? Dies hat u. a. Auswirkungen darauf, wo und in welcher
Form die Ergebnisse veröffentlicht werden und in welcher Sprache bzw. in welchem Duktus
die Arbeit verfasst wird. Hierbei sind ggf. auch weitere ‚Verwertungszusammenhänge‘ z. B.
in Form von Handreichungen oder Fortbildungen zu bedenken.
6.2.4 Konsequenzen
Für die Präzisierung des eigenen Anliegens und für die eigene Positionierung ist es wichtig,
sich vor und während der Forschungsarbeit die oben aufgeführten Fragen zu stellen und
sie z. B. im Forschungstagebuch (vgl. Kapitel 6.1) für sich zu beantworten. Darüber hinaus
regen die Fragen dazu an, die eigenen Vorannahmen und die eigene Rolle als Forscher/in zu
reflektieren und die persönliche Entwicklung im Forschungsprozess wahrzunehmen. Auch
wenn eine entsprechende Darlegung bislang nur in qualitativen Forschungsdesigns gefordert
wird, so ist zwecks eigener Bewusstwerdung und zur Erhöhung der Transparenz sicher auch
für Forschungsarbeiten in anderen Traditionen sinnvoll, diese Aspekte zu reflektieren. In den
in Abschnitt 2 unterschiedenen Typen fremdsprachendidaktischer Arbeiten schlägt sich dann
die ‚grobe Richtung‘ des geplanten Forschungsprojektes nieder. Darüber hinaus unterscheiden
sie die großen Etappen des Forschungsprozesses und können daher eine Hilfestellung bei der
Planung des Projektes sein (vgl. auch Kapitel 6.5). Nicht zuletzt können sie dabei helfen, den
Aufbau der schriftlichen Fassung der Arbeit zu planen und zu überlegen, welche Aspekte
möglicherweise besser in einer externen Publikation oder einer anderen Form der Anschluss-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
›› Literatur
Breidbach, Stephan (2007). Bildung, Kultur, Wissenschaft. Reflexive Didaktik für den bilingualen Sach-
fachunterricht. Münster: Waxmann.
Caspari, Daniela (2011). Zum Verhältnis von „Theorie“ und „Praxis“ im Forschungsfeld „Lehren und
Lernen von Fremdsprachen“. In: Bausch, Karl-Richard/Burwitz-Melzer, Eva/Königs, Frank G./
Krumm, Hans-Jürgen (Hg.). Erforschung des Lehrens und Lernens fremder Sprachen: Forschungs-
ethik, Forschungsmethodik und Politik. Arbeitspapiere der 31. Frühjahrskonferenz zur Erforschung
des Fremdsprachenunterrichts. Tübingen: Narr, 42–51.
Kron, Friedrich W. (1999). Wissenschaftstheorie für Pädagogen. Tübingen: E. Reinhardt. [= UTB]
Michael K. Legutke
Jegliche Forschungsarbeit muss auf bekanntem Wissen aufbauen und bestrebt sein, dieses
zu erweitern. Der Literaturüberblick 1 ist deshalb von besonderer Bedeutung, weil er dem
Forschungsvorhaben Legitimität und Glaubwürdigkeit bei den Lesern, der Gemeinschaft
der Forschenden und nicht zuletzt innerhalb größerer gesellschaftlicher Zusammenhänge
verleiht. Er macht nämlich deutlich, dass es sich hier um originäre Forschung handelt und
nicht um die Reproduktion vorhandenen Wissens. Damit dieses übergeordnete Ziel erreicht
werden kann, muss er so verfasst sein, dass er vier Funktionen erfüllt. Diese sollen hier in
idealtypischer Abfolge nachgezeichnet werden.
Positionierung im Forschungsfeld: Der Forschende muss nicht nur deutlich machen, in
welchem Forschungsfeld sein Projekt angesiedelt ist (s. Kapitel 2), sondern auch darlegen,
wie es sich zu den dort formulierten Positionen und bereits vorhandenen Forschungsergeb-
nissen verhält, d. h. er muss die Forschungsfrage in ihrem Verhältnis zum Forschungsstand
erörtern, indem er beispielsweise Positionen und Gegenpositionen entfaltet und sich von
folgenden Fragen leiten lässt: Welche Ergebnisse liegen bisher vor? Welches sind mögliche
Anknüpfungspunkte für das eigene Projekt? Welche Traditionslinien lassen sich nachzeichnen
und können aufgenommen werden? Welche Schwerpunkte der Argumentation lassen sich
hervorheben? Dabei kann es sinnvoll sein, nach empirisch gewonnenen Forschungsergebnis-
sen und theoretischen Positionen zu unterscheiden. Da es angesichts der Faktorenkomplexion
fremdsprachendidaktischer Forschung (und abhängig von der Forschungsfrage) notwendig
sein wird, Positionen und Erkenntnisse affiner Disziplinen im Literaturüberblick zu berück-
sichtigen, stellt sich immer auch die Frage der Abgrenzung und Beschränkung: eine besondere
Herausforderung, auf die noch einzugehen sein wird.
Theoretische Fundierung: Eine weitere Funktion des Literaturüberblicks ist die kritische
Auseinandersetzung mit den zentralen theoretischen Konzepten, die der Forschungsfrage zu-
grunde liegen. Auch diese müssen im Zusammenhang vorhandener Arbeiten dargestellt, mög-
licherweise gegeneinander abgeglichen und für das eigene Projekt genau bestimmt werden.
Begründung des Designs: Er muss zum einen transparent machen, warum das gewählte
Design für die Bearbeitung der spezifischen Forschungsfrage als angemessener Weg gelten
kann und auf welche Quellen sich diese Überzeugung stützt. Quellen sind u. a. forschungs-
methodologische Erörterungen und vergleichbare Studien.
Beschreibung und Begründung der Forschungswerkzeuge: Um zu verdeutlichen, weshalb
die gewählten Forschungswerkzeuge als gegenstandsangemessen gelten können, sind diese
nicht nur zu beschreiben, sondern auch in ihren Grenzen und Möglichkeiten zu erörtern. Auch
hier muss transparent werden, welche Quellen die Einschätzung stützen. Dokumentierte For-
schungsvorhaben können inspirierend gewirkt haben, indem sie das Potenzial bestimmter
Werkzeuge belegen oder erkennbar machen, welche Herausforderungen mit ihrem Einsatz
verbunden sind.
Auch wenn Literaturüberblick 1 und Literaturüberblick 2 in der Regel in separaten Ka-
piteln erscheinen, sind vor allem bei qualitativen Arbeiten auch andere Lösungen denkbar.
So können es der Verlauf des Erkenntnisgewinns und der Argumentation durchaus vertretbar
machen, dass die Auseinandersetzung mit der Literatur an verschiedenen Stellen in die Arbeit
einfließt.
Auf ein Missverständnis, den Literaturüberblick 2 betreffend, sei hier noch abschließend
hingewiesen: Auch wenn empirische Forschungsarbeiten, die dem qualitativen Paradigma
verpflichtet sind, in den Fremdsprachendidaktiken spätestens seit der Jahrtausendwende nicht
mehr grundsätzlich in Frage gestellt werden (vgl. Müller-Hartmann/Schocker-v. Ditfurth
2001), fühlen sich Novizen vor allem bei der Verfassung von Qualifikationsarbeiten immer
noch genötigt, im Zusammenhang des Literaturüberblicks 2 allgemeine Begründungen des
Forschungsparadigmas und grundsätzliche Überlegungen zu Gütekriterien qualitativer For-
schung zu erörtern. Solche Grundsatzüberlegungen sind nicht erforderlich. Der Literatur-
überblick 2 fokussiert ausschließlich das Projekt, sein Design und seine Forschungswerk-
zeuge. Selbstverständlich muss dargelegt werden, dass die eigene Arbeit den Gütekriterien
fachdidaktischer Forschung genügt.
Autoren geordnet ist. Letztere enthält nicht nur die genauen bibliographischen Angaben,
sondern eine kurze Zusammenfassung des Beitrags/der Studie sowie erste, stichwortartige
Einschätzungen/Vermutungen, ob und wenn ja in welcher Weise der Text für das eigene Pro-
jekt relevant ist. Der Einstieg in die systematische und vertiefende Recherchearbeit erfolgt
am besten über folgende Quellen:2
• Einschlägige Fachlexika: z. B. Byram/Hu 2013; Palacio Martínez, Ignacio M./Alonso
Alonso, María Rosa/Cal Varela, Mario/López Rúa, Paula/Varela Pérez, José Ramón 2007,
Surkamp 2010.
• Einschlägige Handbücher: Burwitz-Melzer/Mehlhorn/Riemer/Bausch/Krumm 2016; Co-
hen/Manion/Morrison 2011; Friebertshäuser/Langer/Prengel 2010, Hallet/Königs 2010;
Hinkel 2005, 2011; Krumm et al. 2011; Long/Doughty 2009.
• Forschungsüberblicke: Arbeitspapiere der Frühjahrskonferenz zur Erforschung des Fremd-
sprachenunterrichts (Übersicht in: Burwitz-Melzer/Königs/Riemer 2015: 241–247), State-
of-the-Art Articles und Research Timelines in: Language Teaching.
• Einschlägige Überblicksdarstellungen: z. B. Dörnyei 2007.
• Einschlägige Fachzeitschriften: Applied Linguistics, Language Teaching, Fremdsprachen
lehren und lernen, The Modern Language Journal, Zeitschrift für Fremdsprachenforschung.
• Nationale und internationale Datenbanken: Fachportal Pädagogik, Informationszentrum
für Fremdsprachenforschung der Universität Marburg (IFS).
Für die Organisation und Verwaltung der Literatur und der annotierten Bibliographie bietet
sich die Verwendung einer elektronischen Hilfe an.3 Aus der annotierten Bibliographie wird
später ein wesentlicher Teil des Literaturverzeichnisses für die Publikation der Forschungs-
arbeit gewonnen.
Parallel zur Recherche müssen die Systematisierung und eine differenziertere Bewertung
der Literatur im Hinblick auf das Forschungsfeld und den konkreten Forschungsgegenstand
erfolgen. Hier helfen Mind-Maps, Flussdiagramme oder Hierarchisierungen. Wie schon oben
angedeutet, empfiehlt es sich nach inhaltlichen und methodischen Gesichtspunkten zu un-
terscheiden, wenn Zusammenhänge hergestellt und Verknüpfungen zum eigenen Projekt
vorgenommen werden.4
Die annotierte Bibliographie und die visualisierten Darstellungen von Zusammenhängen
sind Bausteine des Literaturüberblicks, aber nicht mit ihm gleichzusetzen. Nunan und Bailey
(2009) verdeutlichen den Unterschied mit dem anschaulichen Bild einer Flickendecke (quilt):
The difference between an annotated bibliography and a literature review is that the former consists
of separate entries arranged alphabetically by author, while the literature review is thematically
organized: It extracts, records, and synthesizes the main points, issues, findings, and research me-
thods of previous studies. We like to use the analogy of a quilt to explain the relationship. The
annotations are like bits of cloth, the raw materials, assembled and organized before you start
quilting. An effective literature review, in contrast, is more like a well-designed and carefully exe-
cuted quilt. It is a unified whole. (Nunan/Bailey 2009: 35)
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Entsprechend den o. g. Funktionen empfiehlt es sich, die rhetorische Struktur des Literatur-
überblicks in drei großen Argumentationsblöcken zu entfalten. Im ersten Block geht es um
die Markierung eines Themenfeldes (die Bedeutung des Themas in der fremdsprachendidakti-
schen Forschung hervorheben, Hintergrundinformationen liefern, Definitionen von Begriffen
vornehmen, einen Überblick über vorhandenes Wissen und bisherige Forschungen liefern).
Der zweite Block fokussiert Forschungslücken (formulieren, was nicht gesehen, berücksich-
tigt, erörtert wurde, was bisher fehlt, Fragen formulieren und Probleme benennen, zeigen
welche Traditionen aufgenommen oder fortgesetzt werden müssen). Der dritte Block schließ-
lich liefert die Argumente dafür, wie die geplante Forschungsarbeit die Lücke besetzen wird
und leitet damit über zur detaillierten Ankündigung des eigenen Projekts (eine Gegenposition
zur Forschungslage beziehen, sich abgrenzen, die eigene Position verdeutlichen). Hier könnte
auch der Ort sein, an dem methodische Fragen bereits angesprochen werden (Literaturüber-
blick 2). In der Regel findet der Literaturüberblick 2 jedoch dort seinen Platz, wo das Design
und die Forschungsverfahren erörtert werden.5
Um sich mit der rhetorischen Struktur des Literaturüberblicks und seinem Aufbau ver-
traut zu machen, lohnt es sich für Forschende, unterschiedliche Textbeispiele, etwa in den
Referenzarbeiten, zu rezipieren. Beispiele zur Anlage des Literaturüberblicks finden sich auch
bei Bitchener (2010) und O’Leary (2014). Für das Abfassen des Literaturüberblicks zitieren
Nunan und Bailey (2009) mit Bezug auf Wiersma (2008) acht Merkpunkte, die eine gute
Orientierung bieten können. Sie sollen deshalb auch diesen Abschnitt abschließen:
4 Beispiele für Verfahren der Systematisierung der Ergebnisse der Literaturrecherche finden sich u. a. in:
Bitchener (2010: 59–67) und O’Leary (2014: 85–104). Anregungen zur Textzusammenstellung liefert
auch das Kapitel 5.2.2.
5 Die rhetorische Struktur des Literaturüberblicks ist von der anglo-amerikanischen Forschung zum akade-
mischen Schreiben mit Bezug auf das CARS-Modell (Creating a Research Space) differenziert untersucht
worden, siehe z. B. Swales 1990, Kwan 2006. Dort werden auch Beispiele für Argumentationsverläufe
gegeben.
viewed. Some results have more bearing on the problem than others and this should be
indicated.
8. Provide closure for the section. Do not terminate with comments from the final study re-
viewed. Provide a summary and pull together the most important results. (Nunan/Bailey
2009: 35–36).
Bei der Beratung von Qualifikationsarbeiten taucht immer wieder die Frage auf, wann der
Literaturüberblick am besten zu verfassen sei. Auch wenn die generelle Antwort lautet, dass
es sich um einen fortlaufenden Prozess handelt, der nicht zuletzt vom Verlauf der Arbeit
abhängt, ist es dennoch sinnvoll, nach Forschungsverfahren zu unterscheiden, die eher linear
vorgehen (hypothesenprüfende Vorgehensweise) und solchen, die eher zyklisch vorgehen
(hermeneutische, historische oder empirisch-interpretative Vorgehensweise). Da erstere Ver-
fahren theoretisch präzise bestimmte Konstrukte und klar definierte Schrittabfolgen für Sam-
plingentscheidungen sowie angestrebte Messungen voraussetzen, ist es durchaus möglich
und sinnvoll, bereits vor der Datenerhebung und Auswertung den Literaturüberblick (1 und
2) zu verfassen. Dieser bedarf dann immer noch einer abschließenden Revision, hat jedoch
weitgehend schon seine Endgestalt gefunden.
Deutlich anders verhält es sich mit der zweiten Gruppe von Vorgehensweisen. Diese brin-
gen in der Regel eine wiederholte Beschäftigung mit Daten, Texten und Dokumenten mit
sich, die nicht selten zur Modifikation der Forschungsfrage und zur Befassung mit neuen
Theorien führt. Zunächst nicht geplante Recherchen und Lektüreprozesse werden ausgelöst
und verändern so den Literaturüberblick. Auch im zweiten Fall ist trotzdem anzuraten, vor
der Befassung mit Daten, Texten und Dokumenten den schriftlichen Entwurf des Literatur-
überblicks (1 und 2) zu versuchen, wohl wissend, dass je nach dem Verlauf des Forschungs-
Zusammenfassung der Erträge), damit der ‚rote Faden‘ der Argumentation klar in Erschei-
nung tritt.
›› Literatur
Bitchener, John (2010). Writing an Applied Linguistics Thesis or Dissertation. A Guide to Presenting
Empirical Research. Houndmills, Basingstoke: Palgrave Macmillan.
Burwitz-Melzer, Eva/Königs, Frank/Riemer, Claudia (Hg.) (2015). Lernen an allen Orten. Die Rolle der
Lernorte beim Lehren und Lernen von Fremdsprachen. Tübingen: Narr.
Burwitz-Melzer, Eva/Mehlhorn, Grit/Riemer, Claudia/Bausch, Karl-Richard/Krumm, Hans-Jürgen (Hg.)
(2016). Handbuch Fremdsprachenunterricht. 6. Auflage. Tübingen: Francke.
Byram, Michael/Hu, Adelheid (Hg.) (2013). Routledge Encyclopedia of Language Teaching and Lear-
ning. 2. Auflage. London: Routledge.
Cohen, Louis/Manion, Lawrence/Morrison, Keith (2011). Research Methods in Education. 7. Auflage.
London: Routledge.
Dörnyei, Zoltan (2007). Research Methods in Applied Linguistics. Quantitative, Qualitative and Mixed
Methodologies. Oxford: Oxford University Press.
Friebertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.) (2010). Handbuch Qualitative For-
schungsmethoden in der Erziehungswissenschaft. 3. Auflage. Weinheim: Juventa.
Hallet, Wolfgang/Königs, Frank (Hg.) (2010). Handbuch Fremdsprachendidaktik. Seelze-Velber: Klett
Kallmeyer.
Hinkel, Eli (Hg.) (2005). Handbook of Research in Second Language Teaching and Learning. Volume I.
London: Lawrence Erlbaum.
Hinkel, Eli (Hg.) (2011). Handbook of Research in Second Language Teaching and Learning. Volume II.
London: Routledge.
Krumm, Hans-Jürgen et al. (Hg.) (2011). Deutsch als Fremd- und Zweitsprache. Ein Internationales
Handbuch. Berlin: De Gruyter.
Kwan, Becky (2006). The schematic structure of literature reviews in doctoral theses of Applied Lin-
guistics. English for Specific Purposes 25, 30–55.
Long, Michael/Doughty, Catherine (Hg.) (2009). The Handbook of Language Teaching. Chichester, U. K.:
Wiley-Blackwell.
Müller-Hartmann, Andreas/Schocker-v. Ditfurth, Marita (Hg.) (2001). Qualitative Forschung im Bereich
Fremdsprachen lehren und lernen. Tübingen: Narr.
Nunan, David/Bailey, Kathleen (2009). Exploring Second Language Classroom Research. A Comprehen-
sive Guide. Boston: Heinle Cengage Learning.
O’Leary, Zina (2014). Doing Your Research Project. 2. Auflage. Los Angeles: SAGE.
Palacio Martínez, Ignacio M./Alonso Alonso, María Rosa/Cal Varela, Mario/López Rúa, Paula/Varela
Pérez, José Ramón (2007). Diccionario de enseňanza y aprendizaje de languas. Madrid: En-Clave-
ELE.
Wiersma, William. (2008). Research Methods in Education. An Introduction. 9. Auflage. Boston: Pear-
son.
Surkamp, Carola (Hg.) (2010). Metzler Lexikon Fremdsprachendidaktik. Ansätze. Methoden. Grund-
begriffe. Stuttgart: Metzler.
Swales, John (1990). Genre Analysis: English in Academic Research Settings. Cambridge: Cambridge
University Press.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Karen Schramm
Eine besonders kreative Phase des Forschungsprozesses betrifft die Gestaltung des Designs
der Gesamtuntersuchung. Voraussetzung für diesbezügliche Überlegungen ist eine klar for-
mulierte, in umfassender Lektüre zum Forschungsstand präzisierte und theoretisch verortete
Forschungsfrage. Erst auf dieser Grundlage kann die Gestaltung beginnen, die selbstver-
ständlich auch bei historischen und theoretischen Studien von großer Bedeutung ist, um
komplexe Fragestellungen systematisch untersuchen zu können. Die Verwendung des Begriffs
Design ist jedoch auf empirische Arbeiten bezogen und die Gestaltung solcher Designs soll
in diesem Kapitel genauer beleuchtet werden.
Wie auch bei der Konzeption von historischen und theoretischen Arbeiten stellt es dabei
eine besondere Herausforderung dar, die passende Balance zu finden zwischen der Ambition,
forscherische Höchstleistungen zu erbringen und neue Erkenntnisse über möglichst umfas-
sende Zusammenhänge zu erarbeiten einerseits, und der Begrenztheit zeitlicher und anderer
Ressourcen, die für das Forschungsprojekt zur Verfügung stehen, andererseits. Die Gestaltung
des Designs ist daher neben dem gedanklichen Spiel mit den verschiedenen Möglichkeiten
auch ein Prozess, der eine weitsichtige Abschätzung des Arbeitsaufwands und eine kühle
Reduktion unrealistischer, weil überfrachteter Arbeitsvorhaben erfordert:
The setting up of the research is a balancing act, for it requires the harmonizing of planned possi-
bilities with workable, coherent practice, i.e. the resolution of the difference between what could
be done/what one would like to do and what will actually work/what one can actually do, for, at
the end of the day, research has to work. (Cohen/Marion/Morrison 2007: 78; Hervorhebungen im
Original)
Mit der zumindest vorläufigen Bestimmung der Forschungsfrage hat der bzw. die Forscher_in
für sich geklärt, welche Untersuchungsgegenstände oder theoretischen Konstrukte fokussiert
werden sollen. Auf dieser Grundlage kann er oder sie für die Design-Gestaltung erste Über-
legungen dahingehend anstellen, welche gegenstandsadäquaten, aussagekräftigen Daten
dazu erfasst oder erhoben werden können. Zu dieser Frage sollte man sich einführend in
einschlägigen Forschungshandbüchern informieren, um die theoretischen Hintergründe der
gewählten Verfahren und mögliche Alternativen kennen zu lernen.
Der weitere Weg der Design-Gestaltung fällt je nach Forschungsparadigma sehr unter-
schiedlich aus. Wie Abbildung 1 aus Lamnek (2010: 120) zeigt, gehen quantitative bzw. ana-
lytisch-nomologische Studien von Theorien und Hypothesen aus (vgl. Kapitel 3.3). Die theo-
retischen Begriffe, die mit der Hypothese fokussiert werden, sind bei solchen Studien mithilfe
von Indikatoren zu operationalisieren. Den Begriff der Operationalisierung definiert Flick
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
(2014: 311) als „Maßnahme zur empirischen Erfassung von Merkmalsauspägungen. Dabei
werden ein Datenerhebungsverfahren und Messoperationen festgelegt.“ Cohen/Manion/
Morrison (2007: 81) beschreiben diesen Prozess auch als Übersetzen oder Herunterbrechen
allgemeiner Ziele in immer konkretere Elemente:
The process of operationalization is critical for effective research. Operationalization means speci-
fying a set of operations or behaviours that can be measured, addressed or manipulated. What is
required here is translating a very general research aim or purpose into specific, concrete questions
to which specific, concrete answers can be given. The process moves from the general to the par-
ticular, from the abstract to the concrete. Thus the researcher breaks down each general research
purpose or general aim into more specific research purposes and constituent elements, continuing
the process until specific, concrete questions have been reached to which specific answers can be
provided. (Cohen/Manion/Morrison 2007: 81; Hervorhebung im Original)
Bei der Operationalisierung ist der Frage nach der Inhalts- und Konstruktvalidität besondere
Aufmerksamkeit zu schenken, d. h. danach, ob „das Messinstrument oder der Test den zu un-
tersuchenden Gegenstand erschöpfend erfasst“ (Flick 2014: 266) und „inwieweit das von einer
Methode erfasste Konstrukt mit möglichst vielen anderen Variablen in theoretisch begründ-
baren Zusammenhängen steht und hieraus Hypothesen ableitbar sind, die einer empirischen
Prüfung standhalten“ (Flick 2014: 267; s. auch Kapitel 2).
Ausgangspunkt für die Design-Gestaltung im Rahmen qualitativer Forschung bzw. des ex-
plorativ-interpretativen Paradigmas (vgl. Kapitel 3.3) sind dagegen die soziale Realität und die
daraus entwickelten Alltagsbegriffe (s. Abb. 1). Die entsprechende Design-Entwicklung beginnt
deshalb oft mit Explorationen des Feldes und einer ersten Intuition, welche Arten von Daten für
den Untersuchungszweck geeignet sein könnten. Diese ergibt sich in der Regel aus vorliegenden
Forschungsberichten zum fokussierten Themenfeld, in denen Erfahrungen mit den eingesetzten
Verfahren von anderen Forschenden thematisiert und Gesamtdesigns kritisch reflektiert wer-
den. Insofern ist zum Zeitpunkt erster Design-Gestaltungsversuche eine erneute Rezeption von
Vorgängerstudien, die in methodologisch-methodischer Hinsicht Inspiration oder zumindest
Orientierung bieten, unter eben dieser spezifischen Perspektive empfehlenswert.
on. Welche Personen, Zeitpunkte und Orte sind für die Datengewinnung besonders geeignet?
Hier kommen Fragen des Sampling (s. Kapitel 4.3) und der Forschungsethik (s. Kapitel 4.6) ins
Spiel. Weitergehend ist zu überlegen, mit welchen Aufbereitungs- und Auswertungsmethoden
diese Daten bearbeitet werden sollen (s. Kapitel 5.3). Weiß man beispielsweise um das Tran-
skriptionsverhältnis für ein Interview von 1:5 oder 1:10 oder für eine gesprächsanalytische
Transkription von 1:60 oder 1:80, dann lässt sich der Aufwand in Arbeitsstunden allein für die
Aufbereitung schon bei der Design-Entwicklung überschlagen. Entsprechende Überlegungen
sind auch zur Eingabe statistischer Daten und zum Zeitaufwand von Auswertungen im Vor-
feld anzustellen. Sie können zur Einsicht in die Notwendigkeit einer Reduktion des jeweiligen
Korpus führen. So werden gewissermaßen rückwärtsgerichtete Entscheidungen notwendig,
bei denen Überlegungen zur Aufbereitung und Analyse auf die Größe und Zusammensetzung
des Datenkorpus zurückverweisen und bei denen Überlegungen zur Gewinnung von Daten
Einsicht in die Notwendigkeit zur Veränderung der Forschungsfrage mit sich bringen. Auch
der umgekehrte Fall vorwärtsgerichteter Entscheidungen tritt natürlich auf: Nach einem ers-
ten Design-Entwurf wird deutlich, dass sich auf dieser Grundlage die Forschungsfrage noch
nicht hinreichend beantworten lässt und dass weitere Daten, eine Methodentriangulation
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
verzichtbar für die geplante Studie erscheinen. Der Weg zur Einsicht, dass die eigene
Untersuchung nur einen sehr kleinen Ausschnitt der Realität erforschen kann, ist im
ersten Moment nicht selten von Gefühlen der Enttäuschung oder der Belanglosigkeit
des eigenen Projekts begleitet. Je mehr es jedoch gelingt, den Blick auch bereits über die
Datengewinnung hinaus auf die arbeitsaufwändigen Aufbereitungs- und Auswertungs-
verfahren zu lenken, umso höher ist die Wahrscheinlichkeit, dass die Fokussierung auf
vermeintlich geringfügige Realitätsausschnitte auch als befreiend erlebt wird.
Dass ein wohldurchdachtes Design mit mehreren Variablen durchaus zu bewältigen ist,
zeigt die Referenzarbeit von Biebricher (2008): Sie illustriert den Fall einer Dissertation,
die erfolgreich mit einer sehr hohen Zahl an sowohl quantitativen Daten (C-Test, Leseteil
des Preliminary English Test, Fragebogen) als auch qualitativen Daten (Beobachtung,
Fragebogen, nicht-standardisierte Leseprobe, Leitfadeninterview und impulsgestützte
Stellungnahmen) arbeitet.
(b) Neben der Herausforderung, die zu berücksichtigenden theoretischen Konstrukte aus-
zuwählen, gilt es im Design-Gestaltungsprozess auch kontinuierlich die Überlegungen
zum Datenkorpus zu verfeinern, das zu jeweils einem theoretischen Konstrukt bzw. Un-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
tersuchungsgegenstand erhoben wird. Auch stellt sich die Frage, ob jeweils mehrere Erhe-
bungsmethoden zum Einsatz kommen sollen (zur Methodentriangulation s. Kapitel 4.4).
Als Gegenpol zu Biebrichers (2008) Arbeit kann die Referenzarbeit von Arras (2007) als
Beispiel dafür herangezogen werden, dass in der Hauptstudie ein sehr begrenztes Inventar
an Datentypen, in diesem Fall Daten Lauten Denkens und retrospektive Daten, verwendet
wird. Zwar nutzt die Verfasserin in zwei Vorstudien auch Fragebogenerhebungen und
problemzentrierte Interviews, um die Forschungsfragen genauer fassen zu können, doch
in ihrer Hauptuntersuchung nimmt sie eine rigorose Begrenzung der Datentypen vor
und ermöglicht so eine tiefgehende Auseinandersetzung mit entsprechenden qualitativen
Analysestrategien.
(c) Aus einer Kernidee für ein einfaches empirisches Design kann im Prozess des gestalte-
rischen Nachdenkens auch ein komplexeres Design entstehen, in dem in zielführender
Weise mehrere Teilstudien miteinander kombiniert werden, die parallel oder sequenziell
aufeinander bezogen sind (s. Kapitel 3.3). Bei sequentiellen Designs sollten die Gewich-
tung und die jeweilige Funktion der Teilstudien im Zusammenspiel genau geklärt werden.
Im Fall von parallelen Studien ist die Verschränkung der Teilstudien miteinander im Detail
zu bedenken; besonderes Augenmerk sollte dabei der Frage gelten, in welchen Phasen
des Forschungsprozesses Zusammenhänge zwischen verschiedenen Methoden hergestellt
werden (s. zu Fragen des mixing von Methoden einführend Kuckartz 2014).
Grundsätzlich erscheint es hilfreich für gestalterische Überlegungen, für Beratungs-
gespräche und nicht zuletzt auch für Leser_innen, wenn Forscher_innen ihr Design auch
graphisch darstellen. Eine solche Darstellung zwingt naturgemäß zur Begrenzung auf
das Wesentliche; wenn dabei die Variablen und die jeweilige Erhebungsmethode incl.
Korpusgröße explizit angegeben und die Zusammenhänge zu Aufbereitungs- und die
Auswertungsmethoden präzise abgebildet werden, lassen sich mögliche Design-Probleme
wie ein fehlender Zusammenhalt zwischen einzelnen Verfahren, Gestaltungslücken oder
überdimensionierte Korpusgrößen oft leichter erkennen als in Fließtexten. Eine weitere
wichtige Möglichkeit, die Gestaltung des Designs voranzutreiben, stellen Pilotierungen
6.4.3 Fazit
Nach einem ersten vorläufigen Design-Entwurf, der häufig zur Verfeinerungsarbeit bezüglich
der Forschungsfrage zurückführt, werden im weiteren Gestaltungsprozess detaillierte Revi-
sions- und Präzisierungsprozesse erforderlich. Die Vorstellung, ein Design könne einfach so
aus dem Ärmel geschüttelt werden, wäre illusorisch; es muss vielmehr in zahlreichen Runden
immer wieder umstrukturiert und immer weiter verfeinert werden. Deshalb erscheint es
wichtig, sich in Vorbereitung auf diese Phase der Design-Gestaltung klar zu machen, dass es
sich um einen anspruchsvollen kreativen Prozess handelt, der gründliches Nachdenken, gute
Beratung von klug ausgewählten Mentor_innen mit Erfahrung in den relevanten Bereichen,
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Handlungsleitend sollten im Prozess der Design-Gestaltung zum einen die Frage nach der
Forschungsökonomie sein – also danach, ob das Design eine effiziente Beantwortung der
Forschungsfrage erlaubt – und zum anderen die Frage nach der Forschungsökologie – also
danach, ob das Design nachhaltig ist und sparsam mit Ressourcen umgeht.
›› Literatur
Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der
Beurteilung schriftlicher Leistungen in der Fremdsprache am Beispiel der Prüfung „Test Deutsch als
Fremdsprache“ (TestDaF). Tübingen: Narr. [Referenzarbeit, s. Kapitel 7]
Biebricher, Christine (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens.
Tübingen: Narr. [Referenzarbeit, s. Kapitel 7]
Cohen, Louis/Manion, Lawrence/Morrison, Keith (2007). Research Methods in Education. London:
Routledge.
Flick, Uwe (2014). Sozialforschung. Methoden und Anwendungen. Ein Überblick für die BA-Studien-
gänge. 2. Auflage. Reinbek bei Hamburg: Rowohlt Taschenbuchverlag.
Kuckartz, Udo (2014). Mixed Methods. Methodologie, Forschungsdesigns und Analyseverfahren. Wies-
baden: Springer VS.
Lamnek, Siegfried (2010). Qualitative Sozialforschung. 5. überarbeitete Auflage. Weinheim: Beltz.
Özkul, Senem (2011). Berufsziel Englischlehrer/in. München: Langenscheidt. [Referenzarbeit, s. Ka-
pitel 7]
Settinieri, Julia (2014). Planung einer empirischen Studie. In: Settinieri, Julia/Demirkaya, Sevilen/Feld-
meier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für
Deutsch als Fremd- und Zweitsprache. Eine Einführung. Paderborn: Ferdinand Schöningh, 57–71.
Tassinari, Maria G. (2010). Autonomes Fremdsprachenlernen: Komponenten, Kompetenzen, Strategien.
Frankfurt/Main: Lang. [Referenzarbeit, s. Kapitel 7]
Karen Schramm
Ein neues Forschungsprojekt zu beginnen, bedeutet oft nicht nur, sich auf ein neues the-
matisches Abenteuer einzulassen, sondern sehr oft ist es auch so, dass das neue Projekt in
seinen Dimensionen die bisherigen Forschungserfahrungen der Beteiligten übersteigt. Bei
Qualifikationsarbeiten ist dies mit der Steigerung der Anforderungen von einer BA- über
eine MA-Arbeit bis hin zu einer Dissertation oder gar Habilitation systematisch so angelegt.
Aber auch bei anderen, beispielsweise kooperativen Forschungsprojekten ist es kein seltener
Fall, dass Fremdsprachendidaktiker_innen in Bezug auf die Komplexität der neuen Studie
über ihre bisherigen Forschungserfahrungen hinausgehen und sich in diesem Prozess – wie
auch Nachwuchswissenschaftler_innen im Qualifikationsprozess – weiterentwickeln. Somit
ist der Beginn eines neuen Projekts zumeist nicht nur in thematischer, sondern auch in orga-
nisatorischer Hinsicht das Sich-Vorwagen in ein unbekanntes Terrain.
Dass dabei so manche Überraschung lauert, hat Riemer (2014: 17) mit dem Bild der For-
schungspraxis als „anstrengende[r] Trekkingtour“ verdeutlicht. Unter Bezugnahme auf Ale-
mann (1984) spricht sie von schwierigen Wegabschnitten wie dem „Gipfel der Konfusion“,
dem „Pass des Geldes“, dem „Wald der Müdigkeit“ oder dem „Sumpf der verlorenen Ma-
nuskripte“ (Riemer 2014: 18–19). Die Metapher der Trekking-Tour veranschaulicht einerseits,
dass nicht alle Wegstrecken im Detail vorausgesehen werden können, und macht andererseits
auch deutlich, dass gerade deshalb eine gute Vorbereitung notwendig ist, um auf dieser an-
strengenden Tour den unweigerlichen Überraschungen und unerwarteten Anforderungen
erfolgreich begegnen zu können.
Somit sind Kompetenzen im Projektmanagement und insbesondere in der Zeit- und Ar-
beitsplanung hilfreich. An vielen Universitäten wird gefordert, bereits im Exposé eine erste
Planung der Arbeitsschritte und des jeweiligen Zeitbedarfs vorzunehmen. Dies kann bei-
spielsweise in Form eines Flowcharts geschehen. Die Herausforderung liegt dabei gerade
darin, die naturgemäß zunächst noch diffusen Vorstellungen über den Arbeitsprozess best-
möglich zu konkretisieren und in eine – praktisch realisierbare – lineare Reihenfolge zu
bringen. Erst die explizite schriftliche Planung erlaubt es in vielen Fällen, auch Details recht-
zeitig zu berücksichtigen, beispielsweise dass die Datenerhebung an einer Schule nur zu
bestimmtem Phasen des Schuljahrs realistisch erscheint oder dass eine Schulung zu einer
relevanten Analyse-Software nur zu bestimmten Zeitpunkten angeboten wird. Gleichzeitig
ist natürlich zu betonen, dass die Planung immer wieder den (teils unerwarteten) Realitäten
anzupassen ist – deshalb erscheint eine Feinplanung für die nächsten Wochen zusätzlich zu
einer Grobplanung für die nächsten Monate geeignet. Der Wunsch nach einer solchen Struk-
tur in Form von Arbeits- und Zeitplänen ist bei Doktorand_innen je nach Persönlichkeitstyp
unterschiedlich ausgeprägt: Während einige die Freiheit genießen, auf der Trekking-Tour
nach Gespür spontane Entscheidungen über den Reiseverlauf zu treffen, gewinnen andere
Sicherheit aus einem vorstrukturierten Pfad, der ihnen ein zielorientiertes Voranschreiten
ermöglicht. Über die diesbezüglichen Wünsche nachzudenken und mit der/dem Betreuer_in
darüber zu sprechen, kann eventueller Frustration auf der einen oder anderen Seite vor-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
beugen.
In diesem Planungsprozess empfiehlt es sich, Meilensteine zu definieren; dies sind konkrete
Arbeitsprodukte wie beispielsweise der Erstentwurf eines Kapitels, das Transkriptkorpus oder
der Anhang der Dissertation. Im Falle einer gelungenen Planung sind die Meilensteine die
Fixpunkte, die bei der Trekking-Tour als nächstes Etappenziel angepeilt werden. Das bedeutet
auch, dass nicht das bleierne Gewicht der gesamten fertigzustellenden Dissertation auf den
Schultern zu tragen ist, sondern pro Etappe von beispielsweise zwei oder drei Monaten ‚nur‘
das aktuelle Arbeitspaket – dies kann sehr erleichternd sein und Gefühlen von Überforderung
oder Mutlosigkeit entgegenwirken.
Eine solche Planung ist auch eine wichtige Grundlage für Betreuungsgespräche, in denen
Betreuer_innen aufgrund ihrer Forschungserfahrung bereits manches Problem voraussehen
und rechtzeitig im Vorfeld ansprechen können (vgl. auch Kapitel 6.8). Dazu gehören u. a.
Fragen der Reihenfolge (z. B. Lässt sich das Theoriekapitel tatsächlich schon schreiben, bevor
das Forschungsdesign steht?), der zeitlichen Planung (Dauert es tatsächlich nur vier Wochen,
die Genehmigung der Schulbehörde einzuholen?) oder des Arbeitsaufwands (Ist es realistisch,
ein Videokorpus von 15 Unterrichtsstunden in zwei Monaten zu transkribieren?). In manchen
Fällen können Betreuer_innen auch Hinweise zu den in der Planung noch nicht berück-
sichtigten Arbeitsphasen geben. Beispielsweise wird die Notwendigkeit zur Pilotierung, zur
kommunikativen Validierung oder zur Erstellung eines Anhangs, der Transparenz über die
Analyse schafft, in den ersten Schritten zur Planung eines Dissertationsprojekts oft noch
nicht erkannt. Auch das Einholen von Feedback zu Kapitelentwürfen und die entsprechenden
Revisionsprozesse bleiben von Doktorand_innen bei den ersten Planungen häufig unberück-
sichtigt – ebenso wie die aufwändige Gesamtformatierung.
Anzumerken ist in Bezug auf die Zeitplanung, dass sich historische, theoretische sowie
empirische Forschungsarbeiten (und hier wiederum hypothesengenerierende und hypothe-
senüberprüfende) deutlich in der zeitlichen Gewichtung der verschiedenen Arbeitsphasen
unterscheiden. Bei historischen Arbeiten benötigt vor allem die Suche nach den Quellen
erfahrungsgemäß viel Zeit, da sich deren Fundorte erst im Verlauf der Recherche erschließen.
Selbstverständlich sind auch die besten Planungen dazu da, angesichts neuer Einsichten und
praktischer Erfordernisse umgestoßen zu werden. Dies sollte wohlüberlegt und zielorientiert
geschehen. Keinesfalls darf der Steuerungsprozess ein hilfloses Dahintreiben im Strom der
vielen Möglichkeiten oder der vielen wohlgemeinten Ratschläge von unterschiedlichen Seiten
sein.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Damit ist das Spannungsfeld von Fremd- und Selbststeuerung bei einem komplexen Ar-
beitsprozess wie der Erstellung einer Dissertation angesprochen. Wichtig erscheint, dass der
oder die Doktorand_in auf der Trekkingtour den Kompass selbst in der Hand hat und durch
kontinuierliche Orientierung den Weg zum Ziel eigenständig findet. Um dabei zielführende
Entscheidungen treffen zu können, ist die Einbindung in eine community of practice von
Forschenden von höchster Bedeutung. Der Austausch mit erfahreneren ‚Doktorgeschwis-
tern‘ liefert wertvolle Anregungen über bereits bestandene (bzw. für den/die Noviz_in noch
zu bestehende Abenteuer). Gleichermaßen tragen die Denkanstöße, die man selbst als Dok-
torand_in den ‚Doktorgeschwistern‘ anbieten kann, zur eigenen Reflexion bei: Es ist kein
seltener Fall, dass man an den Projekten anderer, in die man emotional weniger involviert
ist, methodische Probleme klarer erkennt als am eigenen und daraus Nutzen für das eigene
Projekt zieht. Auch das Gespräch mit mehreren professoralen Berater_innen stellt den Zu-
gang zu einer Vielfalt von Erfahrungsperspektiven sicher und ist keinesfalls als ‚Verrat‘ an
der oder dem eigenen Betreuer_in zu begreifen. Entscheidend ist dabei, dass Beratung jeweils
als Denkanstoß oder als Anregung – nicht als Handlungsdirektive – verstanden wird. Dok-
torand_innen sollten Entscheidungen nicht aus Vertrauen in die Ratschläge anderer, sondern
auf der Grundlage einer klaren eigenständigen Orientierung und entsprechend gefestigter
Überzeugung treffen.
Zur Dokumentation und Reflexion möglicher Handlungsalternativen bietet sich ein For-
schertagebuch oder ein Logbuch an. Eine solche Dokumentation kann dabei helfen, regel-
mäßig auf einer Metaebene den eigenen Tourverlauf zu reflektieren, Bilanz zu ziehen und
die nächsten Etappen zu planen. Beispielsweise kann es an einem Punkt der Arbeit zu der
Entscheidung kommen, einen bereits erarbeiteten Themenbereich aus der Dissertation aus-
zugliedern und zu einem späteren Zeitpunkt einen Artikel darüber zu schreiben. Regelmäßig
Bilanz zu ziehen, ist auch Voraussetzung für das Erkennen des eigenen Fortschritts. Beispiels-
weise kann es die Motivation anfachen und die Konturen für die nächsten Arbeitsschritte
klarer erkennbar werden lassen, wenn man bereits geschriebene Kapitel ausdruckt oder die
fertiggestellten Teile in der Gliederung farbig markiert.
Dass es neben der klugen Steuerung durch gründliches Nachdenken auch einer guten Kon-
dition und eines gewissen sportlichen bzw. intellektuellen Ehrgeizes bedarf, ist vermutlich
selbstverständlich. Es wird bei Dissertationsprojekten kaum zu vermeiden sein, dass in den
verschiedenen Phasen eine hohe Arbeitsbelastung entsteht, die es nicht nur in kognitiver,
sondern auch in affektiver und sozialer Hinsicht zu bewältigen gilt. Der vertrauensvolle Aus-
tausch mit Peers über erfolgreiche Strategien zum Umgang mit diesen Herausforderungen ist
dabei hilfreich: Wie haben andere Doktorand_innen Motivationstiefs oder gar Verzweiflung
überwunden? Welche Maßnahmen haben sie ergriffen, um Abstand zu gewinnen und um
auf ihre Gesundheit zu achten? Wie haben sie sich selbst angefeuert? Welche Arbeiten haben
sie delegiert? Wie haben sie Partner, Familie und Freunde zu strategischen Verbündeten in
Sachen Dissertationsprojekt gemacht? Gerade der letzte Punkt erscheint für den erfolgreichen
Abschluss einer Dissertation von besonderer Bedeutung; die Unterstützung durch das soziale
Umfeld spielt eine nicht zu unterschätzende Rolle.
In den verschiedenen Phasen des Forschungsprozesses stellen sich hinsichtlich der De-
tailplanung und Steuerung teils charakteristische Herausforderungen. Bei der empirischen
Datenerhebung könnte eine solche Herausforderung beispielsweise darin bestehen, dass das
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Feld schwer zugänglich ist oder die hohen Ansprüche der Forscherin oder des Forschers nicht
mittragen kann – hier gilt es, sich nicht entmutigen zu lassen und Kompromisse zu schlie-
ßen, die als wichtige Forschungserfahrung auch in der Dissertation dokumentiert werden. In
vielen Fällen wird auch eine zeitliche Abhängigkeit der Datenerhebungen zu bedenken sein:
So wird in Bezug auf das videobasierte Laute Erinnern beispielsweise häufig postuliert, dass
es innerhalb von 24 Stunden geschehen solle. In Bezug auf problemzentrierte Interviews ist
zu bedenken, dass die entsprechenden Impulse für das Interview möglicherweise nicht nur
erhoben, sondern auch bereits transkribiert oder gar analysiert sein müssen, um ihre Funktion
zu erfüllen. Auch könnte es wichtig sein, die Erhebungen so zu planen, dass die Forschungs-
partner_innen sich darüber nicht austauschen können; zu diesem Zweck wären simultane
Erhebungen durch Forschungsassistent_innen eine Lösung.
Die Datenverwaltung ist bei großen Mengen von Dokumenten, Texten und Daten eine
nicht zu unterschätzende Herausforderung, der man nur durch akribische Sorgfalt im Er-
hebungsprozess und gute – heute in der Regel digitale – Ablagesysteme gerecht werden
kann. Sollen beispielsweise verschiedene Daten wie Videoaufnahmen und Lerner_innentexte
mittels eines Klassenspiegels zugeordnet werden, so ist das keine triviale Herausforderung,
die unmittelbar im Zuge der Erhebungen zu erledigen ist. Auch eine sichere Aufbewahrung
ist wichtig, um die in aufwändigen Arbeitsprozessen gewonnenen Dokumente, Texte und
Daten vor Kindern und neugierigen Haustieren, vor Feuer und Wasser und insbesondere vor
dem digitalen Verpuffen (versehentliches Löschen, fehlende Datensicherung bei gestohlenen
oder kaputten Laptops etc.) zu schützen.
Bei der Datenaufbereitung kann eine erfolgreiche Steuerung darin bestehen, sich eine
hochkonzentrierte Arbeit wie das Transkribieren aufzuteilen (beispielsweise nicht länger als
zwei Stunden am Stück), sich gute Ausrüstung zu besorgen (beispielsweise mit Einstellungen
für Wiederholungsschleifen zu arbeiten) oder sich eine Datenbank passend zum eigenen Pro-
jekt einzurichten. Sollten mehrere Personen an solchen Aufbereitungsprozessen beteiligt sein,
sind Schulungen einzuplanen, um die Einheitlichkeit sicherzustellen.
Die Analyse stellt bei interpretativen Auswertungen möglicherweise die höchsten Anfor-
derungen an die metakognitive Kontrolle und Steuerung des gesamten Prozesses. Die ver-
tiefte Beschäftigung mit Detailanalysen einerseits und die Suche nach einer Gesamtstrategie
für die Analyse andererseits kommen oft einem Balanceakt gleich. Hilfreich ist es in der Regel,
exemplarische Einzelanalysen im Rahmen eines Kolloquiums oder einer Arbeitsgruppe, die
idealerweise mit dem Projekt schon längere Zeit vertraut ist, vorzustellen. Die kritischen
Freunde werden mit ihren Nachfragen dazu beitragen, die Analyse auf der Mikroebene zu
schärfen und ihre Einbindung auf der Makroebene genauer zu fassen. Nicht nur, aber beson-
ders bei unerwarteten Befunden wird eine erneute Auseinandersetzung mit der Forschungs-
literatur notwendig. In der Regel ist nach der Analyse qualitativer Daten auch die Frage zu
stellen, wie die konkreten Befunde abstrahiert und modelliert werden können.
Bei der Erstellung des Schlusskapitels ist bei empirischen Projekten eine Rückbindung der
Ergebnisse an den Forschungsstand oder eine (oder mehrere) Theorie(n) gefordert. Wichtige
Fragen sind hier u. a.: Wie kann der Bogen zur Einleitung und zum Theoriekapitel geschlagen
werden? Welche zitierfähigen Passagen fassen hieb- und stichfest die eigenen Arbeitsergeb-
nisse zusammen? Welche Forschungsdesiderata ergeben sich daraus für zukünftige Unter-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
suchungen? Bei historischen und theoretischen Arbeiten geht es dagegen in der Regel um
einen Ausblick auf weiterhin offene oder neu entstandene Fragen.
Ist die Trekking-Tour zu einem glücklichen Abschluss gekommen, steht am Ende nicht nur
der fachliche Ertrag bzw. das eigene Buch, sondern der oder die Doktorand_in wird in der
Regel auch einen großen persönlichen Gewinn aus der Autonomie- und Selbstwirksamkeits-
erfahrung der abenteuerlichen Reise ziehen. Es steht zu erwarten, dass dieser persönliche
Gewinn an Mut, Veränderung anzugehen und Verantwortung zu übernehmen, auf der wei-
teren Reise des Lebens erkennbar werden wird.
›› Literatur
Alemann, Heine von (1984). Der Forschungsprozeß. Eine Einführung in die Praxis der empirischen
Sozialforschung. 2. Aufl. Stuttgart: Teubner.
Riemer, Claudia (2014). Forschungsmethodologie Deutsch als Fremd- und Zweitsprache. In: Settinieri,
Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empi-
rische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh, 15–31.
Michael K. Legutke
Nach der Gewinnung von Daten, Dokumenten oder Texten sowie deren Aufbereitung und
Analyse sieht sich der/die Forscher_in mit der Herausforderung konfrontiert, die gewonne-
nen Erkenntnisse und erarbeiteten Erträge so zu bündeln und darzustellen, dass sowohl das
Besondere der Studie in Erscheinung tritt, als auch die Fragen angesprochen werden, die offen
bleiben mussten oder die sich als Folge der Untersuchung neu stellen. Das folgende Kapitel
bietet einige Anregungen dazu, was beim Umgang mit dieser Herausforderung zu bedenken
ist, wenn die entsprechenden Teile der Forschungsarbeit abgefasst werden.
Auch wenn die Zusammenfassung und Diskussion der Erträge in Abhängigkeit von den
Forschungstraditionen (historisch, theoretisch, empirisch, vgl. Kapitel 3) sowie dem For-
schungsansatz und den gewählten Vorgehensweisen (quantitativ, qualitativ, mixed methods)
in zum Teil unterschiedlicher Form erfolgen wird, wie noch zu erläutern ist, sollte sich der/die
Forscher_in in jedem Fall an folgenden Zielen orientieren. Dabei kann es durchaus sinnvoll
sein, bei der Darstellung inhaltliche und methodische Aspekte getrennt zu erörtern:
• Die Zusammenfassung und Diskussion geschieht mit klarem Bezug zu der Forschungs-
frage/ den Forschungsfragen und schlägt argumentativ die Brücke zum Forschungsstand
und Literaturüberblick (vgl. Kapitel 6.3).
• Die Erträge werden in die mit dem Forschungsstand erörterten theoretischen Zusammen-
hänge eingeordnet.
• Der Geltungsanspruch und die Reichweite der Erträge werden erörtert und offene Fragen
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
benannt. Damit wird deutlich, warum die Erträge der Studie ernst zu nehmen sind und
warum sie den Gütekriterien fremdsprachendidaktischer Forschung entsprechen.
• Die theoretische Bedeutung der Studie und mögliche Implikationen für praktisches Han-
deln werden verdeutlicht.
• Perspektiven für weitere Forschungen, die sich aus den Erträgen herleiten lassen, werden
skizziert.
• Das gesamte Design wird ebenso wie einzelne Forschungsentscheidungen und Verfahren
auf der Basis der Erträge kritisch reflektiert.
• Besonders gewinnbringende ebenso wie problematische Ereignisse im Forschungsprozess
werden, sofern vorhanden, benannt und diskutiert.
• Der Text ist leserfreundlich formuliert, sprachlich zugänglich und nachvollziehbar. Er trägt
mit dieser Qualität der sozialen Verpflichtung von Forschung Rechnung – ist es doch ein
Bestimmungsmerkmal von Forschung, dass sie wahrgenommen und diskutiert wird. Die
sprachlich-argumentative Qualität der Zusammenfassung und Diskussion schaffen dafür
eine wichtige Voraussetzung.
• In mehreren Handbüchern findet sich der Hinweis, der/die Forscher_in solle versuchen,
die Zusammenfassung und Diskussion der Ergebnisse als Geschichte zu konzeptualisieren:
„Your findings need to tell a story related to your aims, objectives and research questions“
(O’Leary 2014: 288; vgl. auch Dörnyei 2007: 292–93). Damit ist nicht gemeint, der/die
Forscher_in solle versuchen, den Gang der Arbeit chronologisch nachzuerzählen. Die An-
regung ist vielmehr metaphorisch zu verstehen, nämlich als Hinweis, darüber nachzuden-
ken, wie die Darstellung der Erträge und ihrer Diskussion anschaulich gestaltet werden
kann. Eine solche Empfehlung mag sich für historische und empirische Forschungen eher
realisieren lassen als für theoretisch-konzeptuelle Arbeiten; als generelle Aufforderung,
sich um Leserbezogenenheit und Lebendigkeit der Darstelllung zu bemühen, sollte sie
auf jeden Fall ernst genommen werden. Welche Möglichkeiten der Realisierung einzelne
Forscher_innen gewählt haben, zeigen exemplarisch die Referenzarbeiten im Kapitel 7
dieses Handbuchs.
1 Quantitative Forschungsarbeiten
Für quantitativ arbeitende Forscher_innen stellt sich zunächst die grundsätzliche Frage, ob
die Präsentation und die Diskussion der Ergebnisse verschränkt oder in getrennten Kapiteln
erfolgen soll. Für beide Varianten kann es gute Gründe geben. Eine verschränkte Darstellung
bietet einerseits den Vorteil, dass dadurch eine fortlaufende Argumentation entfaltet und
kontinuierlich Theoriebezüge hergestellt werden können. Diese Art der Darstellung kann es
dem/der Leser_in erleichtern, der Argumentation, die sich ja auf Messergebnisse stützt, zu
folgen; sie wäre dann leserfreundlicher. Sie eignet sich sicher besonders bei kürzeren For-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
6 Vgl. z. B. Forschungsbeiträge in der Zeitschrift TESOL Quarterly. Auch in der deutschsprachigen Zeitschrift
für Fremdsprachenforschung zeigt sich bei der Darstellung quantitativer Forschung die Tendenz zur Zwei-
teilung.
are clear. Any graphs and tables you present should ease the task for the reader. So while you need
to include adequate information, you do not want to go into information overload. (O’Leary 2014:
288).
Gezielt eingesetzte Graphiken, Kurven und Tabellen können ohne Frage dazu beitragen, die
Darstellung insgesamt leserfreundlich und in ihrer inneren Logik gut nachvollziehbar zu
machen. Allerdings gilt es darauf zu achten, dass der begleitende Text nicht einfach die Aus-
sage der Graphen verbal verdoppelt, sondern vielmehr einordnet, ergänzt oder weiterführt.7
2 Qualitative Forschungsarbeiten
Während Forscher_innen bei der Abfassung quantitativer Forschungsarbeiten in der Regel
einem konventionalisierten Schema folgen, in dem Präsentation und Diskussion der Ergebnis-
se einen festen Platz in der Reihenfolge der Kapitel einnehmen, haben qualitativ arbeitende
Forscher_innen einen deutlich größeren Spielraum, der sich nicht zuletzt auf die hier zur De-
batte stehende Zusammenfassung und Diskussion der Ergebnisse bezieht. Dies hängt einmal
mit dem grundlegend explorativen und iterativen Vorgehen qualitativer Forschung zusam-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
men. Die Abfassung der Arbeit ist deshalb nicht so sehr die Herstellung eines Endprodukts,
sondern ein notwendiger Teil des Forschungsprozesses selbst, der den/die Forscher_in nicht
nur zur Entwicklung neuer Ideen und damit zur Reinterpretation der Daten antreibt, sondern
ihm/ihr häufig auch die Aufnahme neuer theoretischer Konzepte und die Auseinandersetzung
mit weiterer Literatur abverlangt. Zum anderen sind Zusammenfassung und Diskussion der
Ergebnisse von den zur Aufarbeitung und Interpretation der Daten herangezogenen Me-
thoden abhängig (siehe Kapitel 5.3.2 bis 5.3.6), die zwar unterschiedliche Verfahrensweisen
und Schrittabfolgen vorsehen, die andererseits aber auch für notwendige Anpassungen an
den Forschungsgegenstand offen sind. Da Forscher_innen aufgrund des iterativen Charakters
qualitativer Forschung oftmals nicht umhin können, Datensätze wiederholt zu analysieren,
fällt die Entscheidung manchmal schwer, die Datenanalyse zu beenden. Der Forschungspro-
zess muss aber zu Ende kommen; eine zusammenfasende Präsentation und Diskussion der
Ergebnisse sind gefordert. Aus der Beratungspraxis können die folgenden Empfehlungen
gegeben werden, die bei der Erstellung der Endfassung der Forschungsarbeit bedacht werden
sollten:8
Der/die Forscher_in muss ebenso wie bei quantitativen Arbeiten entscheiden, welche Er-
träge der Datenaufarbeitung und Analyse zur Beantwortung der Forschungsfrage(n) unbe-
dingt und prominent dargestellt werden müssen (Präsentationssampling). Die Beantwortung
dieser Frage ist vielfach von den Samplingentscheidungen abhängig, welche die Datenanalyse
(Datensampling) leiteten (siehe Kapitel 4.3). Das Präsentationssampling sollte auf jeden Fall
transparent gemacht werden.
Auch wenn es für manche qualitative Forschungsarbeit durchaus sinnvoll sein kann, die
Zusammenfassung der Ergebnisse und ihre Diskussion in zwei separaten Kapiteln vor-
zunehmen, legen es das explorative und iterative Vorgehen der Datenanalyse häufig nahe,
7 Hinweise für die Abfassung quantitativer Studien unter Berücksichtigung der Darstellung und Diskussi-
on der Erträge liefern u. a.: Dörnyei 2007: 277–289, O’Leary 2014: 274–289.
8 Ausführliche Darstellungen zur Abfassung qualitativer Studien, insbesondere zur Zusammenfassung und
Diskussion der Erträge bieten Dörnyei 2007: 290–300, Holliday 2007, Richards 2009: 191–207, Silverman
2000: 201–256.
die Darstellung der Erträge in Etappen und/oder thematisch gegliedert in Teilkapiteln unter
Berücksichtigung weiterer Forschungsliteratur vorzunehmen. Der/die Forscher_in muss dann
deutlich machen, wie sich die Einzelaspekte zu einem Ganzen zusammenfügen. Leser_innen
brauchen klare Orientierungspunkte, damit sie der Argumentation folgen können. Die Be-
reitstellung solcher Markierungen und damit die Herstellung von Kohärenz sind wichtige
Aufgaben der Forscher_innen. Da qualitative Studien in der Regel komplexe Phänomene
und ihre Bedeutungen aufdecken, indem sie verschiedene Perspektiven und Stimmen, die des
Forschers/der Forscherin eingeschlossen, berücksichtigen, besteht die Gefahr, dass für den/die
Leser_in die Übersicht verloren geht.
Qualitative Forschung hilft erschließen, was konkrete Menschen in spezifischen sozialen
und institutionellen Kontexten tun, wie sie interagieren, wie sie ihr Handeln bewerten und
verstehen, wenn sie Sprachen lernen oder lehren. Die Präsentation der Erträge einer Studie
kann deshalb erheblich an Lebendigkeit und Aussagekraft gewinnen, wenn sie Beteiligte
direkt durch Zitate aus den Daten zu Wort kommen lässt und wenn es gelingt, konkrete Zu-
sammenhänge anschaulich zu beschreiben. Immerhin ist die Argumentation in vielen Fällen
auf den ‚Stimmen‘ der Forschungspartner_innen aufgebaut. Es besteht allerdings auch die
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Gefahr, dass durch den Rekurs auf zu viele Daten die Darstellung zwar lebendig wird, aber in
der Deskription stecken bleibt, die Stimmen nicht mehr interpretierend und kommentierend
eingeordnet werden. Dörnyei fasst hier prägnant zusammen: „The challenge is to achieve a
thick description without the study being overly desriptive but rather analytical as a whole“
(Dönyei 2007: 297). Eine gelungene Zusammenfassung der Erträge wird sich folglich durch
eine Balance zwischen Partikularem und Allgemeinerem auszeichnen, dem Zitat aus den
Daten und dem interpretierenden und einordnenden Kommentar.
Ähnliches gilt in Bezug auf die Berücksichtigung des Kontextes, dem die Daten ent-
stammen. Nur indem die Darstellung der Erträge deren Kontexabhängigkeit transparent
macht, kann für den/die Leser_in deutlich werden, ob und wenn ja, in welcher Weise die
für den besonderen Kontext erarbeiteten Erträge über ihn hinaus Geltung beanspruchen
dürfen.
Nicht nur im vorliegenden Beitrag, sondern an mehreren Stellen dieses Handbuchs ist im
Zusammenhang der Erörterung qualitativer Verfahren der Datenaufarbeitung und Analyse
deutlich geworden, dass solche Forschungsverfahren zwei miteinader verschränkte Funk-
tionen haben. Zum einen helfen sie die Forschungsfragen zu beantworten, zum anderen
liegt es in ihrer Natur, neue Perspektiven auf den Forschungsstand zu eröffnen; bisherige
Forschung, die der Literaturbericht bündelte, muss möglicherweise neu bewertet werden.
Forschungen, die bisher nicht berücksichtig wurden, müssen u. U. in die Erörterung auf-
genommen werden. Forscher_innen sollten für solche reflexiven Prozesse offen und bereit
sein, im Lichte der Erträge den Literaturüberblick möglicherweise zu modifizieren und/ oder
zu erweitern (s. Kapitel 6.3).
Schließlich gilt es bei der Zusammenfassung und Diskussion der Erträge qualitativer Ar-
beiten zu prüfen, ob und wenn ja, in welcher Weise an dieser Stelle die Rolle des Forschers/
der Forscherin explizit thematisiert und kritisch reflektiert werden muss.
Die generellen Empfehlungen, die zu Beginn dieses Beitrags formuliert wurden, haben auch
für theoretische Arbeiten Gültigkeit. Im Kapitel 3.2 wird die Vielfalt theoretisch-konzeptueller
Forschung über die Darstellung unterschiedlicher Typen und Funktionen geordnet. Vielfalt
und Unterschiedlichkeit spiegeln sich auch in Inhalt und Form der Zusammenfassung und
Erörterung der Erträge. Gemeinsam ist theoretischen Arbeiten das Bestreben, auf der Basis
vorhandener einzelner Konzepte und/ oder umfassenderer Theorien etwas Neues zu ent-
wickeln. Damit dieses Neue sichtbar wird, müssen das Vorhandene gewichtet, Zusammen-
hänge verdeutlicht, Gemeinsamkeiten und Unterschiede herausgearbeitet und/ oder Teil-
aspekte neu kombiniert werden. Verbunden damit ist die Notwendigkeit, dem/der Leser_in
schlüssige, durch Belege fundierte Argumentationen anzubieten, die in plausiblen Schluss-
folgerungen münden. Eine solche Bündelung der Erträge kann durch die Fokussierung auf
einen repräsentativen (Teil-) Gegenstand der Studie erfolgen.
Zwei Beispiele sollen dies verdeutlichen. (1) In Arbeiten, in denen es um die Entwicklung
umfassender theoretischer Konzepte der Sprachvermittlung geht, könnte die Modellierung
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
eines spezifischen Konzepts den Fokus bilden, unter dem Erträge aus einer diachronen Re-
konstruktion und kritischen Erörterung affiner Konzepte auch anderer Disziplinen zusam-
mengführt und auf ihre Implikationen für die Praxis überprüft werden. Die Modellierung
bietet zudem die Möglichkeit, gegenwärtige Diskurse im Umfeld des bearbeiteten Konzepts
neu zu gewichten. (2) Bei Arbeiten, die der Analyse und Auswahl von Lehrmaterial gelten,
könnte eine zusammenfassende Erörterung der Erträge mit Hilfe eines theoretisch fundier-
ten Materialensembles aus Texten, Aufgaben und Übungen erfolgen, verknüpft mit einem
begründeten Plädoyer, dieses in einem empirisch ausgerichteten Folgeprojekt zu validie-
ren.
Das Entscheidende und zugleich Herausfordernde für Forscher_innen ist es, einen für den
jeweiligen Typus theoretischer Forschung angemessenen Fokus für die Zusammenfassung der
Erträge zu finden. Letzten Endes wird es vom Forschungsgegenstand, der Forschungsfrage
und dem Typus theoretisch-konzeptueller Forschung abhängen, wie Ergebnisse zu bündeln
und argumentativ abzusichern sind.
In der historisch arbeitenden Forschung besteht der bei weitem überwiegende Teil ei-
ner Studie aus der Darstellung der Ergebnisse. Auf der Basis der kritisch geprüften, nach
thematischen und systematischen Gesichtspunkten geordneten Quellen und deren mehr-
facher, gründlicher Analyse werden Prozesse, Phänomene, Diskurse oder andere historische
Gegebenheiten in einer wissenschaftlichen Forschungsarbeit dargestellt. Dabei müssen Ar-
gumentationslinien entworfen, durch Quellen und Informationen aus der Sekundärliteratur
(etwa zum historischen Kontext) belegt und miteinander verknüpft werden, damit die For-
schungsergebnisse sowohl in ihrem deskriptiven Charakter (diese Fakten etc. sind belegt;
„so war es“) als auch in ihrer Erklärung des Vergangenen sichtbar werden. Wichtig ist dabei
immer, zwischen der Aussage von Quellen und dem Referieren weiterer Literatur auf der
einen Seite und den eigenen auf den Quellen basierenden Schlussfolgerungen und Inter-
pretationen sprachlich klar zu unterscheiden. Durch häufiges Zitieren aus den Quellen wird
die Argumentation anschaulich; allerdings kann es erforderlich sein, sprachliche oder inhalt-
liche Besonderheiten der Quellen für geschichtliche Laien zu erläutern, da meistens weder
Während kürzere Forschungsbeiträge in der Regel eine Conclusio, einen Schlussteil, in die
Zusammenfassung und Diskussion der Erträge integrieren, werden größere Arbeiten wie
Dissertationschriften ein eigenes Schlusskapitel vorsehen, in dem einige der zu Anfang dieses
Beitrags genannten zentralen Punkte angesprochen bzw. ‚abgearbeitet‘ werden. Dazu ge-
hören die Frage nach der Reichweite der Studie und ihrer Grenzen; offene Fragen wären hier
zu nennen wie neue Fragen, die sich zukünftiger Forschung stellen. Bei aller notwendigen
kritischen Selbstreflexion sollte der/die Forscher_in sich allerdings nicht scheuen, selbst-
bewusst die eigene Forschungsleistung herauszustellen. Der/die Leser_in sollte mit einem po-
sitiven Eindruck, die Forschungsleistung betreffend, die Lektüre beenden. Welche konkreten
Wege einzelne Forscher_innen einschlagen, um die Zusmammenfassung und Diskussion der
Ergebnisse zu realisieren und wie sie integriert oder separat die Studie mit einer Conlusio
komplettieren, zeigen die Referenzarbeiten in Kapitel 7, die nicht zuletzt auch deshalb als
ermutigende Beispiele zur Lektüre empfohlen werden.
›› Literatur
Bitchener, John (2010). Writing an Applied Linguistics Thesis or Dissertation. A Guide to Presenting
Empirical Research. Houndmills, Basingstoke: Palgrave Macmillan.
Dörnyei, Zoltan (2007). Research Methods in Applied Linguistics. Quantitative, Qualitative and Mixed
Methodologies. Oxford: Oxford University Press.
Holliday, Adrian (2007). Doing and Writing Qualitative Research. 2nd edition. Los Angeles: SAGE.
O’Leary, Zina (2014). Doing Your Research Project. 2nd edition. Los Angeles: SAGE.
Richards, Lyn (2013). Handling Qualiative data. A Practical Guide. 2nd edition. Los Angeles: SAGE.
Silverman, David (2000). Doing Qualitative Reserch. A Practical Handbook. Los Angeles: SAGE.
Friederike Klippel
In den einzelnen Phasen einer Forschungsarbeit verfolgt man mit der Präsentation der ei-
genen Ideen und Ergebnisse unterschiedliche Zwecke und spricht daher andere Personen-
kreise an. Am Ende des Schreibprozesses – so schreiben es die meisten Promotionsordnungen
vor – steht dann die Publikation der Arbeit in digitaler oder Printform.9 Die Wissenschaft
kann sich nur weiterentwickeln, wenn neue Erkenntnisse kommuniziert und für weitere
Forschung nutzbar gemacht werden. Auch die Gesellschaft hat ein Interesse daran, relevante
Forschungsergebnisse zu erfahren, die – im Falle der Fremdsprachendidaktik – beispielsweise
den schulischen Fremdsprachenunterricht, Materialien und Verfahren für die Vermittlung von
Zweitsprachen oder die Lehrerbildung verbessern können, um nur einige praxisrelevante
Aspekte zu nennen. Vor der Veröffentlichung der gesamten Arbeit, zu der im zweiten Ab-
schnitt noch viel gesagt wird, soll es im Folgenden jedoch zuerst um Präsentationen im Ver-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
lauf des Forschungsvorhabens gehen. Dabei wird der Begriff ‚Präsentation‘ weit gefasst und
schließt auch Veröffentlichungen von Teilen des Forschungsprojekts und Gespräche über das
Projekt ein.
1 Im Recherchestadium
Wer ein Forschungsvorhaben beginnt, ist zunächst damit befasst, möglichst breit und genau
die bereits vorhandenen einschlägigen Vorarbeiten und Erkenntnisse zur eigenen Forschungs-
frage zu erfassen. In den ersten Stadien der Literaturrecherche, der Präzisierung der For-
schungsfrage und der Entscheidung für ein bestimmtes Forschungsdesign geht es vor allem
darum, sich selbst klar zu werden, was man wie untersuchen will. In dieser explorativen
Phase kann es nützlich sein, seine Überlegungen im Rahmen eines lokalen Doktorandenkol-
loquiums oder Oberseminars, auch eines fächerübergreifenden, zu erläutern, um von anderen
Feedback und Anregungen zu erhalten. Da alle Teilnehmer in einer solchen Veranstaltung
‚im gleichen Boot sitzen‘, aber bereits unterschiedlich weite Strecken in ihrer Forschung zu-
rückgelegt haben, ist der Diskurs in der Regel sehr konstruktiv und unterstützend. Zugleich
hilft es dem eigenen Denken, wenn man seine Ideen, Fragen und Theorien für ein Publikum
formulieren muss, das zwar mit wissenschaftlichem Arbeiten vertraut, nicht jedoch Experte
für das eigene Thema ist. Nicht zuletzt sind solche Präsentationen für das Arbeitsverhältnis
zum Betreuer wichtig, einerseits um Rückmeldungen zu erhalten, andererseits um ihn oder
sie über die Entwicklung der Arbeit auf dem Laufenden zu halten.
9 Für Bachelor- und Masterarbeiten besteht dieses Erfordernis nicht, denn sie gelten nicht in gleichem
Maße als eigenständige Forschungsleistung, obwohl dies gerade im Fall von Masterarbeiten durchaus
der Fall sein kann. Daher gibt es zunehmend Tendenzen, besonders gelungene Arbeiten z. B. über die
Dokumentenserver der Universitäten oder in Aufsatzform zu veröffentlichen.
Doktoranden fragen gelegentlich, ab welchem Zeitpunkt sie ihr Thema auf der eigenen
oder der Universitäts-Webseite, in den sozialen Netzwerken, auf Blogs oder bei Umfragen (in
der Anglistik etwa AREAS zu laufenden Promotionen, in der Fremdsprachendidaktik beim
Informationszentrum Fremdsprachenforschung (ifs) an der Universität Marburg) angeben
sollten. Dabei sind einige Aspekte gegeneinander abzuwägen. Auch wenn es sehr unwahr-
scheinlich ist, dass jemand anderes dasselbe Thema ebenfalls für eine Arbeit übernimmt,
so steckt doch in der Formulierung des Themas schon ein gewisses geistiges Eigentum, das
man eventuell schützen möchte, jedenfalls so lange, bis die Arbeit etwas fortgeschritten ist.
Auch mag es ungünstig sein, eine Arbeit zu einem Thema anzukündigen, von der man in
einem frühen Stadium eventuell noch gar nicht weiß, ob sich dazu ausreichend Daten oder
Dokumente werden finden lassen, so dass die Forschungsfrage beantwortet werden kann. Al-
lerdings kann es manchmal auch von Vorteil sein, wenn man ein Thema für sich ‚besetzt‘, d. h.
in der Fachöffentlichkeit als jemand bekannt wird, der/die sich mit einer bestimmten Frage
näher befasst. Das sollte idealerweise jedoch nicht nur durch dessen Nennung auf einer Seite
oder Liste erfolgen, sondern durch einen wissenschaftlichen Beitrag, i. d. R. ein Exposé, einen
Vortrag bei einer Konferenz oder einen Artikel.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Wenn man sich um ein Stipendium oder die Aufnahme in ein Graduiertenkolleg oder eine
Graduiertenschule bewerben möchte, dann ist es erforderlich, das eigene Forschungsprojekt
in Form eines Exposés, incl. einer (kommentierten) Arbeitsgliederung, eines Literaturver-
zeichnisses sowie eines Arbeits- und Zeitplans zu präsentieren. Das Exposé sollte Angaben
zum Forschungsfeld, zum Forschungsstand, zur Forschungsfrage und zum geplanten For-
schungsansatz enthalten. Es ist dabei allen Beteiligten klar, dass sich Arbeitstitel, einzelne
Abschnitte der Gliederung oder auch der genaue Fokus der Forschungsfrage im Verlauf des
Forschungsprozesses noch ändern können. Ein solches Exposé gibt also Auskunft über das
Projekt auf der Basis des aktuellen Kenntnisstandes, und man braucht weder extrem beschei-
den zu sein noch sollte man das eigene Vorhaben zu vollmundig anpreisen. Zudem erhält man
durch das Feedback der Auswahlkommission wertvolle Hinweise auf das eigene Vorhaben
und dessen eventuelle Schwachstellen.
2 Im Erarbeitungszeitraum
Während der gesamten Entstehungszeit einer wissenschaftlichen Studie kann der Austausch
im Doktorandenseminar hilfreich sein. Hier kann man seinen Forschungsüberblick darbieten,
die für die Pilotierung vorgesehenen Forschungsinstrumente diskutieren oder das durchgese-
hene Daten- oder Dokumentenkorpus vorstellen. Wenn Forschungsfragen und Vorgehens-
weise weitgehend geklärt sind, dann ist der Zeitpunkt gekommen, bei überregionalen oder
interdisziplinären Doktorandentreffen, Workshops oder Nachwuchstagungen zum eigenen
Vorhaben vorzutragen, um von einem weiteren Personenkreis Rückmeldungen zu erhalten
und in den Diskussionen zu ganz anders ausgerichteten Arbeiten etwas zu lernen. Im Be-
reich der Fremdsprachendidaktik gibt es dazu die alle zwei Jahre stattfindende Nachwuchs-
tagung der DGFF; eine Gelegenheit zur forschungsmethodischen Weiterbildung und zur Vor-
stellung der eigenen Arbeit bietet zudem die DGFF Sommerschule, die etwa alle drei Jahre
an wechselnden Universitäten veranstaltet wird. Nachwuchswissenschaftler_innen in der
Fremdsprachendidaktik sind auch bei ähnlichen Workshops und Tagungen der Deutschen
Manchmal mag es günstig sein, sich frühzeitig als Experte in einem Feld zu melden, oder
man hält die eigenen Forschungsergebnisse für so brisant und interessant, dass man sie vor
dem Abschluss des Verfahrens bereits bekannt machen möchte. Das ist vor allem dann der Fall,
wenn es sich um ein sich rasch entwickelndes aktuelles Forschungsfeld handelt. Allerdings ist
es nicht akzeptabel, lange Passagen aus einem vorab erschienenen eigenen Aufsatz wörtlich
und ohne Verweis auf die frühere Publikation später in der Dissertation zu verwenden. Zwar
handelt es sich bei solch langen Selbstzitaten nicht um ein Plagiat (also einen Diebstahl geis-
tigen Eigentums anderer) im engeren Sinne, da man ja jeweils Autor_in ist, dennoch werden
solche Textübernahmen in den Geisteswissenschaften sehr negativ eingeschätzt. Ist eine Vor-
abpublikation zu einem Forschungsprojekt, an dem mehrere Wissenschaftler_innen beteiligt
sind, unter multipler Autorenschaft erschienen, wäre eine wörtliche Übernahme von langen
Textpassagen unter keinen Umständen angebracht, da es sich um eine gemeinschaftlich ver-
antwortete Publikation und das geistige Eigentum aller Autor_innen handelt.
Der positive Effekt eines vorab publizierten Aufsatzes liegt darin, dass man sich im wis-
senschaftlichen Schreiben übt und auf knappem Raum wesentliche Aspekte des Forschungs-
vorhabens darstellen muss. Im Erfolgsfall schafft das Selbstvertrauen für den Schreibprozess.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Am intensivsten denkt man über die Präsentation seiner Forschung nach, wenn die Arbeit
fertig geschrieben ist. Zuerst gilt es an vielen Universitäten, die Arbeit im Rahmen einer
Disputation vorzustellen und zu verteidigen. Ein Blick in die Promotionsordnung und das
Gespräch mit dem/der Betreuer_in hilft, die richtige Form zu finden. Mancherorts wird eine
Powerpoint Präsentation erwartet, anderenorts ist sie verpönt. Auch Fokus und Länge variie-
ren, ebenso der organisatorische Rahmen und die Anwesenheit von Zuhörenden aus der Uni-
versität oder darüber hinaus. Immer ist es jedoch erforderlich, die eigene Arbeit knapp und
präzise zusammenzufassen. Weiterhin ist es von Vorteil, in der Präsentation auf die Monita
der Gutachten einzugehen und sich auf diesbezügliche Fragen vorzubereiten.
Nach Abschluss des Verfahrens steht die Frage der Veröffentlichung an. Da es unterschied-
liche Formen und Orte der Publikation gibt, muss man Kosten, Nutzen, Aufwand und Zeit-
rahmen gegeneinander abwägen. Oft schreiben die Promotionsordnungen die Abgabe einer
bestimmten Anzahl von Pflichtexemplaren (je nach Publikationsart) und eine bestimmte Frist
vor, innerhalb derer die Dissertation erscheinen soll (meist ein oder zwei Jahre), damit der/
die Doktorand_in den erworbenen Titel auch führen darf. Man kann daher die Publikation
nicht lange aufschieben, was auch aus anderen Gründen nicht sinnvoll wäre. Denn lässt man
zwischen der Einreichung und der Überarbeitung in Vorbereitung der Veröffentlichung zu
viel Zeit verstreichen, ist es sehr mühsam, sich wieder in die Gedankengänge und Zusam-
menhänge der eigenen Arbeit so weit zu vertiefen, dass man sie sinnvoll (und eventuell unter
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Berücksichtigung der in den Gutachten gemachten Auflagen) in die endgültige Form bringen
kann. Zudem kann sich bei einem aktuellen Thema der Diskussionsstand rasch ändern, so
dass nach einer gewissen Zeit vielleicht einige Teile der Arbeit nicht mehr aktuell sind oder
man sie intensiver überarbeiten muss.
Am günstigsten, schnellsten und billigsten ist die Online-Veröffentlichung auf der Univer-
sitäts-Webseite. Auch dazu muss man den Text erneut im Detail durchgehen, einzelne Passa-
gen gegebenenfalls umarbeiten und gründlich Korrektur lesen. Auf der Universitäts-Webseite
allerdings ist die Arbeit, in die man viele Jahre Mühen investiert hat, für das Fachpublikum
gegenwärtig noch sehr schwer aufzufinden. Bislang werden Online-Veröffentlichungen nicht
systematisch erfasst und auch nicht rezensiert. Damit sind sie für den Fachdiskurs und das
Praxisfeld momentan noch wenig sichtbar. Das könnte sich allerdings mit der Weiterentwick-
lung von Open-Access-Angeboten und Veränderungen im Rezensionswesen bald ändern. Ei-
nige Universitäten verlangen bei einer Online-Publikation zusätzlich die Abgabe von einigen
gedruckten Pflichtexemplaren für die eigene Universitätsbibliothek, die man im Copyshop
herstellen lassen kann.
Der Gang zum Copyshop ist in der Regel die zweit-günstigste Variante, was das Finanzielle
betrifft. Je nach den Regeln der lokalen Promotionsordnungen müssen bis zu über 100 Exem-
plare eingereicht werden, da die eigene Universitätsbibliothek andere Bibliotheken damit ver-
sorgt. Aber auch für diese Art der Veröffentlichung gelten die gleichen Nachteile wie für die
Online-Publikation. Es gibt kein Marketing, keine Rezensionen und keine Wirkung der Arbeit
auf Wissenschaft oder Praxis. Zudem sind die im Copyshop verfügbaren Klebebindungen oft
so wenig haltbar, dass das ‚Buch‘ bei Gebrauch nach einiger Zeit zerfleddert.
Für die Publikation der Forschungsarbeit als Buch bestehen verschiedene Optionen. Eine
Reihe von Verlagen hat sich auf Dissertationen spezialisiert und bietet entweder ein ge-
nerelles Verlagsprogramm, allgemeine Reihen (z. B. Europäische Hochschulschriften) oder
eventuell auch stärker fachbezogenene Schriftenreihen an. Als Autor muss man sein Ma-
nuskript in druckfertiger Form einreichen und dazu eine verlagsspezifische Druckvorlage
berücksichtigen. Da in diesen Verlagen keine fachspezifischen Lektorate zu finden sind, gibt
der Herausgeber_innen nicht entspricht – oder dass man nur mit Auflagen angenommen
werden kann. Es ist in den meisten Fällen so, dass der Text der Forschungsarbeit für die
Publikation erneut überarbeitet und gegebenenfalls gekürzt werden muss, denn sowohl die
Kritikpunkte in den Gutachten als auch in den Kommentaren der Reihenherausgeber_innen
müssen aufgegriffen werden, was eine nochmalige gründliche Befassung mit dem Manuskript
erfordert. Zudem gilt es auch hier eine bestimmte Formatvorlage zu beachten, sich gege-
benenfalls um Copyright-Fragen zu kümmern und einen Druckkostenzuschuss zu zahlen.
Wenn das Buch in einer renommierten Reihe akzeptiert wurde, ist es jedoch einfacher, sich
um einen Zuschuss zu den Druckkosten bei der eigenen Universität, bei Stipendien- oder
Drittmittelgebern zu bewerben. Als Teil einer bekannten Schriftenreihe wird das Werk in der
Fach-Community breit rezipiert.
Bei fremdsprachendidaktischen Forschungsarbeiten, die in deutscher Sprache geschrieben
wurden, ist es auch sinnvoll, an weitere, internationale Veröffentlichungen zum eigenen For-
schungsthema in einer anderen Sprache zu denken. Dazu können einzelne Aspekte der Arbeit
fokussiert werden. Eine andere Möglichkeit besteht – je nach Thema – in der Aufbereitung
von (Teil-)Ergebnissen für Lehrerfortbildungen oder Materialien für die Praxis. Da in den
seltensten Fällen alle Überlegungen und Ausarbeitungen, die im Verlauf einer großen For-
schungsarbeit entstehen, letztlich Eingang in die Abschlusspublikation finden, hat man für
eine gewisse Zeit ausreichend Material, um zum Thema der eigenen Forschung mit unter-
schiedlicher Schwerpunktsetzung zu publizieren.
Ist die Promotion oder Habilitation abgeschlossen und das Werk erschienen, liegt es nahe,
seine Arbeit in einschlägigen Listen und Publikationsorganen zu melden. Für die Fremd-
sprachendidaktik ist die auf der Webseite der DGFF geführte Liste der Promotionen und
Habilitationen in den fremdsprachendidaktischen Fächern (s. Sauer-Klippel-Liste der DGFF)
das zentrale Element der Dokumentation; in der Anglistik erscheint jährlich ein Buch mit
Zusammenfassungen von gerade publizierten Monographien (English and American Studies
in German: a Supplement to Anglia; Summaries of Theses and Monographs), die von den
jeweiligen Autoren selbst erstellt werden. Schließlich kann man sein Projekt in der For-
›› Literatur
Bitchener, John (2010). Writing an Applied Linguistics Thesis or Dissertation. A Guide to Presenting
Empirical Research. Basingstoke: Palgrave Macmillan.
Esselborn-Krummbiegel, Helga (2012). Richtig wissenschaftlich schreiben. Wissenschaftssprache in Re-
geln und Übungen. 2. Aufl. Paderborn: Schöningh.
Holliday, Adrian (2012). Doing and Writing Qualitative Research. 2nd edition. Los Angeles: SAGE.
Lobin, Henning (2012). Die wissenschaftliche Präsentation: Konzept – Visualisierung – Durchführung.
Paderborn: Schöningh.
»» Wichtige Webseiten
Daniela Caspari
Während auf dem Titelblatt der Dissertations- oder Habilitationsschrift allein der Name des
Verfassers bzw. der Verfasserin steht, erfährt man im Vorwort oder der Danksagung zumeist,
wer noch zu diesem Werk beigetragen hat. Vor den Kolleg/innen, Freund/innen und Familien-
angehören werden zumeist der bzw. die Betreuer/innen genannt. Hinter den meist zwei oder
drei Zeilen Dank verbirgt sich in der Regel eine mehrjährige Beziehung, in der Betreuer/-
innen und Nachwuchswissenschaftler/innen gemeinsam auf dieses Ziel hingearbeitet haben.
Da zu einer erfolgreichen Beziehung immer beide Partner/innen beitragen, wendet sich dieses
Kapitel ausdrücklich an beide.
Sprach man noch vor nicht langer Zeit von „Doktorvater“ bzw. „Doktormutter“, so hat sich
inzwischen der neutralere Begriff „Betreuer“ bzw. „Betreuerin“ durchgesetzt. Er bezeichnet
das professionelle Verhältnis zwischen Promovend/innen bzw. Habilitand/innen und Betreu-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
er/innen, das von einer klaren Rollenverteilung und gegenseitigen Verbindlichkeiten geprägt
ist. Trotz aller offiziellen Leitlinien für ein solches Betreuungsverhältnis (siehe Angaben im
Literaturverzeichnis), hängt die Ausgestaltung dieser meist sehr allgemein gehaltenen For-
mulierungen von der konkreten Situation und von den jeweiligen Personen ab. Eine Einzel-
betreuung wird in der Regel anders ablaufen als die Betreuung in einem Graduiertenkolleg
oder innerhalb eines strukturierten Promotionsprogramms, wo meist mehrere Personen als
Ansprechpartner/innen für die Nachwuchswissenschaftler/innen fungieren; auch kann sich
die Betreuung von wissenschaftlichen Mitarbeiter/innen anders gestalten als von extern Pro-
movend/innen. Die folgenden Ausführungen betreffen in erster Linie das Betreuungsver-
hältnis zum bzw. zur Hauptbetreuer/in. 10
Das Aufgabenspektrum und die Auffassungen bzgl. der Rolle der Betreuer/in können im
deutschsprachigen Raum vom supervisor der anglo-amerikanischen Universität, bei dem
vor allem die Funktion des Coachens im Mittelpunkt steht, bis zum directeur de recherche
der französischen Universitäten reichen, der klare Vorgaben und Erwartungen an die Pro-
movenden/innen richtet. Umgekehrt können die Erwartungen der Promovend/innen von
engmaschiger Führung bis zu völliger Eigenständigkeit reichen, je nach Persönlichkeit, Er-
fahrung, Vorwissen, sowie wissenschaftlichem und kulturellem Hintergrund. Daher ist es
wichtig, sich rechtzeitig über die gegenseitigen Erwartungen zu verständigen. Diese können
in Form eines schriftlichen Betreuungsvertrages festgehalten werden (s. Angaben im Li-
teraturverzeichnis). Auch wenn der Abschluss eines solchen Vertrages von der Universität
nicht verlangt wird, kann er im Sinne einer verbindlichen Absichtserklärung beider Seiten
sinnvoll sein.
10 In dieses Kapitel sind eine Reihe von Überlegungen aus einem Beitrag von Caspari et al. 2011 eingegan-
gen, in dem sich drei Nachwuchswissenschaftler/innen und zwei Betreuer/innen über die gegenseitigen
Erwartungen an ein gutes Betreuungsverhältnis ausgetauscht haben.
befindet, bis zur intensiven Diskussion einzelner Details, von der 15-minütigen Abstimmung
bis zu mehrstündigen tiefen Gesprächen. Auch hier lässt sich keine Regel aufstellen, jedoch
sind die Betreuer/innen vor allem dafür da, bei grundlegenden Fragen zu beraten, nicht aber
dafür, jede einzelne Entscheidung mit abzuwägen. Generell wird bei der Anfertigung einer
Dissertation in der Fremdsprachendiaktik von den Promovend/innen, noch mehr von den
Habilitand/innen, eine hohe Selbständigkeit und Eigenverantwortung erwartet. So gehören
z. B. die Themensuche, Formulierung der Forschungsfrage und Gestaltung des Forschungs-
designs in den Verantwortungsbereich der Promovend/innen; die Betreuer/innen geben hier
lediglich Ratschläge. Auch eine fundierte Diskussion einzelner Details können die Betreuer/-
innen in aller Regel nicht leisten, zumal sie normalerweise nicht so tief in das Thema einge-
arbeitet sind wie die Doktorand/innen selbst.
Grundsätzlich besteht die Aufgabe der Betreuer/innen vor allem darin, die Arbeit als Gan-
zes im Blick behalten. Dazu gehört in erster Linie, bei der Gesamtkonzeption der Arbeit zu
beraten sowie bei der Konzeption der einzelnen Schritte und bei der Besprechung der einzel-
nen Teile ihren jewiligen Beitrag zur Gesamtargumentation einzuschätzen, um so inhaltliche
oder methodische Sackgassen vermeiden zu helfen. Auch Hinweise auf ein angemessenes
Maß (z. B. bzgl. des Literaturberichtes oder der Anzahl der notwendigen Probanden für ein
Experiment) und auf realistische, ‚gangbare‘ Wege sind wichtig, damit die Arbeit in angemes-
sener Zeit bearbeitet werden kann. Und falls man einmal gar nicht weiterkommt, werden die
Betreuer/innen auch akut Hilfe und Ermutigung geben.
Aus den Beispielen wird deutlich, dass beide Seiten sich darüber verständigen sollten,
was sie im konkreten Fall und zum jeweiligen Zeitpunkt für notwendig bzw. angemessen
halten. Dafür sollten sie möglichst klar ihre gegenseitigen Wünsche und Erwartungen kom-
munizieren und gemeinsam überlegen, was wer wann leisten kann. Zu dieser Absprache
gehört auch zu akzeptieren, dass die Betreuer/innen manches nicht für ihre Aufgabe halten.
Die Basis eines gelungenen Betreuungsverhältnisses besteht darin, dass gemeinsam ge-
troffene Vereinbarungen und Absprachen eingehalten werden bzw. dass man sich rechtzeitig
informiert, wenn man sie nicht einhalten kann. Für Promovend/innen ist es z. B. wichtig, dass
sie zeitnah Rückmeldung erhalten. Wenn man den vereinbarten Termin als Betreuer/in jedoch
einmal nicht einhalten kann, weil die Betreuung von Nachwuchswissenschaftler/innen nur
einen kleinen Teil der Aufgaben darstellt und daher manchmal unerwartete Termine, wichtige
Projekte, deadlines oder allgemeine Arbeitsüberlastung dazwischen kommen, empfiehlt es
sich, einen neuen, zeitnahen Terminzu vereinbaren.
Für das gegenseitige Verständnis ist weiterhin wichtig, dass das Anfertigen einer For-
schungsarbeit nicht nur für die Promovend/innen einen Lernprozess darstellt, sondern
ebenfalls für die Betreuer/innen, insbesondere wenn Thema oder Forschungsmethode nicht
zu den eigenen Schwerpunkten und Praktiken gehören. In Rücksprache mit dem bzw. der
Hauptbetreuer/in kann es sinnvoll sein, sich bei Expert/innen extern Rat und Hilfe zu holen.
Grundsätzlich ist anzuraten, auch außerhalb des eigenen Institutes bzw. der eigenen Uni-
versität nach Austausch und Anregung zu suchen und sich insbesondere mit anderen Nach-
wuchswissenschaftler/innen zu vernetzen (vgl. auch Kapitel 6.7). Falls man als Promovend/in
dabei durch stark divergierende oder gegensätzliche Rückmeldungen verunsichert wird, sollte
man dies unbedingt mit dem bzw. der Hauptbetreuer/in besprechen – vielleicht muss man
sein Anliegen oder sein Design nur besser ausschärfen oder genauer begründen, vielleicht
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Im Vorfeld von Betreuungsgesprächen ist es hilfreich, wenn der Promovend bzw. die Pro-
movendin schriftlich den aktuellen Stand der Arbeit skizziert und die aktuelle Gliederung
(incl. Thema und Forschungsfrage) sowie das Literaturverzeichnis mitschickt. Außerdem ist es
hilfreich, möglichst genau mitzuteilen, was man besprechen möchte. Dies klärt und fokussiert
die eigenen Gedanken und gibt den Betreuer/innen die Möglichkeit, sich vorzubereiten. Bei
der Abgabe von einzelnen Kapiteln ist es ebenfalls sinnvoll, zusätzlich die aktuelle Glie-
derung und das Gesamtliteraturverzeichnis mitzuschicken sowie konkrete Fragen oder Hin-
weise zu formulieren, z. B. „Bitte achten Sie besonders auf …“, „Bitte sagen Sie mir, ob diese
Argumentation stimmig ist.“, „Was steht als nächstes an?“
Es ist verständlich, dass man als Promovend/in nicht nur eine Rückmeldung erhalten
möchte, ob die Arbeit in die richtige Richtung geht, sondern – besonders gegen Ende – auch,
welche Note sie wohl erhalten wird. Dazu kann sich jedoch kein/e Betreuer/in äußern, weil
die Note erst durch die Kommission beschlossen wird. Bei einer sich noch zu entwickeln-
den wissenschaftlichen Arbeit ist es zudem schwierig, Prognosen über die Qualität des zu
erwartenden Gesamtproduktes abzugeben. Die an eine Forschungsarbeit üblicherweise an-
gelegten Qualitäts- bzw. Beurteilungskriterien findet man in den entsprechenden Kapiteln
dieses Handbuches; was davon den Betreuer/innen besondes wichtig ist, erfährt man direkt
oder indirekt im Gespräch und aus den Rückmeldungen zur eigenen Arbeit. In Deutsch-
land ist es in der Regel die gleiche Person, die eine Dissertation als Erstbetreuer/in begleitet
und sie nach dem Abschluss als Erstgutachter/in bewertet. Zwischen diesen beiden Rollen
zu unterscheiden, fällt nicht immer leicht; so darf man als Promovend/in z. B. von einem
freundlichen, zugewandten Verhalten des bzw. der Betreuer/in nicht automatisch auf eine
gute Note schließen. Im Umkehrschluss muss eine zurückhaltende oder kritische Betreuung
nicht bedeuten, dass die Qualitäten der Arbeit beim abschließenden Urteil nicht angemessen
gewürdigt werden.
Da die Note der Dissertationsschrift von der Kommission beschlossen wird, ist es wichtig,
rechtzeitig mit dem bzw. der Hauptbetreuer/in zu beraten, wer als Zweitgutachter/in und –
wenn die Abgabe der Arbeit in Aussicht steht und die Promotionsordnung dies vorsieht – wer
als Kommissionsmitglied in Frage kommen könnte.
Aus den vorstehenden Überlegungen wird deutlich, dass die besondere Beziehung zwi-
schen Betreuer/in und Promovend/in bzw. Habilitand/in von beiden gemeinsam ausgestaltet
werden muss. Eine gute Basis dafür sind – interessanterweise – die gleichen Eigenschaften,
die auch als Gütekriterien an eine wissenschaftliche Arbeit angelegt werden: Kommunikation,
Transparenz, Konsistenz, Ehrlichkeit, Respekt, Rationalität. Dazu kommen ein gegenseitiges
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
›› Literatur
»» Weiterführende Hinweise
Deutsche Forschungsgemeinschaft (DFG) (2014). Empfehlungen für das Erstellen von Betreuungsver-
einbarungen. http://www.dfg.de/formulare/1_90/1_90.pdf (29. 11. 2015).
Universität Erlangen-Nürnberg [o. J.]. Leitfaden zur guten Praxis für die Durchführung und Betreu-
ung einer Promotion. http://www.promotion.uni-erlangen.de/pdfs/Leitfaden%20gute%20Praxis%20
Promotion.pdf (29. 11. 2015).
Universität Vechta [o. J.]. Mustervereinbarung zur Betreuung von Doktorandinnen und Doktoranden
(Betreuungsvereinbarung). https://startpage.com/do/dsearch?query=Doktoranden+Betreuung+Uni
+Vechta&cat=web&pl=opensearch&language=deutsch. (29. 11. 2015)
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
In diesem Kapitel sind zwölf Referenzarbeiten erfasst, auf die in verschiedenen Kapiteln des
Handbuchs unter spezifischen methodischen Fragestellungen verwiesen wird. Hier werden
diese Dissertationen als Gesamtstudie kurz vorgestellt, und zwar von den jeweiligen Autor_
innen selbst. Es handelt sich um Zusammenfassungen der Untersuchungen unter metho-
dischen Gesichtspunkten. Sie sollen ein Globalverständnis der Referenzarbeiten ermöglichen,
sodass in anderen Kapiteln ohne weitere Erläuterungen methodische Details daraus auf-
gegriffen werden können. Nach welchen Prinzipien diese zwölf Referenzarbeiten ausgewählt
wurden, ist in Kapitel 1 genauer beschrieben.
Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der
Beurteilung schriftlicher Leistungen in der Fremdsprache am Beispiel der Prüfung „Test Deutsch als
Fremdsprache“ (TestDaF). Tübingen: Narr.
Biebricher, Christine (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens.
Tübingen: Narr.
Doff, Sabine (2002). Englischlernen zwischen Tradition und Innovation. Fremdsprachenunterricht für
Mädchen im 19. Jahrhundert. München: Langenscheidt.
Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. Eine qualitative In-
terviewstudie zum ausbildungsbiographischen Ertrag des assistant-Jahres. München: Langenscheidt.
Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule: Eine
empirische Studie zum Einsatz von Beobachtungsbögen. Tübingen: Narr.
Marx, Nicole (2005). Hörverstehensleistungen im Deutschen als Tertiärsprache: zum Nutzen eines Sen-
sibilisierungsunterrichts im ‚DaFnE‘. Baltmannsweiler: Schneider Verlag Hohengehren.
Özkul, Senem (2011). Berufsziel Englischlehrer/in. München: Langenscheidt.
Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden
für Deutsch als Fremdsprache. Baltmannsweiler: Schneider Verlag Hohengehren.
Schmenk, Barbara (2002, 2009). Geschlechtsspezifisches Fremdsprachenlernen? Zur Konstruktion ge-
schlechtsspezifischer Lerner- und Lernbilder in der Fremdsprachenforschung. Tübingen: Narr.
Schmidt, Torben (2007). Gemeinsames Lernen mit Selbstlernsoftware im Englischunterricht – Eine empi-
rische Analyse lernprogrammgestützter Partnerarbeitsphasen im Unterricht der Klasse 7. Tübingen:
Narr.
Schwab, Götz (2009). Gesprächsanalyse und Fremdsprachenunterricht. Landau: Verlag Empirische
Pädagogik.
Tassinari, Maria G. (2010). Autonomes Fremdsprachenlernen: Komponenten, Kompetenzen, Strategien.
Frankfurt/Main: Lang.
Ulrike Arras
1. T
hema und Forschungsfragen
Die Leistungsbeurteilung ist neben der Erstellung valider Testaufgaben und der objektiven
Prüfungsdurchführung ein weiterer Gegenstand der Qualitätssicherung einer Prüfung. Denn
die Anforderungen, die in einem Sprachtest gestellt werden, ergeben sich nicht allein aus
den Schwierigkeitsfaktoren der Aufgabenstellung, etwa der Komplexität des Themas, der
erwarteten Textsorte oder den erforderlichen sprachlichen Mittel, sondern auch aus den Beur-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
2. D
atenerhebung
Die Arbeit bediente sich eines Mehrmethodendesigns auf der Basis von Fallstudien und be
stand aus zwei Vorstudien und einer Hauptuntersuchung. Die Hauptuntersuchung erhob qua-
litative introspektive Daten zunächst anhand von Laut-Denken-Protokollen mit vier Beurtei
lerinnen (Primärdaten), die je acht Leistungen aus dem TestDaF-Prüfungsteil ‚Schriftlicher
Ausdruck‘ bewerteten; dies diente der Eruierung spezifischer Beurteilungsstrategien und
-prozesse. Das Verfahren des Lauten Denkens hat sich bereits in ähnlichen Forschungszusam-
menhängen bewährt (etwa Lumley 2005). Denn trotz der Einschränkungen hinsichtlich der
Generalisierbarkeit der identifizierbaren Strategien und Prozesse sind es gerade introspektive
Verfahren, die Einblicke in die individuell geprägten Vorgehensweisen und internen Prozesse
ermöglichen. Introspektion hat im vorliegenden Fall ein breites Repertoire an Strategien und
Strategiebündeln sichtbar machen können.
Zusätzlich wurde zu Übungszwecken die Beurteilung einer Leistung unter Laut-Denken-
Bedingungen vorgeschaltet, um eine gewisse Vertrautheit mit dem ungewohnten lauten Den-
ken zu gewährleisten und zudem korrigierend und kommentierend eingreifen zu können.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
3. D
atenaufbereitung und Datenauswertung
Alle Daten der Hauptstudie wurden transkribiert. Es handelte sich um nahezu 13 Stunden
Laut-Denken-Protokolle bei vier Versuchspersonen, die je 8 schriftliche Leistungen beur-
teilten, dazu noch knapp 8 Stunden retrospektive Interviews. Die Transkription der Protokolle
erwies sich als aufwendig, weil auch Pausen und Abbrüche abgebildet werden mussten, um
zugrundeliegende Prozesse zu erfassen. Zudem wurden die Laut-Denken-Protokolle seg-
mentiert und kodiert, um möglichst genau die Strategien und deren Prozesshaftigkeit nach-
zuvollziehen. Bei den retrospektiven Interviews hingegen war eine einfache Transkriptions-
weise ausreichend, denn hier sollten lediglich problemzentriert ausgewählte Phänomene aus
den Laut-Denken-Sitzungen näher beleuchtet werden. Der Redefluss in den Interviews war
zudem stringenter, weil die Versuchspersonen nicht (wie im Falle der Laut-Denken-Sitzungen)
zwischen der zu beurteilenden Leistung, den Beurteilungskriterien und dem schriftlichen
Festhalten der Einstufung wechseln mussten.
Die Segmentierung der Verbaldaten aus den Protokollen erfolgte mit dem Ziel Einzel-
handlungen und ihren Prozesscharakter im Verlauf der Beurteilungsarbeit nachvollziehbar
zu machen. Im Zentrum des Erkenntnisinteresses standen dabei Problemlösestrategien und
die Rolle der Beurteilungskriterien.
Die Entwicklung des Kodiersystems und dessen praktische Anwendung erwiesen sich als
komplex. Mehrfach musste das Kodiersystem verändert und justiert werden, um die eru-
ierten Prozesse und Strategien weitgehend zuverlässig zu erfassen. Zudem erwies sich die
Kodierung selbst als fehleranfällig, denn sie ist in hohem Maße interpretativ, weil ggf. auch
prosodische und implizite Informationen einbezogen werden müssen, was ein manuelles Vor-
gehen erforderlich machte. Zur Erhöhung der Reliabilität wurde deshalb eine Zweitkodierung
im zeitlichen Abstand von ca. drei Monaten durchgeführt.
Die durch Transkription, Segmentierung und Kodierung eruierten Einzelhandlungen wur-
den sodann systematisiert.
Aufgrund der Fülle der Einzelhandlungen und Strategien musste für die Darstellung der
Befunde eine Auswahl vorgenommen werden. Auswahlkriterien waren dabei zum einen
die Dominanz bzw. Frequenz bestimmter Strategien, zum anderen Hinweise auf spezifische
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Problemlöse- und Beurteilungsstrategien. Auf dieser Grundlage wurden zum einen jene
Handlungen interpretiert, die den Umgang mit dem Beurteilungsverfahren sowie die Rolle
der Beurteilungskriterien dokumentieren, zum anderen jene Beobachtungen, die über das
TestDaF-Beurteilungsinstrumentarium hinauswiesen, so z. B. Strategien, die vermutlich auf
zugrundeliegende subjektive Annahmen und auf persönliche Erfahrungen gründen, was sich
oftmals aus den Kommentaren und Bezügen in den Protokollen und in den retrospektiven
Interviews ablesen ließ. Darüber hinaus wurden deskriptive Analysen der Resultate der Beur-
teilungsarbeit vorgenommen und mit den Daten der qualitativen Analysen trianguliert. Bei-
spielsweise wurde die Beurteilungsübereinstimmung zwischen den vier Teilnehmerinnen
analysiert und ihre Leistungseinstufungen in Beziehung gesetzt zur Zeit, die sie für die Beur-
teilung der einzelnen schriftlichen Leistungen benötigten.
4. E
rgebnisse
Die Untersuchung hat gezeigt, dass die Beurteilung (schriftlicher) Leistungen eine komplexe
kognitive Handlung darstellt, die aus verschiedenen, sich ergänzenden und aufeinander auf-
bauenden Strategien und Strategiebündeln besteht. Sie werden zum einen von persönlichen
und zum anderen von institutionellen Faktoren geprägt. Persönlichkeitsfaktoren sind bei-
spielsweise individuelle Vorlieben und Erfahrungen, besonders natürlich berufliche Erfah-
rungen im Kontext Sprachunterricht. Andere Strategien hingegen sind durch das Beurtei-
lungsinstrumentarium bestimmt, welches von der Testinstitution vorgegeben wird, etwa das
standardisierte Beurteilungsverfahren oder die Schulungsmaßnahmen, die das Testkonstrukt
und die Beurteilungsmaßstäbe operationalisieren.
Folgende Hauptergebnisse können festgehalten werden:
1. Die Beurteilungsarbeit erfolgt in weitgehend klar trennbaren und interpersonell relevanten
Phasen. Diese sind stark durch die institutionellen Vorgaben geprägt, insbesondere durch
wird stark und in unterschiedlicher Weise und Ausprägung frequentiert, ist weitgehend
verinnerlicht und dient den Versuchspersonen als Sprachmaterial für die Formulierung
ihrer Urteile.
Literatur
Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der
Beurteilung schriftlicher Leistungen in der Fremdsprache am Beispiel der Prüfung „Test Deutsch als
Fremdsprache“ (TestDaF). Tübingen: Narr.
Lumley, Tom (2005). Assessing Second Language Writing. The Rater’s Perspective. Frankfurt/Main:
Lang.
Christine Biebricher
1. T
hema und Forschungsfragen
Die Studie beschäftigt sich mit dem Lesen der Fremdsprache Englisch an Realschulen. Sie
evaluiert, inwieweit extensives Lesen Auswirkungen auf die Lese- und Sprachkompetenz,
Motivation und Lesesozialisation deutscher Realschüler hat. Im internationalen Kontext wird
extensives Lesen als Möglichkeit gesehen, Lesekompetenz, Motivation und Lesesozialisation
positiv beeinflussen zu können. Dies wird für den deutschen Forschungskontext untersucht.
Den drei 9. Realschulklassen (n = 75), die die Experimentalgruppe bildeten, wurde für vier
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Monate eine englische Klassenbibliothek mit 95 Texten verschiedener Genres und Schwierig-
keitsstufen zur Verfügung gestellt, von denen mindestens vier gelesen werden sollten. Wäh-
rend einer Unterrichtsstunde pro Woche (45 Minuten) wurde still und individuell gelesen,
die Teilnehmer konnten zusätzlich Bücher ausleihen. Die Teilnahme am Leseprojekt war
freiwillig und gelesene Texte wurden nicht im Unterricht besprochen. In den drei Kontroll-
gruppen (n = 85) fand gewöhnlicher Englischunterricht statt. Alle Teilnehmer kamen aus dem
gleichen Schulamtsbezirk in Baden-Württemberg.
Für die Lese- und Sprachkompetenz beantwortete die Untersuchung die folgenden Fragen:
1. Können Schülerinnen und Schüler durch extensives Lesen ihre fremdsprachliche Lesekom-
petenz verbessern?
2. Wirkt sich extensives fremdsprachliches Lesen auf die allgemeine englische Sprachkom-
petenz aus?
3. Gibt es geschlechtsspezifische Unterschiede in diesen Bereichen?
Für den Bereich der Lesemotivation wurde untersucht:
1. Hat extensives Lesen Auswirkungen auf die Lesemotivation?
2. Verändert sich die englische Selbstwirksamkeitserwartung durch Erfolgserlebnisse?
Für die fremdsprachliche Lesesozialisation wurden folgende Fragen evaluiert:
1. Führt extensives Lesen eine Veränderung im Leseverhalten und in der Einstellung zur
Sprache herbei?
2. Kann die Lesesozialisation durch extensives Lesen unterstützt werden?
3. Gibt es geschlechtsspezifische Unterschiede bei fremdsprachlichem Lesen?
Schließlich wurde insgesamt geprüft, ob sich innerhalb eines kurzen Zeitraums von vier
Monaten Veränderungen in einzelnen Bereichen ergaben.
2. D
atenerhebung
rahmens entspricht. Zur Erhebung der Lesemotivation und -gewohnheiten erhielten alle
Gruppen einen halboffenen Fragebogen sowie einen geschlossenen Fragebogen zur Selbst-
wirksamkeitserwartung.
Während des Treatments wurden in den Experimentalgruppen drei nicht-standardisierte
Leseproben durchgeführt, in denen das Leseverstehen relativ langer englischer Texte über-
prüft wurde. Die Teilnehmer lasen jeweils ein Kapitel eines Readers und waren aufgefordert,
Informationen zum Inhalt auf Deutsch wiederzugeben oder zu inferieren. Die Jugendlichen
hielten ihre Einstellung zum Leseprojekt und ihre Lesemotivation in zwei impulsgestützten
Stellungnahmen nach drei und nach neun Wochen des Treatments fest. Schließlich gaben alle
am Treatment Beteiligten einen schriftlichen Kurzkommentar in vorgefertigtem Format zu
jedem gelesenen Text ab, der nach Titel sortiert in der Klasse verblieb. Dies diente zur Fest-
stellung der Leseinteressen, aber auch als Leseempfehlung innerhalb der Klassen.
Nach Abschluss des Treatments wurden mit allen Schülerinnen und Schülern der Experi-
mental- und Kontrollgruppen der bereits zuvor eingesetzte C-Test und der Leseteil des PET
durchgeführt. Zusätzlich erhielten alle einen halboffenen, leicht abgewandelten Fragebogen
und erneut den geschlossenen Fragebogen zu Selbstwirksamkeitserwartung. Aus den Ex-
perimentalteilnehmern wurden aufgrund der Ergebnisse aller Instrumente 26 Interviewkan-
didaten ausgewählt, woraus wiederum sechs für Fallbeispiele ausgesucht wurden.
3. D
atenaufbereitung
Alle eingesetzten Instrumente wurden in einer Pilotphase sowie in einer Vorstudie erprobt,
validiert und teilweise modifiziert. Ergebnisse der Vorstudie führten zu leichten Verände-
rungen in der Hauptstudie. Längere Einträge in ein ‚Reading Notebook‘ erwiesen sich in der
Vorstudie beispielsweise als wenig hilfreich und wurden durch Kurzkommentare zu Texten
ersetzt.
Die Ergebnisse der Sprachtests (C-Test und PET) wurden jeweils getrennt und nach Gruppen
sortiert zur Auswertung in SPSS eingegeben.
Vor der Auswertung der Leseproben stellten drei Englischlehrer schriftlich Antwortmög-
lichkeiten für jede Leseprobe zusammen. Zur höheren Interrater-Reliabilität wurden diese im
Anschluss mit der Untersuchungsleiterin diskutiert und wurde ein gemeinsamer Erwartungs-
horizont und ein Auswertungsschema festgelegt.
Geschlossene Items der verschiedenen Fragebogen wurden in SPSS kodiert, wobei kleinere
Werte geringere Zustimmung bedeuteten (‚trifft nicht zu‘ = 1; bzw. ‚überhaupt nicht‘ = 1).
Offene Items sowie die Inhalte der jeweiligen impulsgestützten Stellungnahmen wurden
elektronisch erfasst und anonymisiert.
Alle durchgeführten Interviews wurden vollständig transkribiert. Da Inhalte im Vorder-
grund der Untersuchung standen, wurde die Darstellung des Gesprächs an die Schriftsprache
angeglichen und dialektale Redewendungen im Transkript geglättet und es wurde ein Post-
Skript zum Interviewpartner angelegt. Alle interviewten Personen wurden pseudonymisiert.
Erstellte Transkriptionen wurden den Interviewpartnern zur kommunikativen Validierung
vorgelegt und daraufhin erfolgte Änderungen wurden in das Transkript eingearbeitet und
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
4. D
atenauswertung
Fragebogen: Für geschlossene Items des Fragebogens wurden mit SPSS zunächst Mittelwerte,
Standardabweichungen sowie Häufigkeiten berechnet. Identische Items im Fragebogen vor
und nach dem Treatment wurden im Anschluss mit Hilfe des Wilcoxon-Tests für nichtpara-
metrische Tests auf signifikante Veränderungen im Leseverhalten, der Lesemotivation, der
Lesehäufigkeit und der lesebezogenen Selbstwirksamkeitserwartung geprüft. Offene Items
wurden nach Fragen sortiert und teilweise quantifiziert (z. B. Lieblingsbücher der Klassen-
bibliothek) sowie inhaltlich strukturiert und in ähnliche Themenblocks gruppiert. In einem
nächsten Schritt wurden so entstandene Gruppen unter neuen Kategorien subsumiert. Das
entstandene Kategoriensystem wurde mit Frequenzanalysen und Mittelwerten der geschlos-
senen Items in Beziehung gesetzt und hinsichtlich der Forschungsfragen interpretiert.
Schriftliche Stellungnahmen: Die Aussagen der Teilnehmer waren bereits durch die gege-
benen Impulse (Aufgaben) vorstrukturiert. Beide Stellungnahmen wurden in ähnlicher Weise
wie der Fragebogen ausgewertet.
Interview: Durch den Leitfaden war das Interview zwar bereits in Themenbereiche ge-
gliedert, doch wurde es in einem ersten Schritt daraufhin durchgesehen, ob andere Themen an
weiteren Stellen des Interviews angesprochen wurden. Nach der inhaltlichen Strukturierung
wurden Gemeinsamkeiten und Unterschiede der Aussagen der Interviewten herausgearbeitet
sowie verschiedene Kategorien, die zu den Ergebnissen der Fragebogen und schriftlichen
Stellungnahmen in Beziehung gesetzt und interpretiert wurden.
Fallbeispiele: In Anlehnung an thematisches Kodieren wurden einzelne Fälle nach be-
stimmten Kriterien ausgewählt und analysiert (criterion sampling). Zur Auswertung dieser
sechs Fallbeispiele wurden alle verfügbaren Daten herangezogen.
Sprachtests: Zunächst wurde versucht, die interne Validität durch die Parallelisierung
der Experimental- und Kontrollgruppen zu erhöhen und personengebundene Störvaria-
blen gering zu halten. Sequenzeffekte wurden durch den relativ großen zeitlichen Abstand
limitiert. Nachdem die drei parallelisierten Experimental- und Kontrollgruppen-Paare auf
Varianzhomogenität überprüft worden waren, wurden die Ergebnisse des C-Tests (Indikator
Sprachkompetenz) und des PET-Leseteils (Indikator Lesekompetenz) mit einer univariaten
Varianzanalyse (Analysis of Variance = ANOVA) mit Messwiederholung berechnet, um sig-
nifikante Veränderungen zwischen Test- und Kontrollgruppen, dem Prä- und Post-Test und
einem Effekt des Treatments feststellen zu können.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Abbildung 1: Forschungsdesign
5. E
rgebnisse
Bezüglich der Forschungsfragen, ob extensives Lesen sich auf die fremdsprachliche Lese-
kompetenz und die allgemeine Sprachkompetenz auswirkt und ob es geschlechtsspezifische
Unterschiede hierzu gibt, zeigte die Untersuchung, dass extensives Lesen zur verbesserten
Lesekompetenz beitrug, dass die allgemeine Sprachkompetenz in zwei der drei Gruppen
signifikant anstieg und Mädchen häufig die besseren Ergebnisse in beiden Bereichen erziel-
ten. Extensives Lesen hatte in der Untersuchung signifikante positive Auswirkungen auf die
Lesemotivation, während die Motivation der Kontrollgruppen kontinuierlich abfiel. Exten-
sives Lesen förderte die Wertschätzung englischer Texte und leistete somit einen Beitrag zur
Lesesozialisation. Tendenziell lasen Mädchen mehr und mit höherer Motivation. Allerdings
ließ die Untersuchung keine eindeutigen Schlussfolgerungen über die Zusammenhänge von
Lesemotivation und Lesekompetenz zu. Erhöhte Lesemotivation hatte nicht unbedingt ein
besseres Ergebnis im Lesetest zur Folge, wie beispielsweise die Ergebnisse vieler Jungen
bestätigten. Umgekehrt konnten vereinzelt verbesserte Leistungen erzielt werden, obwohl
kaum Lesemotivation bestand. Auch ein Zusammenhang von Lesemenge, Lesemotivation
und Leseverstehen reichte nicht als Erklärung für die Ergebnisse der Tests aus.
Obgleich der gewählte multiperspektivische Ansatz der Untersuchung mit seiner Vielzahl
an Erhebungsinstrumenten notwendig erschien, bliebe zu bedenken, ob dies nicht zu einer
Testermüdung bei den Teilnehmern führte. Beispielsweise hätte auf Leseproben und einen
der Fragebogen zur Selbstwirksamkeitserwartung verzichtet werden können. In zukünftigen
Forschungen wäre zu untersuchen, ob sich regelmäßiges extensives Lesen über einen längeren
Zeitraum, beispielsweise über ein Schuljahr hinweg, positiv auf Lese- und Sprachkompetenz
sowie Lesemotivation auswirkt ebenso wie die Zusammenhänge von Lesemotivation und Le-
sekompetenz in der Fremdsprache genauer zu erforschen wären. Kritik an extensivem Lesen
als lediglich input ohne erwarteten output legt Forschungen nahe, die sich mit extensivem
Lesen einschließlich Aufgaben dazu beschäftigen und Auswirkungen auf die Lesekompetenz
und -motivation untersuchen.
Literatur
Biebricher, Christine (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Tübingen: Narr.
Sabine Doff
1. T
hema und Forschungsfragen
Gegenstand der Dissertationsschrift ist der Unterricht in den neueren Fremdsprachen (Franzö-
sisch und insbesondere Englisch) für Mädchen im 19. Jahrhundert in Deutschland. Der Fokus
liegt auf der Methodik des Englischunterrichts an höheren Mädchenschulen bis zum Beginn
des 20. Jahrhunderts; das Phänomen wird im ideengeschichtlichen (Kapitel 1: ‚Ideengeschicht-
liche Grundlagen: Deutsche Entwürfe von Weiblichkeit und Bildung‘), sozialhistorischen (Ka-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
2. Z
usammenstellung der Dokumente
Dieser interdisziplinäre Ansatz spiegelt sich in der Zusammenstellung der Dokumente: Be-
rücksichtigt wurden neben Standardwerken zur deutschen Bildungsgeschichte die gehäuft im
letzten Drittel des 20. Jahrhunderts entstandenen Quellensammlungen zur weiblichen Bil-
dungsgeschichte. Daneben wurden weitere, bis dato nicht in diesem Umfang berücksichtigte
historische Originalquellen in großem Umfang herangezogen. Dazu gehören vorrangig im
letzten Drittel des 19. Jahrhunderts erschienene einschlägige Zeitschriften, u. a. zum Fremd-
sprachenunterricht und zur weiblichen Bildung, sowie Schulprogrammschriften. Bei letzteren
handelt es sich um jährliche Veröffentlichungen von Einzelschulen, die im 17. und 18. Jahr-
hundert ursprünglich das Programm der öffentlichen Prüfung enthielten; ab der Mitte des
18. Jahrhunderts wurde häufig eine wissenschaftliche Abhandlung (z. B. über das Lehren und
Lernen von Fremdsprachen) beigefügt. Seit dem 2. Viertel des 19. Jahrhunderts enthielten
diese Schriften ferner einen Bericht über das vergangene Schuljahr. Bei den Zeitschriften
wurden schwerpunktmäßig diejenigen ausgewählt, die für die Entwicklung des höheren
Mädchenschulwesens von Bedeutung waren. Insgesamt neun Zeitschriften (u. a. ‚Die Lehrerin
in Schule und Haus‘, Leipzig, ab 1849 sowie ‚Die Mädchenschule‘, Bonn: Weber, ab 1888)
Im ersten Schritt wurden die herangezogenen Quellen zunächst nach ihren formalen Merk-
malen (äußere Quellenkritik) sowie nach dem Aussagewert ihres Inhalts (innere Quellen-
kritik) analysiert. Die wichtigsten Analyseschritte der äußeren Quellenkritik waren die Kritik
der Provenienz, Echtheit und Originalität. Bei der inneren Quellenkritik erwiesen sich als
zentrale Analysekriterien der Standpunkt bzw. Horizont der Autor/innen sowie der Kontext
der jeweiligen Quelle.
Der Anspruch bei der Interpretation der Dokumente war, den Zeitgeist der untersuch-
ten Periode zu verstehen sowie die kulturelle Atmosphäre einzuschätzen, um den Unter-
suchungsgegenstand auf diesem Hintergrund adäquat analysieren zu können. Grundlegende
Deutungsmuster für die Interpretation bildeten zwei Prämissen: Erstens wurde dem politi-
schen, ökonomischen und sozialen Bezugsrahmen hohe Bedeutung für die Untersuchung des
Ausschnitts der (weiblichen) Bildungsgeschichte zugewiesen. Im Umkehrschluss gilt, dass
Schul- und Bildungsgeschichte neue Sichtweisen auf politische, ökonomische oder kulturelle
Geschichte ermöglichen. Zweitens wurde eine teleologische Entwicklung von Geschichte de-
zidiert abgelehnt, d. h. es wurde nicht davon ausgegangen, dass Reformen im Fremdsprachen-
unterricht automatisch mit Fortschritt gleichzusetzen sind. Im Umkehrschluss werden zeitlich
frühere Konzepte und Methoden nicht automatisch als defizitär, jüngere nicht automatisch
als überlegen begriffen.
Die Standardwerke zur deutschen Bildungsgeschichte sowie Quellensammlungen zur
weiblichen Bildungsgeschichte wurden zur Kontextualisierung herangezogen, dienten also
insbesondere der ideengeschichtlichen und sozialhistorischen Einbettung des Untersuchungs-
gegenstandes. Es stellte sich dabei heraus, dass erstere das höhere Mädchenbildungswesen
nicht selten stiefmütterlich behandeln und dass letztere – was als korrespondierende Entwick-
lung dazu aufgefasst werden kann – vielfach als Teil der Genderforschung im letzten Drittel
des 20. Jahrhunderts aufgefasst werden können. Dies galt es, bei der Interpretation dieser
Dokumente entsprechend zu berücksichtigen.
Auf der Grundlage des umfangreichen Quellenmaterials kann die Vielschichtigkeit eines
lange gewachsenen und bis heute andauernden historischen Prozesses dargestellt werden.
Interpretiert wurden die Quellen ausgehend von den erläuterten generellen Grundannahmen
sowie von der oben genannten spezifischen These. Letztere diente in einem zyklischen Prozess
im Laufe des Quellenstudiums als Grundlage für die Auswahl und Bewertung von Quellen;
sie wurde parallel dazu immer weiter ausdifferenziert, wenn sich aus den Quellen neue
Erkenntnisse ergaben. Ziel dieses hermeneutischen Vorgehens war es, durch das Zusammen-
spiel von Fragestellung und Quellenarbeit Einsichten in historische Begründungszusammen-
hänge, Denkweisen und Ereignisse zu gewinnen. Als für den Untersuchungsgegenstand be-
sonders lohnenswerte Quellen erwiesen sich die Schulprogrammschriften sowie einschlägige
Zeitschriftenbeiträge. Gerade in letzteren hatten auch die beteiligten Frauen selbst die seltene
Chance, ihren Standpunkt darzulegen.
4. E
rgebnisse
Die den Ausgangspunkt für die Arbeit bildende These wurde bestätigt und konnte ausgewei-
tet werden.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Die Ergebnisse zeigen, dass nicht nur die Inhalte und Lehrpläne, sondern auch die in Schul-
programmschriften und Zeitschriften dokumentierte Didaktik der neueren Fremdsprachen im
19. Jahrhundert eine mitunter erhebliche Abweichung von den dominanten didaktischen An-
sätzen in den klassischen Sprachen zeigten. Diese spezifische, d. h., stark verkürzt gesprochen,
im Wesentlichen auf die mündliche Sprachfertigkeit fokussierte Ausrichtung der Neuspra-
chendidaktik wurde in der Regel an höheren Mädchenschulen von Lehrerinnen unterrichtet,
fernab von staatlicher Regulierung und Normierung. Der Staat zeigte an der Regulierung des
höheren Mädchenschulwesens bis zum letzten Viertel des 19. Jahrhunderts nur sehr geringes
Interesse, was dazu führte, dass Mädchenschulen eine Art didaktisches Experimentierfeld
boten, in dem die Erprobung von Innovationen leichter möglich war als im staatlichen Re-
gelschulsystem für Knaben.
Über die Ausgangsfragen hinaus konnte gezeigt werden, dass die Anforderungen an Lehr-
kräfte in den neueren Sprachen sich sukzessive wandelten (z. B. der wachsende Anspruch an
die Sprachkompetenz der Lehrkräfte). Dieser Wandel begünstigte die während des 19. Jahr-
hunderts vom universitären Studium ausgeschlossenen Frauen in diesem Beruf stark, da sie
anstelle von oder zusätzlich zum Lehrerinnenseminar längere Auslandsaufenthalte vorzugs-
weise in England oder/und Frankreich realisierten. Die Untersuchung legt mit diesem Teil-
ergebnis nahe, dass die neueren Fremdsprachen die Fächer waren, die den Lehrerinnen den
Weg in das höhere (Regel-)Schulwesen ermöglichten.
Somit konnte sowohl in personeller als auch in inhaltlicher Hinsicht eine spezifisch weib-
lich geprägte Neusprachendidaktik nachgewiesen werden.
Durch die ab 1880 einsetzende Neusprachliche Reformbewegung, die nicht wenige mar-
kante Überschneidungen mit dieser weiblichen Tradition des Fremdsprachunterrichts zeigte,
erhielt dieses Konzept eine theoretisch fundierte Grundlegung. Die Ergebnisse legen nahe,
dass beide Strömungen in vielerlei Hinsicht auf das gleiche Ziel – primär die Stärkung der
Mündlichkeit – hinwirkten; inhaltliche Ergänzungen in zentralen Punkten sowie personelle
Überschneidungen (viele Neusprachenreformer waren zumindest zeitweise an höheren Mäd-
chenschulen tätig) ermöglichten eine wirksame Durchsetzung von methodisch-didaktischen
Literatur
Doff, Sabine (2002). Englischlernen zwischen Tradition und Innovation. Fremdsprachenunterricht für
Mädchen im 19. Jahrhundert. München: Langenscheidt.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Susanne Ehrenreich
1. T
hema und Forschungsfragen
Ausgangspunkt der Studie war folgende vorläufige Forschungsfrage: (Inwiefern) Ist das
Fremdsprachenassistenten-Jahr ertragreich für angehende FremdsprachenlehrerInnen? Da
es keine soliden Voruntersuchungen zum Thema gab, war die Durchführung einer explorati-
ven Studie qualitativen Zuschnitts angezeigt. Diese methodologische Entscheidung brachte
recht unmittelbar eine Neuakzentuierung mit sich. Schon die ersten Interviewdaten zeigten
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
deutlich, dass die vorläufige Fragestellung normativ verkürzt, d. h. auf die Relevanz des As-
sistentenjahres für die Lehrerbildung ausgerichtet war. Darüber hinaus mussten jedoch auch
die subjektiven Bedeutungszuschreibungen der Akteure berücksichtigt und aus einer phä-
nomenologischen Perspektive ergänzt werden. Die für die Datenauswertung maßgeblichen
Einzelfragen lauteten daher:
1. Wie stellt sich ein Auslandsaufenthalt als Fremdsprachenassistent/in (FSA) in einem eng-
lischsprachigen Land aus der Perspektive der Beteiligten dar?
2a. Wie bewerten die Beteiligten Ertrag und Auswirkung ihres Auslandsaufenthaltes als
deutsche/r FSA in einem englischsprachigen Land?
2b. Wie sind Ertrag und Auswirkung eines Auslandsaufenthaltes als FSA in einem englisch-
sprachigen Land im Licht der Lehrerbildung zu bewerten?
3. Welche Implikationen birgt die Gegenüberstellung dieser beiden Perspektiven im Blick
auf Ausbildungsinhalte und Struktur der Fremdsprachenlehrerbildung?
Die konzeptuelle Integration der phänomenologischen und der evaluativen Perspektive auf
das Assistentenjahr gelang mithilfe des entwicklungstheoretisch ausgerichteten berufsbio-
graphischen Ansatzes von Terhart (2001). Als Gütekriterien wurden die Kriterien der inter-
subjektiven Nachvollziehbarkeit und der Indikation des Forschungsprozesses angelegt.
2. D
atenerhebung
Für die Erforschung der Wirksamkeit eines Ausbildungsabschnitts wäre die Durchführung
einer Langzeitstudie ideal. Aus Gründen der Machbarkeit war in diesem Fall jedoch eine
Querschnittsuntersuchung angezeigt; die Frage, ob und inwiefern sich die Bewertung des
Ertrags des assistant-Jahres in Abhängigkeit von der jeweiligen Ausbildungsphase unter-
scheidet, wurde über die kriteriengeleitete Zusammenstellung der Untersuchungsgruppe
gelöst. Folgende Strategien wurden hierzu kombiniert: die Berücksichtigung quantitativer
Angaben zur Population, die gezielte und die theoretische Auswahl (vgl. Silverman 2000:
104). Damit bestimmten sechs Kriterien die Auswahl der UntersuchungsteilnehmerInnen:
die Ausbildungs- bzw. Berufsphase zum Zeitpunkt des Interviews, das Geschlecht, das Her-
kunftsbundesland, das Zielland, die subjektive Bewertung der Fremdsprachenassistenz sowie
die Aufenthaltsdauer bzw. frühzeitige Rückkehr. Der Feldzugang erfolgte über ein multiples
Schneeballsystem, bei 22 Befragten war eine theoretische Sättigung erreicht.
Als Datenerhebungsinstrument wurde das Interview gewählt, weil es u. a. eine gewisse
‚Hebammenfunktion‘ der Forscherin bei der Ko-Konstruktion der Daten ermöglicht. Für die
Entwicklung der Interviewform war die Balance zwischen Offenheit und Strukturierung
leitend, zum Einsatz kam daher das ‚teilstrukturierte Leitfadeninterview mit Erzählimpulsen‘.
Zur Kontextualisierung der Interviewsituation wurden vor dem Interview relevante Anga-
ben zur Person erfasst, Informationen zum Interviewverlauf wurden in einem Postskriptum
festgehalten. Der Interview-Leitfaden gliederte sich in eine offene Eingangsfrage nach der
wichtigsten Erfahrung während des assistant-Jahres und in die thematischen Bereiche Per-
son, Sprache, Interkulturelles Lernen, Schule und Unterricht sowie einige Ausblicksfragen.
Die Abfolge der Fragen wurde größtenteils durch die InterviewpartnerInnen bestimmt. Nach
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
vier Pilotinterviews wurde der Leitfaden ohne große Veränderungen für die Gesamtstudie
übernommen. Die Interviewgespräche wurden von der Forscherin über einen Zeitraum von
sieben Monaten durchgeführt und dauerten durchschnittlich je einhundert Minuten.
3. D
atenaufbereitung
Für die Transkriptionsregeln galt das Prinzip der guten Lesbarkeit, wodurch gleichzeitig der
forschungsethische Anspruch einer fairen Repräsentation der Befragten erfüllt wurde. Die
Transkriptionen wurden von der Forscherin durchgeführt; die anonymisierten Transkripte
wurden im Zuge des member check von den Interviewpartnern gegengelesen und anschlie-
ßend in das Textmanagement-Programm MAXQDA importiert.
4. D
atenauswertung
Für das Auswertungsdesign wurden kategorisierende Verfahren (vgl. den Ansatz der Groun-
ded Theory von Glaser/Strauss 1967) mit sequentiellen Analyseverfahren kombiniert. Darü-
ber hinaus wurde nicht nur darauf geachtet, was gesagt, sondern auch darauf, wie etwas ge-
sagt wurde (vgl. Freeman 1996). Die Auswertung erfolgte in folgenden fünf Arbeitsschritten:
1. Materialbezogene Kategorienbildung und Entwicklung einer Inhaltsübersicht: Die inten-
sive Lektüre und Interpretation von zunächst drei Interviewtexten diente der Entwicklung
der Auswertungskategorien. Diese wurden zum einen datenbasiert gebildet, zum anderen
in Auseinandersetzung mit der Forschungsliteratur, dem Interviewleitfaden und dem kon-
zeptuellen Bezugsrahmen der Studie. Ein erstes Netzwerk dieser Kategorien wurde erstellt
und als zusätzliches Arbeitsinstrument wurde ein mehrteiliges Überblicksschema für die
Einzelinterviews entwickelt.
5. E
rgebnisse
Die Erwartungen an das FSA-Jahr einerseits und die retrospektiv erfolgten Interpretatio-
nen prägen als subjektive Relevanzen die Bewertung des jeweils Erlebten. Persönliches tritt
während des Jahres und im Rückblick stark in den Vordergrund, die Fremdsprache – in der
Regel das Hauptmotiv für den Aufenthalt – bekommt in der Gesamterfahrung eine neben-
geordnete Rolle zugewiesen. Der (inter-)kulturelle Bereich bleibt zeitübergreifend von zen-
traler Bedeutung, wird aber von ambivalenten Erträgen bestimmt. Schule und Unterricht
im Zielland geben häufig Anlass zu Enttäuschung. Im Ergebnis zeigt die Studie, dass die
durch Mythen des ‚Sprach- und Kulturbades‘ verklärte Sicht auf den Auslandaufenthalt auf-
zugeben ist. Dieser ist vielmehr als spezifischer Lernort zu begreifen, den es vorzubereiten,
zu strukturieren und zu reflektieren gilt.
Literatur
Johanna Hochstetter
1. T
hema und Forschungsfragen
2. D
atenerhebung
Zur Beantwortung dieser Fragen wurde in der Entwicklungsphase Fachliteratur zu den The-
mengebieten Diagnostik (z. B. Klieme/Leutner 2006; von der Groeben 2003: 7), und hier spe-
ziell Beobachtungsverfahren (z. B. Feeley 2002), und zu mündlichen Kompetenzen im Fremd-
sprachenunterricht (z. B. Europarat 2001) hinzugezogen. Als weitere wichtige Grundlage für
die Entwicklung der Beobachtungsbögen wurden vier Unterrichtsstunden Englischunterricht
an einer Grundschule videografiert; die Lehrkraft war Seminarleiterin für Englischunterricht
in der Grundschule und bereit, Unterricht mit Fokus auf mündliche Rezeptions- und Pro-
duktionsaufgaben zu gestalten. Aus diesen Unterrichtsstunden wurden vier Sequenzen zu
Hörverstehens- und Sprechaufgaben transkribiert. Zwei weitere Videosequenzen wurden aus
dem Projekt E-LINGO1 hinzugezogen. Alle Videosequenzen wurden unter der Fragestellung
ausgewertet, inwieweit mündliche Teilkompetenzen wie z. B. Flüssigkeit oder Aussprache
beobachtbar sind. In mehreren Überarbeitungsschleifen entstand dabei ein Baukastensystem
mit sieben Beispielbeobachtungsbögen.
Als Grundmuster dient für alle Bögen eine Dreiteilung. Im obersten Abschnitt der Bögen
ist Platz für Angaben zum Kind, zum Aufgabentyp (z. B. Rollenspiel, Präsentation) und für
das erwartete verbale oder non-verbale Verhalten des Kindes. Im zentralen Bereich befin-
det sich das Feld ‚Beobachtungen‘. Dieses enthält in Abhängigkeit vom Aufgabentyp Be-
obachtungskategorien mit Deskriptoren auf vier Niveaustufen. Für folgende Beobachtungs-
kategorien wurden Skalen erarbeitet: ‚Aussprache‘, ‚Korrektheit‘, ‚Flüssigkeit‘, ‚Spektrum‘,
‚soziolinguistische Angemessenheit‘ und – für Hörverstehensaufgaben – ‚Korrektheit der
Reaktion‘ sowie ‚Schnelligkeit der Reaktion‘ sowie übergeordnet die Kategorie ‚Lernkom-
petenz‘. Es wurde eine vierstufige Skalierung gewählt, um eine Tendenz zur Mitte oder Zen-
traltendenz zu erschweren und keine Parallelität zur sechsteiligen deutschen Notenskala na-
hezulegen. Im dritten Abschnitt der Bögen befinden sich die beiden Freitextfelder ‚Sonstiges‘
und ‚Fördermaßnahmen‘, in denen besondere Stärken und Schwächen notiert und nächste
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Lernschritte – auch gemeinsam mit dem Kind – geplant und dokumentiert werden können.
Für die Erprobung wurden fünf Grundschullehrerinnen gewonnen, die bis auf eine Multi-
plikatorin für Englisch in der Grundschule arbeiteten und von der Schulrätin angesprochen
worden waren. Nach einem Einführungsworkshop, in dem anhand von Beispiel-Videosequen-
zen das Beobachten geübt worden war, wurden in der Erprobungsphase die Beobachtungs-
bögen sowohl direkt im Unterricht als auch in zwei Workshops mit Videosequenzen erprobt.
Die Erprobungen im Unterricht fanden während des ‚normalen‘ Unterrichts statt. Die Lehr-
kräfte wurden gebeten, Hörverstehens- und/oder Sprachproduktionsaufgaben unterrichtlich
zu initiieren und zu beobachten; Themen und Aufgaben wurden ihnen nicht vorgegeben.
Als Vorgabe für die zu beobachtenden Kinder galt, dass möglichst Schüler und Schülerinnen
verschiedener Leistungsniveaus berücksichtigt werden sollten. Um untersuchen zu können,
inwieweit verschiedene Lehrkräfte Sprachproduktions- und/oder -rezeptionsleistungen ein
und desselben Kindes übereinstimmend beurteilen, wurden die Beobachtungssituationen
im Unterricht der fünf Lehrkräfte videografiert. Durch die Videoaufnahmen konnten alle
fünf Lehrkräfte in zwei gemeinsamen Workshops dieselben Kinder einschätzen. Es liegen
für zwölf beobachtete Kinder von jeder der fünf Lehrkräfte ein Beobachtungsbogen aus der
Einschätzung im Workshop und ein zusätzlicher Beobachtungsbogen von der unterrichtenden
Lehrkraft aus ihrem Unterricht vor.
Zur Beantwortung der zweiten Frage bezüglich der lehrerseitigen Überzeugungen wur-
den sowohl teilstandardisierte Leitfadeninterviews mit jeder einzelnen Lehrkraft zu ihrem
Unterricht geführt als auch Gruppengespräche im Rahmen der Workshops zu Fragen der
Beobachtung und Bewertung einzelner Schüler und Schülerinnen initiiert und als Audio-
Dateien erhoben.
1 E-LINGO war ein Fern- und Kontaktstudiengang zum Frühen Fremdsprachenlernen, der von der Päda-
gogischen Hochschule Freiburg in Kooperation mit der Pädagogischen Hochschule Heidelberg und der
Justus-Liebig-Universität Gießen angeboten wurde.
3. D
atenaufbereitung und Datenauswertung
In der quantitativen Datenanalyse wurden mit Hilfe von Häufigkeitsberechnungen alle Beur-
teilungen zu einem Kind sowie alle Beurteilungen zu einer Kategorie, seien sie im Unterricht
oder im Workshop entstanden, auf ihre Übereinstimmung hin verglichen. Um der Frage nach-
zugehen, ob einzelne Lehrkräfte in ihren Urteilen eine statistisch signifikante Tendenz zur
Milde oder Strenge aufweisen, wurden t-Tests für abhängige Stichproben paarweise für alle
Lehrkräfte sowie eine einfaktorielle Anova gerechnet. Korrelationsberechnungen (Pearsons
r) dienten dazu, Zusammenhänge zwischen den Leistungen einzelner Kinder und der Über-
einstimmung, mit der sie bewertet wurden, zu analysieren.
Zur Beantwortung der zweiten Frage bezüglich der Überzeugungen wurden die Interviews
und Gruppengespräche für die Auswertung in Anlehnung an die Transkriptionsregeln von
Mayring (Mayring 2003: 49) transkribiert und einer qualitativen Inhaltsanalyse unterzogen.
Die Kategorienbildung erfolgte induktiv. Das gesamte Material wurde von zwei Kodiere-
rinnen getrennt voneinander kodiert.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
4. E
rgebnisse
2 Als zufriedenstellend wird eine Übereinstimmung der Bewertungen von mehr als 66 %, als gut von mehr
als 80 % angesehen.
von mindestens einem Teil der befragten Lehrkräfte. Aus den Formulierungen zweier Lehr-
kräfte in den Interviews lässt sich ein Konzept rekonstruieren, nach dem sie als Lehrkräfte
die Kinder umfassend wahrnehmen, ihre Beobachtungen vollständig ‚im Kopf‘ abspeichern
und zu späteren Zeitpunkten wieder abrufen können. Eine detaillierte Dokumentation der
Beobachtungen erscheint ihnen folglich auch nicht zwingend notwendig.
Aus den Ergebnissen kann abgeleitet werden, dass die diagnostische Kompetenz von Lehr-
kräften nicht allein dadurch weiterentwickelt werden kann, dass sie in den Umgang mit
Beobachtungsverfahren eingeführt werden. Neben sprachbezogen-fachlichen Kenntnissen
erscheint es notwendig, auch Kenntnisse über die Grenzen und Probleme von Beobachtungen
zu vermitteln, um zu ermöglichen, dass Konzepte von der ‚Unfehlbarkeit‘ der eigenen Er-
innerung an Beobachtetes reflektiert und hinterfragt werden können. Es ergeben sich erste
Hinweise aus der Studie, dass der Einsatz von Videoaufnahmen in Workshops Lehrkräften
die Möglichkeit gibt, ihre eigenen Wahrnehmungen zu reflektieren.
Literatur
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Europarat (Hg.) (2001). Gemeinsamer europäischer Referenzrahmen für Sprachen: lernen, lehren, beur-
teilen. München: Langenscheidt.
Feeley, Thomas Hugh (2002). Comment on halo effects in rating and evaluation research. In: Human
Communication Research 28(4), 578–586.
Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule: Eine
empirische Studie zum Einsatz von Beobachtungsbögen. Tübingen: Narr.
Klieme, Eckhard/Leutner, Detlev (2006). Kompetenzmodelle zur Erfassung individueller Lernergebnisse
und zur Bilanzierung von Bildungsprozessen: Beschreibung eines neu eingerichteten Schwerpunkt-
programms der DFG. In: Zeitschrift für Pädagogik 52(6), 876–903.
Mayring, Philipp (2003). Qualitative Inhaltsanalyse. Grundlagen und Techniken. 8. Auflage. Weinheim:
Beltz.
Von der Groeben, Annemarie (2003). Verstehen lernen: Diagnostik als didaktische Herausforderung.
In: Pädagogik 55(4), 6–9.
Nicole Marx
1. T
hema und Forschungsfragen
Ziel der experimentellen Studie war es, die Auswirkung eines auf die besondere Lernsitua
tion heutiger Deutsch-als-Fremdsprache-Lernender ausgerichteten Unterrichts zu überprüfen.
Thematisch bewegte sich die Arbeit im Feld der Tertiärsprachendidaktik. Diese basiert auf
Erkenntnissen der Mehrsprachigkeitsforschung und konzipiert einen Unterricht, der beson-
ders auf Lernende einer zweiten oder weiteren Fremdsprache (im Folgenden: Tertiärsprache
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
bzw. L3) ausgerichtet ist. Über die Unterstützung von Erstsprachenkenntnissen, Lernumge-
bung und motivationalen Faktoren hinaus hebt die Tertiärsprachendidaktik die lernfördernde
Wirkung einer früher gelernten L2 hervor, die für wissenserweiternde Strukturen und Wort-
schatz sowie durch Lernerfahrungen gewonnene Strategien der neuen L3 Pate steht.
Ungeklärt war allerdings, ob eine Sensibilisierung für mitgebrachte Lernerfahrungen und
die Interlanguage der L2 erstens möglich und zweitens förderlich ist. Somit fragte die Unter-
suchung danach, ob der mehrfach geforderte Einbezug der L2, die bei DaF-Lernenden heut-
zutage fast ausnahmslos Englisch ist, gewinnbringend für das Lernen des DaF nach Englisch
(DaFnE) genutzt werden könne.
Die übergreifende Fragestellung der Untersuchung lautete: Unterstützt eine besondere
DaFnE-Sensibilisierung das Lernen des Deutschen als L3? Die auf den Erkenntnissen der
bisherigen Forschung basierende Ausgangshypothese besagte, dass sensibilisierte Lernende
ihre Kenntnisse der L2 während der Rezeption eines gesprochenen L3-Textes eher zu nutzen
wissen als nicht sensibilisierte. Da sich der Großteil der bisherigen Tertiärsprachenforschung
mit produktiven Fertigkeiten befasste, sollte sich die Studie der weniger untersuchten sprach-
lichen Fertigkeit des Hörverstehens widmen.
2. D
atenerhebung
identische, parallel laufende Kurse eingeteilt. Die unabhängige Variable stellte der Rückgriff
auf Prinzipien der L3-Didaktik dar: Während die Kontrollgruppe möglichst ohne Einbezug
der L2 die neue L3 lernte, erhielt die Experimentalgruppe einen Sprachunterricht, bei dem
wöchentlich wenige Unterrichtsstunden (etwa 15–20 %) durch einen gezielten DaFnE-Unter-
richt (‚Sensibilisierungsunterricht‘) ersetzt wurden. Die abhängige Variable zu den jeweiligen
Hypothesen stellte dann das Ergebnis bei den unterschiedlichen Messinstrumenten (Hörver-
stehenstests sowie Fragebogendaten) dar.
Um Störfaktoren möglichst gering zu halten, wurden weitere Variablen kontrolliert. Dies
bezog sich auf die Einteilung in die Gruppen (Quotenverfahren mit Balancierung nach Ge-
schlecht, Alter und Herkunftsland), auf die Kursbedingungen (Materialien, Curriculum,
Räumlichkeiten, Zeiten, Diensterfahrung der Lehrerinnen etc.) und auf die Datenerhebung
(während des Regelunterrichts, gleiche aufgenommene Hörtexte, Aufgabenstellungen und
Instruktionen etc.). Auch die als Messinstrumente eingesetzten Hörtexte waren innerhalb der
Kategorien angeglichen, so dass bei Texttyp 2 und 3 (s. u.) der Schwierigkeitsgrad aller zehn
Texte vergleichbar war. (Eine Angleichung des Schwierigkeitsgrads des Texttyps 1 war nicht
sinnvoll, da diese die wöchentliche Lernprogression nachzeichnen sollte).
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Hypothese Messinstrument(e)
1: DaFnE-sensibilisierte Lernende wissen ihr Texttyp 1: dem Niveau der Lernenden ent-
L2-Vorwissen besser zu nutzen und erzielen sprechende Hörverstehenstexte und hohe
daher bessere Testergebnisse bei Aufgaben, Kognatendichte (GER Stufe A1) mit Aufgaben
die ihrem Sprachniveau entsprechen und viele zum selektiven Hörverstehen
L2-Kognaten enthalten.
2: Sensibilisierte Lernende wissen ihre L2- Radio-Nachrichtentexte mit offenen Aufgaben
Kenntnisse beim Hören schwieriger Texte mit zum globalen und selektiven Hörverstehen:
vielen englisch-deutschen Kognaten eher zu Texttyp 2 (Texte mit vielen deutsch-eng-
ihrem Vorteil zu nutzen. lischen Kognaten);
Texttyp 3 (Texte ohne viele deutsch-englische
3: Mit fortschreitender Zeit werden die
Kognaten)
Unterschiede zwischen den beiden Lerner-
gruppen deutlicher.
4: Sensibilisierte Lernende sind sich bewuss- Retrospektive Erklärungen (schriftlich) zu den
ter, welche Vorteile sie aus vorher gelernten vom Lernenden wahrgenommenen Gründen
Fremdsprachen und vorherigen Lernerfahrun- für erfolgreiches Verstehen;
gen mitbringen. qualitative Fragebögen zum Unterricht
Tabelle 1: Hypothesen und Messinstrumente in der Studie
Die Datenerhebung zu allen Hörtexten erfolgte zu den regulären Kurszeiten als Vortest zum
Kursbeginn (Woche 0), für Texttyp 1 wöchentlich während des Intensivkurses (Wochen 1, 2,
3, 4, 5, 6), für Texttyp 2 und 3 alle zwei Wochen (Wochen 2, 4, 6) und schließlich für alle Text-
typen einmalig als Posttest sechs Wochen nach Ende des Intensivkurses (Woche 12).
3. D
atenauswertung
Die Datenauswertung wurde durch zwei unabhängige Rater durchgeführt und der Mittelwert
aus den Ratings zur Datenanalyse verwendet. Für Texttyp 1 wurden Ergebnisse anhand einer
korrekten Antwort auf geschlossene Fragen zum Text berechnet; für Texttyp 2 und 3 gingen
sowohl die Anzahl der verstandenen Satzglieder als auch die Anzahl der aufgegriffenen
Kognaten in die Auswertung ein. Die Antworten zu den Fragebögen und die retrospektiven
Erklärungen wurden eingesammelt und kategorisiert.
Um die Mittelwerte der zwei Gruppen zu vergleichen, wurden unterschiedliche statistische
Verfahren herangezogen. Bei Texttyp 1, bei dem die Texte zu den unterschiedlichen Erhe-
bungszeiten nicht das gleiche Niveau aufwiesen, wurden auf Grund der kleinen Gruppengrö-
ßen non-parametrische Mann-Whitney-U-Tests (ein Test für unabhängige Gruppen-Designs)
vollzogen. Bei den Texttypen 2 und 3 (Nachrichtentexte) sowie bei den Kognatenergebnissen
wurden Varianzanalysen mit Messwiederholung (MANOVAs) verwendet. Beide sehr aus-
sagekräftigen Tests ziehen die Anzahl der beobachteten Fälle in Betracht, was besonders bei
kleineren Gruppengrößen einen α-Fehler zu vermeiden hilft. Zur Überprüfung der MANO-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
4. E
rgebnisse3
3 Aus Platzgründen wird hier auf eine ausführliche Darstellung der Ergebnisse verzichtet; stattdessen wird
exemplarisch von einigen statistischen Ergebnissen berichtet.
Die dritte Hypothese, dass Unterschiede zwischen den zwei Gruppen im Laufe der Er-
hebungszeit größer würden, musste sowohl für Texttyp 2 (F(4;9) = 1,157, p = n.s.) als auch
für Texttyp 3 (F(4;9) = 0,254, p = n.s.) widerlegt werden. Dies könnte auf Mehreres hindeuten,
u. a. darauf, dass fortschreitende Erfahrung mit dem Sensibilisierungsunterricht zwar hilf-
reich ist, aber eventuell weniger bedeutend als die Tatsache, dass ein Auslöser (trigger) zum
Nutzen der L2 bereits früh gesetzt wurde.
Bei der vierten Frage ging es darum, ob sich sensibilisierte Lernende über ihre Vorteile als
Tertiärsprachenlernende bewusster sind als solche, die keinen gezielten DaFnE-Unterricht
erhalten. Unterschiedliche Ergebnisse, die an dieser Stelle nicht referiert werden können,
bestätigten diese Hypothese, zeigten aber auch, dass reflektierte Vorteile v. a. auf der Mikro-
ebene verhaftet bleiben.
So kann geschlussfolgert werden, dass der Sensibilisierungskurs im Vergleich zu einem
herkömmlichen DaF-Unterricht in mehrfacher Hinsicht, insbesondere auf lexikalischer Ebene,
eine positive Auswirkung auf den tatsächlichen Lernerfolg hatte, was sich in den Ergeb-
nissen der Hörverstehenstests, der Retrospektionen und Fragebögen sowie der hier nicht dis-
kutierten Abschlussprüfungen spiegelte. Das unterstützende Potential der L2 wird allerdings
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
erst dann wirksam, wenn Lernenden die Gelegenheit eingeräumt wird, diese zu reflektieren
und zu üben.
Literatur
Marx, Nicole (2005). Hörverstehensleistungen im Deutschen als Tertiärsprache: zum Nutzen eines Sen-
sibilisierungsunterrichts im ‚DaFnE‘. Baltmannsweiler: Schneider Verlag Hohengehren.
Senem Aydın
1. T
hema und Forschungsfragen
Es gibt zahlreiche Untersuchungen zur Frage, weshalb sich Abiturienten für den Lehrerberuf
entscheiden (u. a. Oesterreich 1987; Krieger 2000; Ulich 2004). Bei diesen Untersuchungen
wurde jedoch die Rolle des Fachinteresses kaum differenziert erforscht. In dieser Studie wur-
den deshalb Berufs- und Studienfachwahlmotive von Lehramtsstudierenden in der Anglistik
/Amerikanistik mit einem Fokus auf den geschlechtstypischen Unterschieden untersucht.
Außerdem wurde das Phänomen Berufsentscheidungssicherheit und dessen Gründe hin-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
2. D
atenerhebung
Da es sich bei dem Forschungsthema um ein subjektiv-internes und nicht direkt beobacht-
bares Phänomen handelt, wurde eine teilstandardisierte schriftliche Befragung als Unter-
suchungsmethode eingesetzt. Bei derartigen Forschungsinhalten kann es vorkommen, dass
Probanden Motive angeben, die nicht der Lebenswirklichkeit entsprechen. Um das Ausmaß
der sozialen Erwünschtheit im Antwortverhalten von Probanden möglichst gering zu halten,
wurde die Befragung anonym durchgeführt. Ein weiterer Grund für die Methodenwahl war,
dass eine möglichst große Zahl von Probanden erreicht werden sollte, um repräsentative bzw.
aussagekräftige Ergebnisse zu erhalten. Die Konstruktion eines ausgereiften und selbsterklä-
renden Fragebogens wurde in drei Phasen erreicht. Die Vorbefragung wurde mit Hilfe dreier
offener Fragen zur Berufs- und Studienfachwahl sowie Berufsentscheidungssicherheit kon-
zipiert. Beabsichtigt wurde damit, ausgehend von den freien und spontanen Formulierungen
der Befragten eine konkrete Sammlung von Antwortmöglichkeiten für die Hauptbefragung
zu gewinnen. Die Ergebnisse der Vorbefragung wurden mit Hilfe des Programms MAXQDA
statistisch ausgewertet. Aus den in der Vorbefragung gewonnenen Antworten der Befragten
wurden Motivkategorien der Berufs- und Studienfachwahl gebildet:
3. D
atenaufbearbeitung
Um die erhobenen Daten mit SPSS (Statistical Package for the Social Sciences) auswerten zu
können, müssen die in Papierform vorliegenden Daten in eine Rohdatentabelle nach einem
Kodierplan übertragen werden, womit die Daten sowohl für die quantitative als auch für
die qualitative Analyse zugänglich gemacht werden. Es wird eine Liste aller im Fragebogen
erhobenen Variablen mit den dazugehörigen Ausprägungen bzw. Antwortvorgaben erstellt,
wobei jeder Variablen und jeder Merkmalsausprägung ein spezieller Kode zugeordnet wird.
Die Angaben zu den offenen Fragen wurden in ein digitales Dokument übertragen und in-
haltsanalytisch ausgewertet.
4. D
atenauswertung
Bei der Datenauswertung wurde zunächst anhand des Signifikanztests untersucht, ob zwi-
schen den Variablen des Fragebogens signifikante Korrelationen auftreten. Die signifikanten
Zusammenhänge zwischen den zwei korrelierten Merkmalen wurden innerhalb der inter-
pretativen Auswertung analysiert. Während die Ergebnisse der deskriptiven Analyse lediglich
über die Stichprobe der vorliegenden Studie Informationen geben, bringen die Resultate
eines Signifikanztests die Tendenzen der gesamten Population ans Licht. Um eine übersicht-
liche und den zeitlichen Etappen des Berufsentscheidungsprozesses entsprechende Glie-
derung und somit eine strukturierte Diskussion der umfangreichen Forschungsergebnisse
zu ermöglichen, wurde ein Phasenmodell entwickelt. Nach Ansicht der Forscherin wird ein
Berufswähler in der Vorentscheidungsphase von extrinsischen und intrinsischen Gründen
bei seiner Berufswahl beeinflusst. Im Anschluss daran entscheidet er sich entweder direkt für
eine Tätigkeit oder testet erst alternative Berufe (Entscheidungsphase). Nachdem die Person
ihre Wahl getroffen hat, kann sie entweder mit ihrer Entscheidung zufrieden sein und in der
Tätigkeit verbleiben oder unzufrieden sein und eine Alternative (Nachentscheidungsphase)
suchen.
5. Ergebnisse
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
die keineswegs Lehrer werden wollten, war bei den Männern ebenfalls höher als bei den
Frauen.
Literatur
Kiel, Ewald/Pollak, Guido/Eberle, Thomas (2007). Lehrer werden ist nicht schwer …?! Die problemati-
sche Studienwahl von Lehramtsstudierenden. In: Pädagogik 59(9), 11–15.
Krause, Andreas/Dorsemagen, Cosima (2007). Ergebnisse der Lehrerbelastungsforschung: Orientierung
im Forschungsdschungel Verlag für Sozialwissenschaften. In: Rothland, Martin (Hg.). Belastung und
Beanspruchung im Lehrerberuf. Wiesbaden: Verlag für Sozialwissenschaften, 52–80.
Krieger, Rainer (2000). Berufswahlmotive und Erziehungsvorstellungen im Wandel: Generationenver-
gleiche bei Lehramt-Studierenden. In: Krampen, Günter/Zayer, Hermann (Hg.). Psychologiedidaktik
und Evaluation II. Bonn: Deutscher Psychologen Verlag, 239–255.
Nieskens, Birgit (2009). Wer interessiert sich für den Lehrerberuf – und wer nicht? Berufswahl im
Spannungsfeld von subjektiver und objektiver Passung. Göttingen: Cuvillier.
Oesterreich, Detlef (1987). Die Berufswahlentscheidung von jungen Lehrern. Berlin: Max-Planck-Institut
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
für Bildungsforschung.
Özkul, Senem (2011). Berufsziel Englischlehrer/in. München: Langenscheidt.
Ulich, Klaus (2004). Ich will Lehrer/in werden: Eine Untersuchung zu den Berufsmotiven von Studie-
renden. Weinheim: Beltz.
Michael Schart
1. T
hema und Forschungsfragen
Die Studie beschäftigt sich mit dem subjektiven Verständnis des Projektunterrichts bei Leh-
renden für Deutsch als Fremdsprache. Sie wurde im Rahmen von Sommerkursen an deut-
schen Universitäten durchgeführt. Der Forschungsprozess zielt dabei auf ein verstehendes
Nachvollziehen jener Überlegungen, auf die Lehrende ihr Handeln im Unterricht stützen,
nicht aber auf die Untersuchung unterrichtlicher Praxis selbst. Forschungsleitend waren die
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
folgenden Fragestellungen:
1. Was meinen Lehrende konkret, wenn sie von Projektunterricht sprechen? Welche subjekti-
ven Sichtweisen zu Einsatzmöglichkeiten, Ablauf und Effizienz von Projektarbeit werden
formuliert?
2. Welche typischen Argumentationslinien und -muster lassen sich aufzeigen?
3. Welche Rolle spielen die jeweiligen institutionellen Rahmenbedingungen und Entschei-
dungsmaximen?
4. Welche Rückschlüsse lassen sich auf Möglichkeiten und Grenzen von Projektarbeit im
Kontext der Sommerkurse an deutschen Universitäten (bzw. vergleichbarer Kursformen)
ziehen?
5. Welche Konsequenzen ergeben sich für die wissenschaftlichen Diskussionen um den Pro-
jektunterricht einerseits und die Aus- und Fortbildung von Lehrenden andererseits?
2. D
atenerhebung
Wie der Titel der Arbeit verdeutlicht, stehen qualitative Verfahren der Datenproduktion und
-analyse im Zentrum des Forschungsprozesses. Genauer betrachtet verfolgte die Studie jedoch
einen mixed-methods-Ansatz: Zunächst wurde eine Fragebogenerhebung durchgeführt, deren
Ergebnisse dann den Ausgangspunkt für problemorientierte, halbstandardisierte Interviews
darstellten. Die Fragebögen enthielten offene und geschlossene Items und wurden – in zwei
unterschiedlichen Versionen – zunächst an die Organisatorinnen und Organisatoren der Som-
merkurse, darauffolgend auch an die dort tätigen Lehrenden verschickt. Dieses Vorgehen
erleichterte es, direkte Kontakte mit den Personen im zu untersuchenden Feld aufzubauen.
Die Ergebnisse der Fragebogenerhebung bildeten zugleich eine wichtige Grundlage für die
Konstruktion des allgemeinen Interviewleitfadens sowie die Formulierung individueller Fra-
gestellungen für jedes der Interviews. Nicht zuletzt ergaben sich aus den Fragebögen bereits
Antworten auf einzelne Forschungsfragen. Für die Studie wurden 13 Interviews mit 17 Leh-
renden geführt. Sie dauerten zwischen 60 und 120 Minuten.
3. D
atenaufbereitung
4. D
atenauswertung
Die qualitative Datenanalyse erfolgte in mehreren Schritten. Als Ergebnis einer initiierenden
Textarbeit an den Transkriptionen wurden zunächst vertiefende Einzelfallinterpretationen
für alle Interviews vorgenommen. Die Grundlage dafür bildeten die Prinzipien der inhaltlich
strukturierenden qualitativen Inhaltsanalyse. Bei dieser formulierenden Interpretation spie-
len genaue Wiedergaben von Textpassagen eine hervorgehobene Rolle. Die Interviewpart-
nerinnen und -partner kommen in den Darstellungen so viel wie möglich selbst zu Wort und
ihre Kernaussagen dienen als Ankerpunkte für eine dichte Beschreibung des Falls. In diesen
Einzelfalldarstellungen geht es vor allem darum, eine emische Perspektive einzunehmen,
individuelle Denk- und Erklärungsweisen zu verstehen und die Heterogenität subjektiver
Sichtweisen zum Projektunterricht aufzuzeigen.
Im Unterschied dazu strebt der sich anschließende Schritt der Datenauswertung – die ty-
penbildende Inhaltsanalyse – danach, die Vielfalt der Sichtweisen in Strukturen einzubinden,
Ambivalenzen aufzulösen und die Betrachtung auf eine abstraktere Ebene zu führen. Mit
Hilfe einer QDA-Software wurde das gesamte Textmaterial auf wiederkehrende Themen hin
betrachtet und einzelne Passagen wurden durch Kodierung einem oder mehreren Themen
zugeordnet. Die Kodierungen ergaben sich einerseits deduktiv aus dem Aufbau des Inter-
viewleitfadens, andererseits wurden sie aber auch im Prozess der Analyse induktiv aus dem
Textmaterial gebildet.
Die Datenanalyse vollzog sich durch den thematischen Vergleich der gebildeten Kategorien
und das Herausarbeiten von multidimensionalen Beziehungsmustern zwischen verschiedenen
Textpassagen. Die Orientierung wechselte also in dieser Phase der Datenauswertung von den
einzelnen Fällen zu den Themen und vom Konkreten zum Allgemeineren. Prinzipiell folgte
der Analyseprozess zwar den vier grundlegenden Stufen der Typenbildung (Erarbeiten von
relevanten Vergleichsdimensionen, Gruppieren der Fälle anhand empirischer Regelmäßig-
keiten, Analyse inhaltlicher Sinnzusammenhänge und Charakterisierung der gebildeten Ty-
pen), doch der thematische Vergleich wurde nicht auf die Forschungssubjekte selbst bezogen,
sondern auf einzelne ihrer Ansichten, Probleme und Konzeptionen. Typisiert wurden somit
Formen der Wahrnehmung und des Erklärens, zu denen sich die einzelnen Interviewpart-
nerinnen und -partner in wechselnden Kombinationen zuordnen lassen. Als Ergebnis der
komparativen Analysen konnten die überindividuellen Typen zu Argumentationslinien und
-mustern zusammengesetzt werden.
Die Auswertung der quantitativen Daten beschränkte sich auf eine deskriptive statistische
Analyse. So wurden vor allem die Mittelwerte betrachtet, um Gemeinsamkeiten und Un-
terschiede zu verdeutlichen. Die Stärke bzw. die Schwäche der Zusammenhänge zwischen
einzelnen Items wurde mit Hilfe des Korrelationskoeffizienten untersucht. Die Ergebnisse
wurden abschließend mit den Erkenntnissen aus der qualitativen Inhaltsanalyse verknüpft.
5. E
rgebnisse
Die Studie verdeutlicht, dass die individuellen Projektbegriffe ihren Ausgang im beruflichen
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
andere Hierarchie und ergänzen diese immer mit Faktoren, die nur für ihren Fall von Interes-
se sind und die Bedeutung des jeweiligen Kontextes für die subjektiven Wahrnehmungen
herausstellen. Vor diesem Hintergrund geht die Ergebnisdarstellung abschließend auf theo-
retische Implikationen ein und bringt die Frage der Aus- und Fortbildung zur Diskussion
(Forschungsfrage 5). Da die individuellen Interpretationen der Projektidee im beruflichen
Selbstverständnis der Lehrenden wurzeln, sind sie eng mit dem Wertesystem der betreffenden
Person verknüpft. Das lässt sie relativ resistent gegen abstrakte Innovationsbemühungen er-
scheinen. Die Studie veranschaulicht somit am Beispiel des Projektunterrichts, wie die Reich-
weite didaktischer Modelle durch die Subjektivität der Lehrenden begrenzt wird. Sie bietet
damit weitere Evidenz für die Notwendigkeit reflexiver und erfahrungsorientierter Modelle
der Aus- und Fortbildung von Lehrenden.
Literatur
Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Barbara Schmenk
1. T
hema und Forschungsfragen
Die Arbeit widmet sich der Rolle und Bedeutung von gender in der Erforschung des Fremd-
sprachenlehrens und -lernens. Das Geschlecht als Gegenstand der Fremdsprachenforschung
spielte zum Zeitpunkt der Entstehung der Arbeit nur eine marginale Rolle, lediglich der ver-
breitete Glaube an eine weibliche Überlegenheit beim Fremdsprachenlernen war bemerkens-
wert. Wenn das Geschlecht überhaupt berücksichtigt wurde, dann nur als ein ‚Faktor‘, der
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
2. D
atenerhebung
Das für die Arbeit zusammengestellte Korpus von Arbeiten aus der Fremdsprachenforschung
besteht aus all denjenigen mir zugänglichen internationalen Publikationen zur Rolle des Ge-
schlechts beim Fremdsprachenlernen in englischer und deutscher Sprache, die seit den 1950er
Jahren veröffentlich wurden (mehrheitlich empirische Studien zum Einfluss des Geschlechts
auf Sprachlernprozesse und -erfolg) sowie Überblicksdarstellungen, die sich u. a. dem Thema
Geschlecht beim Fremdsprachenlernen widmen.
Die Studie ist in ihrem Charakter eine Metastudie, da sie sich nicht direkt mit empirischen
Daten befasst, sondern mit dem Korpus vorhandener Arbeiten bzw. Publikationen. Derglei-
chen Metastudien existieren beispielsweise in der Psychologie, waren bis dato aber lediglich
quantitativer Art, d. h. es wurden Statistiken erstellt, die Einzelstudien und ihre Daten jeweils
berücksichtigten und die gleich einer Sammelstatistik eine Gesamttendenz errechneten. Für
meine Arbeit erwies sich eine solche quantitative Metastudie allerdings als nicht hinreichend,
da sie lediglich die Befunde von Studien zur Geschlechtsspezifik en gros akzeptiert hätte. Die
Sichtung der vorhandenen Forschungsbefunde zeigte jedoch, dass diese sehr heterogen sind
und quantitative Metadaten entsprechend inkonsistent waren und weiterer Erklärungen und
differenzierter Betrachtungen bedurften.
Die Heterogenität bzw. Widersprüchlichkeit der Forschungsergebnisse zum Faktor Ge-
schlecht machte vielmehr eine qualitativ-interpretative Herangehensweise erforderlich, die
es ermöglichte, das Zustandekommen bestimmter empirischer Daten, Befunde und Interpre-
tationen zu ermitteln. Für die Studie wurden deshalb neben der Darstellung der Ergebnisse
in diesem Forschungsbereich auch detaillierte Analysen von insgesamt vier Einzelstudien
vorgenommen (jeweils zwei zu den unterschiedlichen Geschlechtskonzeptionen anhand von
sex bzw. gender), um die jeweils zugrunde liegenden Argumentations- und Interpretations-
muster freizulegen und zu ermitteln, wie die Kategorie Geschlecht im Kontext von Fremd-
sprachenlernprozessen konzeptualisiert wird und welche Bedeutungen ihr jeweils beigemes-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
sen werden.
3. D
atenauswertung und -interpretation
Mit Hilfe der Analysekategorien der Gender Studies und speziell im Anschluss an Foucaults
Diskursbegriff bestand die Aufgabe darin, den in der Fremdsprachenforschung etablierten
Geschlechterdiskurs genauer zu analysieren, um zu ermitteln, wie dort bestimmte ‚Wahr-
heiten‘ zustande kommen bzw. konstruiert werden. Statt das Geschlecht als eine empirische
oder gar biologische Gegebenheit zu setzen, sollte es als diskursiv konstruierte Kategorie
erfasst werden, die jeweils in Forschungsarbeiten geschaffen und unter Rekurs auf bestehende
Diskurse (re-)produziert wird. Zu diesem Zweck wurden die verschiedenen Studien jeweils
daraufhin untersucht (S. 134),
• was über ‚Geschlecht‘ ausgesagt wird (Wird von einem biologischen Konzept von Ge-
schlecht als sex ausgegangen oder von einem eher soziokulturellen Konzept im Sinne von
gender? Ist die Studie von vornherein auf die Messung von Geschlechtsspezifika angelegt
oder erweisen sich solche erst als Nebenprodukt? Wenn ja, wie werden diese erklärt?
Welche Daten wurden genau erhoben, welche statistisch signifikanten Ergebnisse wurden
ermittelt, wie werden diese erklärt und begründet?);
• was unausgesprochen vorausgesetzt wird (Wie wird sex bzw. gender operationalisiert, was
wird dabei über die Zweigeschlechtlichkeit angenommen, ohne dass es explizit thematisiert
bzw. gemessen wird? Viele Erklärungen in Studien erweisen sich bei näherer Betrachtung
als reine Behauptungen über Geschlechtsspezifika, die auf inferierten Annahmen über
Weiblichkeit und Männlichkeit basieren, die nicht in der betreffenden Studie gemessen
wurden);
• wo, wie und aus welchem Grund die Aussagen über ‚Geschlecht‘ innerhalb der Ausfüh-
rungen eingebunden sind;
4. E
rgebnisse
Die Untersuchung hat gemäß ihrer doppelten Perspektive sowohl Ergebnisse im Sinne ei-
ner state-of-the-art Zusammenschau der Forschungsergebnisse im Bereich Geschlecht und
Fremdsprachenlernen hervorgebracht als auch darüber hinaus Prinzipien der Beschaffenheit
des Geschlechterdiskurses in der Fremdsprachenforschung sichtbar gemacht, die sich auch
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
in anderen Disziplinen und Kontexten finden. Insofern konnten viele Befunde aus den Gen-
der Studies auch für die Fremdsprachenforschung bestätigt werden. Darüber hinaus wurde
deutlich, wie sich der Glaube an Geschlechtsspezifika (und nicht die empirisch erhobenen
Daten) auch auf die Theoriebildung der Fremdsprachenforschung auswirkt. Das Geschlecht
wird zum sinnbildenden Zentrum in Argumentationen zum vermeintlich geschlechtsspezi-
fischen Fremdsprachenlernen, so dass man meist unbemerkt implizite Modelle des Sprachen-
lernens konstruiert, die mit den Einsichten der Fremdsprachenforschung oft wenig zu tun
haben.
• Feminisierung und Empirie: Fakten und Mythen
Empirische Forschung zum Geschlecht ist zum Zeitpunkt der Entstehung der Arbeit primär
darauf gerichtet, Geschlechtsspezifika zu bestimmen. Man geht damit implizit davon aus,
dass das Geschlecht ein Faktor ist, der zu unterschiedlichen Lernweisen, Haltungen oder
Erfolgen führt. Forschungsdesigns, die auf dieser Annahme beruhen, können deshalb nur
die Existenz dessen bestätigen, was schon a priori gesetzt wurde: dass es zwei unterschied-
liche Gruppen von Lernenden gibt, männliche und weibliche. Empirische Erhebungen
bestätigen diese klare Unterscheidbarkeit jedoch nicht, gleich, ob die Mittelwerte weibli-
cher Probanden höher liegen oder nicht. In der Interpretation dieser Daten wird jedoch
grundsätzlich davon ausgegangen, dass die Gruppe der männlichen Lernenden distinktive
Merkmale aufweist (die stereotyp männlichen Attribute wie Dominanz, Wettbewerbs-
orientierung, analytisches Denken, Aggressivität), die sie von der Gruppe der weiblichen
Lernenden unterscheidet (denen wiederum stereotyp weibliche Attribute zugeschrieben
werden wie Einfühlsamkeit oder Kooperativität). Im Ergebnis werden so die heterogenen
empirischen Daten vereinheitlicht und pauschal interpretiert zugunsten von Thesen zu
einem besseren Lernergeschlecht (sei dies weiblich der männlich) oder zu geschlechtsspezi-
fischem Sprachenlernen. Diese Thesen erweisen sich als Resultate einer self-fulfilling pro-
phecy, was man auch als Mythenbildung bezeichnen kann, die sich im Alltag fortwährend
zu bestätigen scheint und die in der Forschung ungeprüft übernommen wird.
tieren und deren Wahrheit somit auch in der Fremdsprachenforschung wiederum bestätigt
wird.
Literatur
Torben Schmidt
1. T
hema und Forschungsfragen
Während Lernsoftware als gängiges Musterbeispiel für individualisiertes Lernen gilt, wurde
in dieser Studie der folgenden bisher kaum beachteten Frage nachgegangen: Inwieweit kann
Selbstlernsoftware entgegen dem intendierten Verwendungszweck im Kontext individuali-
sierten Übens eingesetzt werden, um gemeinsames Lernen im Klassenzimmer voranzutreiben
und eine weitergehende Ausbildung der sprachlichen Fertigkeiten in einem kommunikativen
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
2. D
atenerhebung
Die Datenerhebung wurde in vier siebten Klassen mit insgesamt 127 Schülerinnen eines
Mädchengymnasiums durchgeführt. Im Sinne der Methoden- und Perspektiventriangulation
wurden unterrichtliche Handlungen und Interaktionen erfasst. Zu Beginn wurde zur Klärung
der Ausgangslage zunächst ein Anfangsfragebogen für die beteiligten Schülerinnen eingesetzt,
dessen Fokus insbesondere auf Art und Umfang der Computernutzung zu Hause, Vorerfah-
rungen der Schülerinnen mit Englisch-Lernsoftware, Umfang und Art der Computernutzung
im schulischen Kontext sowie auf Erfahrungen mit kooperativen Lern- und Arbeitsformen
im Englischunterricht lag. Ein Anfangsfragebogen für die vier beteiligten Lehrkräfte, der vom
Aufbau und den Inhalten her dem Schülerinnenfragebogen ähnelte, hatte insbesondere die
bisherige unterrichtliche Mediennutzung der Lehrkräfte (allgemeine Einstellungen zur Com-
puternutzung, Art und Umfang des Einsatzes, besuchte Fortbildungen etc.) als Schwerpunkt.
Im Rahmen der Datenerhebung während des Unterrichts wurde dann im Laufe des ge-
samten Schuljahres in den vier teilnehmenden Klassen in insgesamt 50 Unterrichtsstunden
videographiert. Dabei wurde die Software zu Übungszwecken (Vokalen, Grammatik, Hör-
verstehen) oder als inhaltlicher Impulsgeber (z. B. Arbeit mit Hörtexten im Programm als
vorbereitende Aktivität für weitere Unterrichtsaktivitäten) eingesetzt. Per Zufallssampling
wurde regelmäßig jeweils ein Schülerinnenpaar bei der Bearbeitung der Softwareübungen
videographiert. Parallel dazu wurde das Bildschirmgeschehen mit der Bildschirmaufzeich-
nungssoftware Camtasia (TechSmith) aufgezeichnet. Darüber hinaus wurden unterrichtliche
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Vorbereitungs-, Begleit- und Folgeaktivitäten zur Softwarearbeit (z. B. die Entwicklung und
Präsentation mündlicher und schriftlicher Produkte) ebenfalls filmisch dokumentiert. Vom
Forschenden erstellte Feldnotizen dienten als ergänzende Quelle.
Außerhalb des Unterrichts wurden zu thematisch relevanten Aspekten und Bezug neh-
mend auf konkrete Unterrichtssituationen regelmäßig mit den Schülerinnen und Lehrkräften
leitfadengestützte, retrospektive Interviews (20 Interviews mit Schülerinnen und 10 Inter-
views mit Lehrkräften, Dauer jeweils ca. 15 Min.) durchgeführt. Außerdem führten pro
Klasse jeweils drei Schülerinnen ein Lerntagebuch; insgesamt wurden dabei ca. 100 Lern-
tagebucheinträge erstellt. Die Phase der Datenerhebung wurde am Ende des Schuljahres mit
Abschlussfragebögen für die Lehrkräfte bzw. für die Schülerinnen sowie einem retrospektiven
Gruppeninterview mit den vier Lehrkräften abgeschlossen.
3. D
atenaufbereitung
4. D
atenauswertung
Die Transkripte der Videoaufzeichnungen der Partnerarbeitsphasen mit der Software stellten
die für die Untersuchung zentralen Daten dar. Dabei wurde im Zuge der Datenauswertung
zunächst ausgehend von den Forschungsfragen ein grober Kodierungskatalog entwickelt,
der im weiteren Verlauf des Kodierungsprozesses sukzessive erweitert und verfeinert wurde.
Ziel dieses Vorgehens war es, die erhobenen Videodaten der Partnerarbeit am Computer
zu codieren, zu kategorisieren und insgesamt häufig auftretende Phänomene und typische
Abläufe zu identifizieren. Insgesamt wurden in fünf Hauptkategorien 48 Codes definiert, die
dann wiederum teilweise in weitere Untercodes aufgeteilt wurden. In der Hauptkategorie B
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
5. E
rgebnisse
vierten die verbalen Auseinandersetzungen mit den Programminhalten zwischen den ge-
meinsam arbeitenden Lernenden, wirkten motivations- und konzentrationssteigernd und
bewegten die Lernenden insgesamt zu einem gezielten Gebrauch der Fremdsprache.
• Die Integration der Selbstlernsoftware in den Unterricht veränderte maßgeblich die Lehrer-
rolle: Die Lehrkraft wurde als sprachlicher Experte, Hilfs- und Bewertungsinstanz zu-
rückgedrängt und agierte eher als Moderator, Organisator und Experte im Hintergrund.
Gleichzeitig wurde die Lehrkraft als technischer Experte gefordert, der diverse Hard- und
Softwareprobleme lösen musste.
Literatur
Schmidt, Torben (2007). Gemeinsames Lernen mit Selbstlernsoftware im Englischunterricht – Eine empi-
rische Analyse lernprogrammgestützter Partnerarbeitsphasen im Unterricht der Klasse 7. Tübingen:
Narr.
Götz Schwab
1. T
hema und Forschungsfrage
Ausgangspunkt der Arbeit ist die Frage nach interaktionalen Prozessen im Fremdsprachen-
unterricht mit lernschwachen und/oder benachteiligten Schülerinnen und Schülern, wie man
sie insbesondere in Hauptschulbildungsgängen findet. Der Fokus liegt dabei auf der Lehrer-
Schüler-Interaktion und den damit verbundenen Partizipationsstrukturen im Englischunter-
richt.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
2. D
atenerhebung
Die Datenerhebung erfolgte insbesondere durch digitale Video- und Audiomitschnitte des
Unterrichts im Abstand von vier bis sechs Wochen. Es wurde bewusst nur eine Kamera
eingesetzt, um die Unterrichtsatmosphäre nicht zu sehr zu strapazieren. Bewährt hat sich die
parallele Audioaufnahme mit einem zusätzlichen Gerät in zentraler Position. Damit konnten
Schwierigkeiten bei der Verständlichkeit von Schülerbeiträgen reduziert werden. Zu jeder
Aufnahme wurden Feldnotizen angefertigt. Die Erhebung war auf eine Klasse beschränkt
und erstreckte sich über zwei Schuljahre in den Klassenstufen 8 respektive 9. Sie kann somit
als explorative Einzelfall- bzw. Longitudinalstudie bezeichnet werden.
Bei der Auswahl der Klasse wurde darauf geachtet, dass neben der zielsprachlichen Kom-
petenz der Lehrkraft auch die unterrichtliche Interaktion und hier vor allem das verbale Enga-
gement auf Schülerseite deutlich wird, was eher in höheren Klassen zu finden ist. Diesbezüg-
lich weist das Korpus eine große Bandbreite an beispielhaften Sequenzen auf, die zweifellos
auch für andere Lerngruppen und andere Unterrichtssettings von Bedeutung sein können.
Um ein möglichst natürliches Setting abzubilden, wurde auf jegliche Form der Beeinflussung
von unterrichtlichen Inhalten verzichtet.
Insgesamt konnten 13 Aufnahmen gemacht werden. Eine weitere Aufnahme wurde von
den Schülern selbst erstellt, umfasst aber nur einen Teil der Gruppe (5 Schüler), welche einen
Zusatzunterricht für bessere Lerner besuchten. Damit befindet sich die Untersuchung quan-
titativ leicht über dem, was Seedhouse (2004) als durchschnittliche Anzahl an erhobenen
Unterrichtsstunden in konversationsanalytischen Arbeiten angibt (5 bis 10 Stunden). Die
Gesamtzeit der Aufnahmen beträgt 8 Zeitstunden und 33 Minuten.
Die Rolle des Videografen kann als Beobachter ohne direkte Aufgabe oder, wie Friedrichs
(1990: 97) es nennt, „observer-as-participant“ bezeichnet werden. Die Anwesenheit im Unter-
richt beschränkte sich somit rein auf die Aufnahmetätigkeit.
Um weitere Einblicke in die Klassen- und Lernsituation zu erlangen wurden mit den
Schülern Leitfadeninterviews und mit der Lehrkraft ein retrospektives (stimulated recall)
Interview geführt.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
3. D
atenaufbereitung
4. D
atenauswertung
sichten in unterrichtliche Interaktionsabläufe, wie sie wohl kaum mit einer anderen Methode
möglich wären.
Die identifizierten Sequenzen ließen sich im Zuge der Analyse ordnen und zu so genannten
Kollektionen zusammenfassen. Die verwendete Software Transana ermöglichte dabei nicht
nur das gleichzeitige Abspielen der Videos und synchrone Betrachten der Transkripte, sondern
auch eine Einordnung der Sequenzen bzw. Teilsequenzen in das generierte Kategoriensystem.
Neben der Gesprächsinitiation durch Lehrer oder Lerner schließt dies umfassendere Sequenz-
typen in der Lehrer-Schüler-Interaktion, unterrichtliches Reparaturverhalten (‚Korrektur‘),
aber auch sprachliche Merkmale, die für die Partizipationsgestaltung auf Schülerseite relevant
sind, mit ein. Innerhalb der Kategorien wurden Ankerbeispiele ausgewählt und ausführ-
lich diskutiert. Aufgrund der Komplexität der einzelnen Sequenzen mussten diese z. T. in
Teilsequenzen untergliedert und unter verschiedenen Gesichtspunkten interpretiert werden.
Die Interviewdaten wurden kategorisiert und in den Analyseprozess eingebunden, indem
sie den Unterrichtssequenzen gegenübergestellt wurden. Rückblickend lässt sich jedoch sagen,
dass dieser Schritt nur wenig zum besseren Verständnis des unterrichtlichen Handelns bei-
getragen hat. Eine gesprächsanalytische Herangehensweise scheint vielmehr ausreichend zu
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
5. E
rgebnisse
die institutionelle Konversation stark reglementiert ist, ergeben sich doch immer wieder
Möglichkeiten der stärkeren Partizipation von Schülerinnen und Schülern, auch wenn die
linguistischen Kompetenzen in der Zielsprache klar beschränkt sind. Entscheidend hierbei
ist das kommunikative Geschick der Lehrkraft, gerade in der den Fremdsprachenunterricht
dominierenden direkten Lehrer-Schüler-Interaktion.
Literatur
Deppermann, Arnulf (2001). Gespräche analysieren. Eine Einführung. Opladen: Leske und Budrich.
Friedrichs, Jürgen (1990). Methoden empirischer Sozialforschung. Opladen: Westdeutscher Verlag.
Garfinkel, Harold/Sacks, Harvey (1970). On formal structures of practical action. In: McKinney, John C./
Tiryakian, Edward A. (Hg.). Theoretical Sociology. New York: Appleton-Century-Crofts, 337–366.
Markee, Numa/Kasper, Gabriele (2004). Classroom talks: An introduction. In: The Modern Language
Journal 88(4), 491–500.
Schwab, Götz (2009). Gesprächsanalyse und Fremdsprachenunterricht. Landau: Verlag Empirische
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Pädagogik.
Seedhouse, Paul (2004). The Interactional Architecture of the Language Classroom: A Conversation
Analysis Perspective. Oxford: Blackwell.
Selting, Margret/Auer, Peter/Barden, Birgit/Bergmann, Jörg R./Couper-Kuhlen, Elizabeth/Günthner,
Susanne/Meier, Christoph/Quasthoff, Uta M./Schlobinski, Peter/Uhmann, Susanne (1998). Ge-
sprächsanalytisches Transkriptionssystem (GAT). In: Linguistische Berichte 173, 91–122.
1. T
hema und Forschungsfragen
In der Arbeit ging es zum Ersten darum, eine wissenschaftlich fundierte und praxisorientierte
Definition von Lernerautonomie beim Fremdsprachenlernen zu erarbeiten. Auf deren Basis
wurde zum Zweiten ein Instrument zur Beschreibung von Kompetenzen und Strategien von
Lernenden entwickelt, um Lernende und Lehrende in autonomisierenden Lernprozessen zu
unterstützen. Dieses Instrument, ein dynamisches Autonomiemodell mit Deskriptoren, wur-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
de drittens theoretisch und empirisch von Expertinnen validiert und viertens an Studierenden
und Lehrenden erprobt. Die zentralen Forschungsfragen waren:
1. Wie kann Lernerautonomie beim Fremdsprachenlernen wissenschaftlich begründet und
praxisorientiert definiert und beschrieben werden?
2. Wie können daraus ein Autonomiemodell und Deskriptoren entwickelt werden?
3. Wie können Autonomiemodell und Deskriptoren theoretisch und empirisch validiert wer-
den?
4. Wie können diese Erkenntnisse zum Nutzen von Lernenden und Lehrenden sinnvoll umge-
setzt werden?
2. P
hasen des Forschungsprozesses und Datenerhebung
Phase 1 Ziel: Erarbeitung einer Definition, Festlegung der Grundkomponenten von Lernerauto-
Literaturrecherche und nomie, Ermittlung von Ansätzen für die Entwicklung von Deskriptoren
‑analyse
Ausgangspunkt bildete die Analyse der einschlägigen Literatur, hauptsächlich aus dem
deutsch-, englisch- und französischsprachigen Raum, anhand mehrerer Forschungsfragen:
Wie bzw. anhand welcher Kriterien wird Lernerautonomie insgesamt definiert? Welche Kom-
petenzen werden festgelegt und wie werden sie beschrieben? Welche Entwicklungsstufen von
Lernerautonomie werden genannt? Daraus ergaben sich Grundkomponenten von Lerner-
autonomie sowie Ansätze für die Entwicklung von Deskriptoren für Kompetenzen, Strategien
und Einstellungen von Lernenden.
In Phase 2 wurden die Deskriptoren in Anlehnung an einige Prinzipien der für den Ge-
meinsamen Europäischen Referenzrahmen entwickelten Methode definiert (Europarat 2001:
200–217). In Phase 3 wurden das dynamische Autonomiemodell und die Deskriptoren ent-
wickelt. In Phase 4 (Pilotstudie) wurden die Verfahren und die Instrumente der Hauptstudie
erprobt.
Im Fokus der Phase 5 standen die Entwicklung und Durchführung eines qualitativen Ver-
fahrens für die intersubjektive Validierung des dynamischen Autonomiemodells und der
Deskriptoren. Dadurch sollte über Autonomiemodell und Deskriptoren ein intersubjektiver
Konsens erzielt und somit deren Nachvollziehbarkeit sichergestellt werden.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
3. D
atenaufbereitung und Datenauswertung
Das dynamische Autonomiemodell wurde auf der Basis der Literaturanalyse konzipiert.
Wichtig hierfür waren die Festlegung der Komponenten von Lernerautonomie sowie die
Abbildung ihrer gegenseitigen Beziehungen im autonomen Lernprozess. Die Modellbildung
(Phase 3) erfolgte in mehreren Schritten: Das Modell wurde mehrmals im akademischen Kon-
text vorgestellt und mehrfach überarbeitet.
Die Transkripte der Expertendiskussionen wurden im Hinblick auf verschiedene Leitfragen
in einer qualitativen Inhaltsanalyse untersucht. Darüber hinaus wurden Argumente und Vor-
schläge der Expertinnen kontextualisiert, d. h. zuerst im Kontext der Diskussion, dann anhand
von Hintergrundinformationen über den beruflichen und akademischen Bezugsrahmen der
Expertinnen analysiert, um sie angemessen zu interpretieren und im Hinblick auf die Fra-
gestellung zu gewichten. Dadurch konnte die Validität der Ergebnisse gesichert werden.
Außerdem wurde für die Expertendiskussionen eine Gesprächsanalyse mit dem Ziel durch-
geführt, die Validität des Verfahrens abzusichern und die Rolle der Forscherin in den Dis-
kussionen aufzuschlüsseln und zu reflektieren. In der Gesprächsanalyse wurden die Experten-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
diskussionen in ihrer Gesamtheit auf die Prinzipien gut gelungener Kommunikation hin
analysiert. Darüber hinaus wurden die Beiträge der Diskussionsteilnehmerinnen sowie der
Forscherin auf ihren illokutionären Gehalt hin untersucht (Sprechakttheorie, Searle 1979).
So konnte ein genaues Bild der jeweiligen Diskussionen erarbeitet werden. Ebenso wurden
das kommunikative Verhalten und die Haltung der Forscherin in der Diskussion im Detail
analysiert.
4. E
rgebnisse
Als Ergebnisse liegen zum ersten die Definition von Lernerautonomie, das dynamische
Autonomiemodell und die Deskriptoren vor sowie die Methode für die Entwicklung des
Autonomiemodells und der Deskriptoren. Diese besteht aus einem doppelten Zugang: Die
Erkenntnisse aus einer gezielten Analyse der einschlägigen Literatur (Phase 1) konnten an-
hand nachvollziehbarer Kriterien und Schritte (Phase 2) in ein praxisorientiertes Instrument
umgesetzt werden (Phase 3).
Das Validierungsverfahren diente der Absicherung des Autonomiemodells. Die themen-
und zielorientierten Diskussionen mit Expertinnen erwiesen sich als geeignet, um den in-
tersubjektiven Konsens über das Autonomiemodell und die Deskriptoren zu erlangen. Die
Gesprächsanalyse ermöglichte außerdem einen tiefgreifenden Einblick in kommunikations-
dynamische Aspekte der Expertendiskussionen und unterstrich somit die Validität des Ver-
fahrens: Die Diskussionen konnten als inhaltlich und wissenschaftlich relevant betrachtet
werden. Sie waren sachlich und erfüllten alle wichtigen kommunikativen Merkmale einer
erfolgreichen Diskussion. Durch einen regen, sachlichen und ausgewogenen Austausch führ-
ten die Diskussionen zu einer gemeinsamen Bedeutungskonstruktion und konnten somit als
gemeinschaftlicher Erkenntnisprozess betrachtet werden.
Zum Ergebnis der Forschungsfrage 3 gehört außerdem die Reflexion zur Rolle der Forsche-
rin. Diese wurde zum einen durch die genaue Definition und die Abgrenzung zwischen mei-
ner Aufgabe als Forscherin und als Diskussionsleiterin durchgeführt, zum anderen durch die
Gesprächsanalyse untermauert, insbesondere durch die genaue Aufstellung meiner Sprech-
akte und die Reflexion über meine Haltungen in der Diskussion.
Die Studierenden hielten die Checklisten zur Selbsteinschätzung für ein gutes Instrument
zur Reflexion über den eigenen Lernprozess (Forschungsfrage 4). Sie erreichten dadurch eine
tiefere Bewusstheit über ihre Einstellungen und Kompetenzen sowie einen Überblick über
verschiedene Lernmöglichkeiten. Auch die Lehrenden hielten einen gezielten Einsatz der
Checklisten in autonomiefördernden Lernprozessen für sinnvoll und ertragreich.
Literatur
Europarat, Rat für kulturelle Zusammenarbeit (2001). Gemeinsamer europäischer Referenzrahmen für
Sprachen: lernen, lehren, beurteilen. Berlin: Langenscheidt.
Flick, Uwe (2000). Qualitative Forschung. Theorien, Methoden, Anwendung in Psychologie und Sozial-
wissenschaften. 5. Auflage. Reinbek: Rowohlt.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Grotjahn, Rüdiger (2006). Zur Methodologie der Fremdsprachenerwerbsforschung. In: Scherfer, Peter/
Wolff, Dieter (Hg.). Vom Lehren und Lernen fremder Sprachen: Eine vorläufige Bestandsaufnahme.
Frankfurt/Main: Lang, 247–270.
Searle, John (1979). Expression and Meaning. Studies in the Theory of Speech Acts. Cambridge: Cam-
bridge University Press.
Tassinari, Maria Giovanna (2010). Autonomes Fremdsprachenlernen: Komponenten, Kompetenzen,
Strategien. Frankfurt/Main: Lang.
An mehreren Stellen in diesem Handbuch scheint auf, in welcher Art und Weise die un-
terschiedlichen Kontexte auf die fremdsprachendidaktische Forschung wirken, sei es, dass
bestimmte Forschungsfelder stärker oder weniger stark beachtet werden, sei es, dass die For-
schenden selbst in anderen Kontexten tätig sind. Internationale Entwicklungen beeinflussen
die häufig gewählten Forschungsmethoden oder -themen und die öffentliche Förderung gibt
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Der engste Kontext für die Fachdidaktik einer Fremdsprache im deutschsprachigen Raum ist
die jeweilige Philologie. Anders als an anglo-amerikanischen Universitäten, an denen die
Schwesterdisziplin Applied Linguistics der Sprachwissenschaft oder auch der Psychologie
zugeordnet ist, bestehen an den meisten deutschen Universitäten und den Pädagogischen
Hochschulen enge Verbindungen zwischen der Literatur-, Kultur- und Sprachwissenschaft
einer Philologie und deren zugehöriger Fachdidaktik. Für die fachdidaktische Forschung hat
diese Nähe einige Konsequenzen. Zum ersten zeigt ein Blick auf die Forschungstraditionen (s.
Kapitel 3), dass etwa literatur- und kulturdidaktische Arbeiten im deutschsprachigen Raum
viel häufiger durchgeführt werden als anderswo und dass entsprechende Themen auch mit
der zunehmenden empirischen Ausrichtung der fremdsprachendidaktischen Forschung nicht
an Bedeutung verloren haben. Der innerfachliche Dialog mag diese thematische Ausrichtung
fördern; wichtig ist aber sicher auch, dass die Forscher_innen in der Fremdsprachendidaktik
in der Regel selbst über die Philologien wissenschaftlich sozialisiert wurden und in diesen
Feldern über Kenntnisse verfügen und Interessen verfolgen.
Zum zweiten bestehen latente Beziehungen zwischen Forschungsthemen und -verfahren
in einem fremdsprachendidaktischen Fach und der jeweiligen Philologie, wenn man daran
denkt, dass Forschung anschlussfähig sein soll und fachintern kommuniziert wird. Als stärker
auf ein bestimmtes Praxisfeld gerichtete Disziplinen, nämlich Schule oder Bildungseinrich-
tungen, werden die Fremdsprachendidaktiken in ihrem Fachkontext gelegentlich als zu wenig
theoretisch und ‚wissenschaftlich‘ angesehen, da sie u. a. die Verbesserung der Praxis durch
neue Erkenntnisse zum Ziel haben. Es mag also vorkommen, dass fremdsprachendidaktische
Forschung bewusst so ausgerichtet wird, dass sie im Gesamtfach nicht in dieser Weise kriti-
siert werden kann.
Zum dritten bedeutet die fachliche Anbindung für Fremdsprachendidaktiker_innen aber
auch, dass man mit den aktuellen Entwicklungen der Forschung in der Sprach-, Literatur- oder
Kulturwissenschaft in der entsprechenden Zielsprache konfrontiert wird, was wiederum für
die fachdidaktische Forschung Anregungen liefert. Kennzeichnend für diese Zusammenhänge
sind u. a. erkennbar fachspezifische Prägungen fremdsprachendidaktischer Forschungsschwer-
punkte. Als Beispiele solcher Prägungen seien genannt: Untersuchungen von Unterrichtsdis-
kursen (geprägt durch die Pragmalinguistik), genre-didaktische Forschungen (geprägt durch
die fachspezifische Textlinguistik und Literaturwissenschaft) oder Studien zum kulturellen
Lernen mit Jugendliteratur (geprägt durch fachspezifische Kultur- und Literaturwissenschaft).
Dass sich die romanistische Fachdidaktik der Erforschung der Mehrsprachigkeit zugewandt
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
hat, ist sicher nicht zuletzt dem Umstand geschuldet, dass sich das Fach selbst als konstitutiv
mehrsprachig versteht. Trotz der Nähe zum Fach sind die Fremdsprachendidaktiken jedoch
selbständige Wissenschaftsdisziplinen, die genuine Forschungsgegenstände bearbeiten. Ihre
Aufgabe ist es folglich auch nicht, fachwissenschaftliche Inhalte in die Praxis zu transferieren,
sondern ihr Selbstverständnis zielt auf die – interdisziplinär verankerte – eigenständige Er-
forschung unterrichtsbezogener Fragestellungen.
Bereichen, in denen sich mehrere Professuren befinden, die zudem in der Regel über mehr
wissenschaftliches Personal verfügen. Weitere Aufgaben in der Praktikumsbetreuung und der
Lehrerfortbildung reduzieren zusätzlich die für die Forschung zur Verfügung stehende Zeit.
Gleichzeitig besteht auch für die Wissenschaftler_innen in den Fremdsprachendidaktiken
der Druck, Drittmittel für Forschungsprojekte einzuwerben, um Zielvorgaben zu erreichen
und allgemeinen Leistungserwartungen zu genügen. Aufgrund der geringen Repräsentanz
von Fachdidaktiker_innen aus den Geisteswissenschaften in Auswahlgremien für Drittmittel,
etwa unter den Gutachter_innen der DFG, sind die Aussichten, tatsächlich eine Drittmittel-
Finanzierung für fremdsprachendidaktische Forschung zu erhalten, nicht besonders gut. Auch
ist insgesamt die Zahl der Förderprogramme bei Forschungsförderungsinstitutionen eher
gering, die zu fremdsprachendidaktischen Forschungsthemen passen. Für das Fach Deutsch
als Zweitsprache/Deutsch als Fremdsprache stellt sich die Situation allerdings besser dar, weil
in diesem Bereich Fördermittel für Entwicklungsprojekte bereit stehen, in deren Folge auch
Forschungsprojekte möglich werden (s. Teilkapitel 4). Entwicklungen in einzelnen Bundes-
ländern, die im Gefolge der Exzellenzinitiativen des Bundes ähnliche Förderprogramme auf-
gelegt haben, bieten möglicherweise auch neue Perspektiven für die fremdsprachendidakti-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Gerade für die pädagogische und psychologische Forschung ist ein fachlicher Fokus oftmals
interessant. Im Gegenzug profitiert die Fremdsprachendidaktik von der Forschungsmetho-
denkompetenz der empirischen Bildungswissenschaften.
Da die Lehrerbildung und die mit ihr verbundene Schulentwicklung in der Verantwortung
der Länder liegt, können Institutionen in diesem Feld (Ministerien, Fortbildungsinstitute und
Lehrerakademien) Impulse für Forschung geben, indem sie etwa die wissenschaftliche Be-
gleitung und Evaluation von Entwicklungsprojekten finanzieren und Fachdidaktiker_innen
zur Mitarbeit einladen. Ein Beispiel für solche Forschung ist die von Nordrhein-Westfalen in
Auftrag gegebene „Evaluation Englisch in der Grundschule“ EVENING (Groot-Wilken 2009,
Börner/Engel/Groot-Wilken 2013). Im Hamburger Schulversuch „alles<<könner“ wurden in
Zusammenarbeit mit dem IPN Kiel u. a. Materialien zur Weiterentwicklung und Implemen-
tierung kompetenzorientierten Unterrichts für unterschiedliche Unterrichtsfächer, z. B. für.
Englisch, erstellt sowie Forschungsprojekte angestoßen (Harms/Schroeter/Klüh 2016).1 Auch
in Bremen wurde in Kooperation zwischen dem Landesinstitut und der Universität eine
Reihe von Schulbegleitforschungsprojekten durchgeführt (z. B. Bechtel 2015). Vergleichbare
Evaluationsstudien und Ergebnisse wissenschaftlicher Begleitung von Schulprojekten ließen
sich auch für einige andere Bundesländer nennen.
Der Kontext der Lehrerbildung bringt jedoch noch weitere Aspekte ins Spiel. In den ein-
zelnen Bundesländern existieren unterschiedliche Zugriffsmöglichkeiten auf das Praxisfeld
Schule zum Zwecke der Forschung. Ob Fremdsprachendidaktiker_innen daher Zugang zum
Unterricht, zu Lehrkräften und Schüler_innen erhalten, hängt sehr stark von den jeweils
notwendigen Genehmigungsverfahren ab. In einem Bundesland wie Bayern, das Forschung
in den Schulen sehr restriktiv handhabt, mag so manches wichtige Forschungsvorhaben an
dieser Hürde scheitern.
im Inland. Die Initiative Schulen: Partner der Zukunft (PASCH), mit der der Deutschunter-
richt weltweit an Schulen gefördert wurde, illustriert den auslandsbezogenen Fall. Solche
massiven Veränderungen im Unterrichtswesen wecken selbstverständlich das Interesse von
Forscher_innen im Fach DaF/DaZ.
Darüber hinaus sind Mittlerorganisationen der auswärtigen Kulturpolitik wie beispiels-
weise der DAAD und das Goethe-Institut nicht nur einflussreiche Akteure, wenn es um
die Anbahnung von internationalen Forschungskooperationen geht, sondern sie gestalten
ausgewählte Forschungsbereiche, die in ihrem zentralen bildungs-, kultur- und sprachen-
politischen Interessenfeld liegen, aktiv mit. Als Beispiel kann das Test-DaF-Institut angeführt
werden, das als Aninstitut der Ruhr-Universität Bochum von der Gesellschaft für Akademi-
sche Studienvorbereitung und Testentwicklung e. V. beraten wird und dessen Budget und
Aufgaben von diesem Verein beschlossen werden; Mitglieder des Vereins sind neben vielen
anderen DAAD, Hochschulrektorenkonferenz und Goethe-Institut.2 Vielfach ermöglichen die
von einflussreichen Akteuren der Kulturpolitik geförderten Entwicklungsprojekte in ihrer
Peripherie fachdidaktische Forschungsprojekte. Ein prägnantes Beispiel ist das vom Goethe-
Institut in Verbindung mit der Süddeutschen Zeitung über 10 Jahre an der Justus-Liebig-
Universität Gießen geförderte Entwicklungsprojekt „JETZT Deutsch lernen“. Es bot den For-
schungskontext für die explorativ-interpretative Studie zu interkulturellen Interaktionen im
Chat (Marques-Schäfer 2013).
Von besonderer Bedeutung für fremdsprachendidaktische Forschungen sind die kultur-
und bildungspolitischen Initiativen zahlreicher Stiftungen, von denen stellvertretend einige
genannt werden, die vor allem im Bildungsbereich und zum Teil auch auf dem Feld des
Lehrens und Lernens fremder Sprachen aktiv sind: Baden-Württembergstiftung (ehemals
Landesstiftung Baden-Württemberg), BMW-Stiftung, Dr. Werner Jackstädt-Stiftung, Körber-
Stiftung, Hertie-Stiftung Mercator Stiftung, Robert-Bosch-Stiftung, Stiftung Lernen, Telekom
Stiftung, Volkswagenstiftung. Ähnlich wie im Falle der o. g. Mittlerorganisationen werden
von den Stiftungen in der Regel innovative Entwicklungsprojekte gefördert, die im bildungs-
2 Vgl. https://www.testdaf.de/ueber-uns/gremien (30. 12. 2015).
politischen Trend liegen. Im Umfeld solcher Projekte können an den beteiligten Hochschulen
Möglichkeiten und Freiräume für Forschung entstehen, die ohne das Engagement der Stif-
tungen nicht existieren würden. Als Beispiel diene das von der Baden-Württembergstiftung
in Kooperation mit dem Land Hessen, den Pädagogischen Hochschulen Freiburg und Heidel-
berg und der Justus-Liebig-Universität Gießen geförderte Entwicklungsprojekt „E-LINGO.
Didaktik des frühen Fremdsprachenlernens“, das zur Realisierung eines Masterprogramms im
Blended-Learning-Format führte (Landesstiftung 2008). Im Windschatten des Projekts ent-
standen eine Promotion zum frühen Englischlernen (Drese 2008) und zwei Promotionen zur
Qualifizierung von Lehrkräften für den Primarbereich Englisch (Benitt 2015, Zibelius 2015).
Auf ein weiteres, ebenfalls von einer Stiftung ermöglichtes und durch lokale und interna-
tionale Wirtschaftsunternehmen gestütztes Beispiel der Universität Wuppertal wird in dem
Teilkapitel „Kontext Wirtschaft“ verwiesen. In den Bereichen DaZ/Sprachbildung engagiert
sich das von der Mercator-Stiftung unterstützte Mercator-Institut an der Universität zu Köln.
Derzeit werden z. B. in vielen Bundesländern Forschungs- und Entwicklungsprojekte mit dem
Ziel einer Verbesserung der diesbezüglichen Ausbildung von Studierenden aller Lehrämter
gefördert.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Einerseits ist es sehr positiv zu sehen, dass fremdsprachendidaktische Forschung durch die
Veränderungen des Bildungswesens und seiner Parameter gefördert wird. Andererseits muss
man jedoch fragen, inwieweit eine solche ideelle oder materielle Förderung die Ergebnisse
in gewisser Weise präjudiziert und die Erforschung anderer, ebenfalls wichtiger Fragen ver-
hindert. Was geschieht mit unliebsamen Ergebnissen in solchen Forschungsprojekten, die im
öffentlichen Auftrag handeln? Zuweilen werden bildungspolitische Weichenstellungen voll-
zogen, ohne dass es eine Begleitforschung oder wissenschaftliche Evaluation gibt. Das war
etwa beim Begegnungssprachenunterricht in den nordrhein-westfälischen Grundschulen in
den 1990er Jahren der Fall. Ein signifikantes Beispiel aus der jüngsten Gegenwart ist die von
den Bundesländern praktizierte Inklusion, der eine qualifizierte und vorgelagerte Begleit-
forschung für die Fachdidaktiken fehlt. Im Umkehrschluss führen allerdings auch erfreulich
positive Forschungsergebnisse nicht automatisch zu bildungspolitischen Veränderungen.
In der Fremdsprachendidaktik selbst gibt es bisher keine Diskussion um öffentliche För-
derung bestimmter Forschungsvorhaben und damit zusammenhängend um Auftragsfor-
schung. Das DESI-Projekt war ein bedeutendes, mit öffentlichen Geldern gefördertes Groß-
projekt für den Sprachunterricht und wurde durch einen Wissenschaftlichen Beirat beraten
(Beck/Klieme 2007, DESI-Konsortium 2008, Göbel 2007). Allerdings sind die dort erhobenen
Daten, etwa die Videodaten, nach Abschluss des Projekts nicht allgemein für die weitere
Forschung zugänglich, was die Frage nach der Nachhaltigkeit aufwirft. Auch bei anderen,
vor allem den durch Drittmittel geförderten Projekten ist Nachhaltigkeit von Forschungs-
ergebnissen ein ernstes Thema. Insbesondere bei Entwicklungsprojekten stellt sich die Frage,
ob und wie lange das geschaffene Material oder Konzept praktisch verwendet wird. Dies ist
eine grundsätzliche Problematik, die die Fremdsprachendidaktik wie andere Wissenschaften
betrifft.
Wissenschaftler_innen agieren vielfach in der Beratung von Institutionen, öffentlichen
Einrichtungen, Gremien und gesellschaftlichen Initiativen. Aus diesen Kontexten ergeben sich
für sie eventuell Einblicke in Entwicklungen, die einen gewissen Informationsvorsprung im
Hinblick auf geplante Fördermaßnahmen darstellen können. In diesem Zusammenhang stellt
sich die Frage nach der Transparenz der Auswahlkriterien für solche Berater_innen. In demo-
kratischer Hinsicht besorgniserregend erscheint die Tatsache, dass selbst auf ministerialer Ebe-
ne häufig an den entsprechenden Fachverbänden vorbei die Zusammenarbeit mit Einzelper-
sonen gesucht wird, die in dieser Zusammenarbeit selbstverständlich auch eigene Interessen
verfolgen (müssen) und entsprechend der politischen Interessen auch ausgewechselt werden.
Ohne Frage gehen auch von den für die Fremdsprachendidaktiken relevanten Wirtschafts-
unternehmen Impulse aus, etwa den privaten Sprachenschulen oder den Verlagen für Lehr-
material. Besonders letztere können durch die Arbeit der z. T. mit Wissenschaftler_innen
besetzten Beratungsgruppen, die bei einschlägigen Verlagen bestehen, Forschungsthemen
anstoßen. Fremdsprachendidaktiker_innen haben somit einerseits die Möglichkeit, an wirt-
schaftlichen Entwicklungen zu partizipieren und andererseits deren Richtung mitzubestim-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
men – auch wenn dies nur in begrenztem Maße möglich ist. Damit eröffnen sich im direkten
Kontakt mit den Prozessen der Materialentwicklung Aufgaben für Forschung, die besonders
in Umbruchsphasen an Brisanz gewinnen. So macht die Digitalisierung des letzten Jahrzehnts
ein neues Nachdenken über Konzeption und Implementierung von Lehr- und Lernmaterialien
dringend erforderlich, denn die zukünftige Rolle und Ausgestaltung der Bildungsverlage ist
nicht geklärt. Trotz des engen fachlichen Verhältnisses und partieller Kooperation der Fremd-
sprachendidaktiken mit Verlagen haben letztere bisher nicht in eine systematische Nutzer-
forschung investiert. Dies könnte erklären, weshalb im Forschungsfeld Lehrwerks- und Mate-
rialforschung die Analyse bereits vorliegender, also historischer und gegenwärtiger Lehr- und
Lernmaterialien bei weitem dominiert, eine systematische Erforschung von Notwendigkeiten
der Anpassung von Lehrmaterialien an das sich verändernde Bildungssystem und die Lernge-
wohnheiten der Menschen – beispielsweise im Vergleich zu den naturwissenschaftlichen
Fachdidaktiken – jedoch kaum entwickelt ist. Von dem für die fremdsprachendidaktische
Forschung wichtigsten Wirtschaftszweig, den Bildungsverlagen, sind auch in Zukunft nur
sehr eingeschränkte Mittel für die Forschungsförderung zu erwarten, wie auch andere Wirt-
schaftszweige kaum Interessen entwickeln dürften, größere Forschungsvorhaben zu fördern.
Dennoch bleibt festzuhalten, dass es Forscher_innen immer wieder gelingt, lokale wie in-
ternational agierende Wirtschaftsunternehmen für die Förderung einzelner (lokaler) Projekte
zu gewinnen. Als Beispiel diene das MobiDic -Projekt (Mobile Dictionaries) der Bergischen
Universität Wuppertal, das den Einsatz von portablen elektronischen Wörterbüchern in Eng-
lisch Grundkursen an Haupt- und Gesamtschulen in Wuppertal untersuchte. Die Basisför-
derung durch die Dr. Werner Jäckstädt-Stiftung (s. o.) konnte durch Mittel der Stadtsparkasse
Wuppertal und Sachspenden der Firmen Casio und Sharp ergänzt werden (Diehr/Gießler/
Kassel 2016)3. Gerade die Verflechtung wirtschaftlicher und wissenschaftlicher Interessen in
Projekten dieser Art macht es jedoch zwingend erforderlich, dass Forscher_innen auf die
3 S. http://www.anglistik.uni-wuppertal.de/forschung/forschungsprojekte/mobile-dictionaries/mobidic-home.
html (30. 12. 2015).
Der Weg durch die konzentrischen Kreise verdeutlicht, in welch vielfältiger Art und Weise
die einzelnen Kontexte auf die fremdsprachendidaktische Forschung einwirken und wie diese
Impulse aufnimmt. Für eine praxisorientierte Disziplin, die den Anspruch erhebt, das Lehren
und Lernen von Sprachen besser zu verstehen sowie auf der Basis der gewonnenen Erkennt-
nisse weiter zu entwickeln und zu verbessern, stellt sich die Frage, ob und wenn ja, in welcher
Weise sie die Kontexte beeinflussen und damit ihre Entscheidungs- und Handlungsspiel-
räume bestimmen und/oder gar erweitern kann. Diese Frage berührt ein komplexes Geflecht
von Zusammenhängen und unterschiedlichen Diskursen, weshalb es kaum verwundert, dass
sie in innerhalb der Disziplin kontrovers erörtert wird (vgl. Bausch/Burwitz-Melzer/Königs/
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Krumm 2011).
In Bezug auf bildungspolitische Entscheidungen sind Problemfelder erkennbar, die die
fremdsprachendidaktische Forschung als „nachholende Forschung“ (Hallet 2011) erscheinen
lassen; eine Forschung die „man je nach Standort als Bearbeitung, als Kritik, als Korrektur
und Reparatur […] bezeichnen kann“ (Hallet 2011: 65). Prägnantes Beispiel ist hier sicher
die Einführung der Bildungsstandards (vgl. Königs 2011). Andererseits lassen sich auch Bei-
spiele anführen, die zeigen, dass Bewegungen in der Praxis, begleitet von zunächst einzelnen
Forschungsprojekten, durchaus von der Bildungspolitik aufgenommen werden und diese
beeinflussen. Die Geschichte des bilingualen Unterrichts illustriert diesen Fall: Entstanden als
eine Bewegung der Schulpraxis hat sich das Konzept bundesweit durchgesetzt und zugleich
weitere Forschung in erheblichem Ausmaß stimuliert.
Das vielschichtige Wechselverhältnis von fremdsprachendidaktischer Forschung und
Bildungspolitik einerseits und Öffentlichkeit andererseits lässt sich an der Einführung von
Fremdsprachen in den Grundschulbereich verdeutlichen. Diese erfolgte in einigen Bundes-
ländern mit unterschiedlich aufwändiger Begleitforschung und stimulierte eine ganze Pa-
lette vorwiegend empirischer Studien zu Teilaspekten frühen Fremdsprachenlernens. Die
Ergebnisse der Studien bestätigen einerseits, dass die Kinder trotz begrenzter Zeitbudgets
mit Begeisterung das neue Fach annehmen und Teilkompetenzen erwerben, die in den wei-
terführenden Schulen ausgebaut werden können. Andererseits haben sie signifikante Defizite
bezüglich der Aus- und Fortbildung der Lehrkräfte aufgedeckt, die von der Bildungspolitik
der Länder weitgehend nicht beachtet werden. Der Fremdsprachenunterricht in der Grund-
schule hatte lange den Status eines ‚heißen Themas‘. Wie häufig bei heißen Themen bedienten
sich unterschiedliche Interessengruppen (etwa Lehrer- und Elternverbände) einzelner For-
schungsmeinungen, die sie über die Presse lancierten. Der offensive Umgang mit der Instru-
mentalisierung von isolierten Forschungsergebnissen durch Interessengruppen ist genauso
wie das Einbringen von differenzierten Forschungsergebnissen in den öffentlichen Diskurs
sicher eine der wichtigen Aufgaben von Forscher_innen.
orientiert und von grundlegenden ethischen Prinzipien geleitet sein. Zu dieser Unabhängig-
keit gehört u. a. die Bereitschaft und Fähigkeit der Forscher_innen, neue Fragen zu stellen,
dem bildungspolitischen Mainstream analytisch und kritisch zu begegnen, den Mut zu zeigen,
auch gegen den Strom zu schwimmen und damit den Trends zu widerstehen, die möglicher-
weise einfache Lösungen signalisieren. Nicht zuletzt gehört es zur forscherischen Haltung,
auch sich selbst und das eigene Projekt immer wieder kritisch zu reflektieren.
›› Literatur
Research report of an interdisciplinary project group at the University of Bremen. Zeitschrift für
Fremdsprachenforschung 25/1, 73–88.
Drese, Karin (2008). Einschätzung der Sprechleistung von Lernern im Englischunterricht der Grund-
schule. Gießen: Universitäts Bibliothek [Online:
http://geb.uni-giessen.de/geb/volltexte/2008/6338] (30. 12. 2015).
Göbel, Kerstin (2007). Qualität im interkulturellen Englischunterricht: eine Videostudie. Münster:
Waxmann.
Groot-Wilken, Bernd (2009). Design, Struktur und Durchführung der Evaluationsstudie EVENING in
Nordrhein-Westfalen. In: Engel, Gabi/Groot-Wilken, Bernd/Thürmann, Eike (Hg.) (2009) Englisch in
der Primarstufe. Chancen und Herausforderungen. Berlin: Cornelsen, 124–139.
Hallet, Wolfgang (2011). Agenda-setting. Bildungspolitik und nachholende Fremdsprachenforschung.
In: Bausch, Karl-Richard/Burwitz-Melzer, Eva/Königs, Frank/Krumm, Hans-Jürgen (Hg.), 64–72.
Harms, Ute/Schroeter, Burkhard/Klüh, Barbara (Hg.) (2016). Die Entwicklung kompetenzorientierten
Unterrichts in Zusammenarbeit von Forschung und Schulpraxis. komdif und der Hamburger Schul-
versuch alles»könner. Münster: Waxmann.
Hu, Adelheid (2003). Schulischer Fremdsprachenunterricht und migrationsbedingte Mehrsprachigkeit.
Tübingen: Narr.
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Königs, Frank (2011). Eine Frage der Ehre – und nicht nur eine, und nicht nur der Ehre. Grundsätzliche
Anmerkungen zur Erforschung des Lehrens und Lernens fremder Sprachen. In: Bausch, Karl-Richard/
Burwitz-Melzer, Eva/Königs, Frank/Krumm, Hans-Jürgen (Hg.), 113–124.
Landesstiftung Baden-Württemberg (Hg.) (2008). E-LINGO. Didaktik des frühen Fremdsprachenlernens.
Erfahrungen und Ergebnisse mit Blended-Learning in einem Masterstudiengang. Tübingen: Narr.
Marques-Schäfer, Gabriela (2013). Deutsch lernen online. Eine Analyse interkultureller Interaktionen
im Chat. Tübingen: Narr.
Meißner, Franz-Josef/Beckmann, Christine/Schröder-Sura, Anna (2008). Mehrsprachigkeit fördern.
Vielfalt und Reichtum Europas in der Schule nutzen (MES). Zwei deutsche Stichproben einer interna-
tionalen Studie in den Klassen 5 und 9 zu Sprachen im Fremdsprachenunterricht. Tübingen: Narr.
Zibelius, Marja (2015). Cooperative Learning in Virtual Space. A Critical Look at New Ways of Language
Teacher Education. Tübingen: Narr.
deduktive Analyse 258 Einstufungstest 206 f., 211 Evaluation von ausgewählten
dehoaxing 110 Einwilligung 111 Studien 99
desensitizing 110 Einwilligungserklärung 111, Event-Sampling 86
Design 56, 376 113 Experiment 51, 366
mehrmethodisches 252 Einzelfall 270, 274 f. experimentelle Interpreta-
prototypisches 3, 67 f. Einzelinterview 156 tion 231
deskriptiv 49 f. Elizitierung 182 Experteninterview 163, 167
Deskriptivstatistik 324, 326 f. embedded design 55 explanativ 49 f.
Diagnosetest 206 f. emisch 8, 141 f., 282, 284 explanatory design 54
d Indizes 100 emische Perspektive 51, 254 explorativ 49 f.
discourse analysis 281 Empirie 47, 50 f. explorativ-interpretativ 9,
Diskurs 25, 222 empirische Forschung 28, 49 51, 53
Diskursanalyse 36, 222 English language bias 99 explorativ-interpretatives
Diskursdaten 63 Entwicklungsforschung 366 Paradigma 377
Diskursebene 222 episodisches Interview 250 exploratorische Faktorenana-
Diskursfragment 222, 224 epistemologisch 8 lyse 342
Diskursstrang 222 Ereignisstichproben (event- exploratory design 55
Diskussion der Erträge 386 sampling 147 Exposé 382, 394
Disputation 396 Erfahrungsbericht 50 Extraktion 348
Doktorandenkolloquium 393 Erfahrungsraum 249 Extraktion der Faktoren 347
Doktorandenseminar 394 konjunktiver 252 Exzellenzinitiative 459
Dokumentarische Me- Erfahrungswissen 249
thode 243, 273, 276 erfassen 121, 182, 193, 200 F
Dokumente 61, 121, 124, 127, Erfassung 182 f., 185, 196 f. Fach 457
133, 193, 221 Ergebnisse Fach-Community 398
Anordnung von 124 Untersuchung der 99 Fachkontext 458
Auswahl von 124 erheben 121, 182 Fachliteratur
halboffizielle 62, 125 Erhebung 182–185, 196 f. Rezeption und Verarbeitung
öffentliche 125 Erinnern vorhandener 245
offizielle 62, 125 lautes 174 Fachöffentlichkeit 394
private 62, 125 stimulusbasiertes lau- fachspezifische Prägung 458
Sammlung von 124 tes 182 Faktor 341, 346–349
vergleichende 43 hypothesengenerie- W
Unabhängigkeit 465 rende 246 Wahrnehmungsprozess 235
univariat 321 hypothesentestende 246 washback-Studie 213
univariate Verfahren 331 inferenzstatistische 321 Wirtschaft 463
unterrichtsbezogenes Pro- introspektives 174 Wissenschaft 1 ff.
dukt 62 f., 193 f., 197, 200 korrelationsstatistische 322 anwendungsorientierte 12
Unterrichtsforschung 280 multivariate 331 wissenschaftliche Beglei-
videobasierte 150, 284 retrospektives 174 tung 460
Unterrichtsvideographien statistische 319 wissenschaftlicher Beitrag 395
Korpora mit 316 typenbildendes 270 wissenschaftliche (Sekundär-)
Unterschiedshypothese 331 f. univariate 331 Literatur 124
Vergleich 246, 272 within-method 92
V Vergleichen Wortliste 310
Valenzanalyse 257 Technik des 252
validieren 98, 105 Verhalten 141 Z
Validierung 90, 102, 208 f., Verhältnisskala 326 Zeitplanung 383
309 Verlag 463 Zeitschriftenjahrgänge 127
Validierungsstudie 212 Veröffentlichung 393, 397 f. Zeitstichproben (time-
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Karin Aguado, Prof. Dr., Universität Kassel, Deutsch als Fremd- und Zweitsprache: Fremdsprachen-
lehr- und -lernforschung
Ulrike Arras, Dr., Ruhr-Universität Bochum, TestDaF-Institut Bochum, Testentwicklung
Senem Aydın, Dr., Justus- Liebig-Universität Augsburg, Department für Anglistik und Amerikanistik,
Didaktik des Englischen
Christine Biebricher, Dr. phil., The University of Auckland, Faculty of Education and Social Work,
International Languages Exchanges and Pathways (ILEP)
Eva Burwitz-Melzer, Prof. Dr., Justus-Liebig-Universität Gießen, Institut für Anglistik, Didaktik des
Englischen
Daniela Caspari, Prof. Dr., Freie Universität Berlin, Institut für Romanische Philologie, Didaktik der
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr
Michael Schart, Dr., Associate Professor, Keio Universität Tokio, Japan, Juristische Fakultät, Deutsch-
landstudien/Deutsch als Fremdsprache
Christin Schellhardt, MA, Universität Potsdam, Institut für Germanistik, Deutsch als Fremd- und Zweit-
sprache
Barbara Schmenk, Prof. Dr., University of Waterloo, Kanada, Germanistik/Deutsch als Fremdsprache
Torben Schmidt, Prof. Dr., Leuphana Universität Lüneburg, Institute of English Studies
Karen Schramm, Prof. Dr., Universität Wien, Institut für Germanistik, Deutsch als Fremdsprache
Götz Schwab, Prof. Dr., Pädagogische Hochschule Karlsruhe, Institut für Mehrsprachigkeit, Fachbereich
Englisch
Julia Settinieri, Prof. Dr., Universität Paderborn, Institut für Germanistik und Vergleichende Literatur-
wissenschaft, Deutsch als Zweit- und Fremdsprache Schramm
Yazgül Şimşek, Dr., Westfälische Wilhelms-Universität Münster, Germanistisches Institut, Centrum für
Mehrsprachigkeit und Spracherwerb
Ivo Steininger, Dr., Universität Gießen, Institut für Anglistik, Didaktik des Englischen
Giovanna Tassinari, Dr., Freie Universität Berlin, Sprachenzentrum
Laurenz Volkmann, Prof. Dr., Englische Fachdidaktik, Friedrich-Schiller-Universität Jena
Wolfgang Zydatiß, Prof. Dr., Humboldt-Universität zu Berlin, Institut für Anglistik und Amerikanistik,
Lizenziert für UB_Kassel am 29.05.2021 um 18:09 Uhr