You are on page 1of 12

1.

Geschichte der Psychologie


1.1. Allgemeines

Entstehung der Psychologie:


• Philosophie
o Rationalismus (Kognitionswissenschaften)
o Empirismus (Behaviorismus)

• Physiologie
o Leib-Seele Problem

Empirismus ist eine Klasse von erkenntnistheoretischen Lehren, die methodisch in


Beobachtung, Messung und Experiment gegründete Erfahrung mit Erkenntnis überhaupt
gleichsetzen. Vernachlässigen dabei aber die rationale Stufe, ohne die Erkenntnis unmöglich
ist. Der Empirismus ist die Voraussetzung für den Assoziationismus und daher auch für den
Behaviorismus. Zentral für den Empirismus ist die große Bedeutung der Sinneseindrücke,
diese sind prinzipiell atomar, komplexe Vorstellungen werden aus mehreren Eindrücken
zusammengesetzt.

Rationalismus ist eine erkenntnistheoretische Richtung, welche die rationale Stufe der
Erkenntnis verabsolutiert und davon ausgeht das nur das Denken (die Vernunft) die Wahrheit
finden kann (Descartes: „Ich denke, also bin ich“). Der Rationalismus steht somit im
Gegensatz zum Empirismus. Er ist eine der Grundlagen für der Kognitiven Psychologie und
der Kognitionswissenschaft (menschliche und maschinelle Erkenntnis). Der Rationalismus
beruht auf einer Trennung von Körper und Geist (wichtig & nötig für ein KI-System).

Wilhelm Wundt (Begründer der Psychologie als eigenständige Disziplin)


Die Psychologie wurde Ende des 19.Jhdts. begründet, es konnte gezeigt werden, dass die
Psychologie nach Gegenstand und Methode einzigartig ist. Psychologie war also die
Wissenschaft von den durch Introspektion erfassbaren Bewusstseinszuständen. Methodisch
orientierte sich die P. an den Naturwissenschaften (Physik, Beobachtung & Experiment). Das
Ziel der P. war die Ermittlung psychischer Gesetze.
Experimenteller Ansatz erwies sich aber als problematisch, da sich Menschen als
Untersuchungsgegenstand eher weniger eigneten (Theorien über die UntersucherInnen). Für
Wundt war eine wesentliche Methode die Introspektion, in der Versuchspersonen quasi in
sich hineinblicken und ihre Eindrücke und Erfahrungen mitteilen.

1.2. Behaviorismus

Der Behaviorismus entstand am Beginn des 20.Jhdts. und geht davon aus, dass das Verhalten
mit Naturwissenschaftlichen Methoden untersucht werden kann. Verkürzte Darstellung:
Menschen lernen durch Belohnung und Bestrafung. Das wesentlichste Merkmal des
Behaviorismus ist, dass Inhalte des Bewusstseins nicht berücksichtigt werden, das Gehirn ist
eine Black-Box in die man nicht hineinsehen kann.
Behavioristen wollen daher nur Dinge untersuchen die man mit den eigenen Augen sehen
kann. Gedanken kann man nicht beobachten, eine Beschäftigung damit ist daher
unwissenschaftlich. Sie wollen Gesetze aufstellen wie Reize und Reaktionen
zusammenhängen (z.B. wird ein Verhalten oft bekräftigt, wird es gelernt).

1
Skinner vs. Chomsky
Behavioristen versuchten auch komplexes Verhalten wie Sprache durch Konditionierung
(Erlernen von Reiz-Reaktions-Mustern (Stimulus-Response)) zu erklären. Linguisten
kritisieren diesen Ansatz. Chomsky argumentiert, dass Sprache eine innere Struktur hat, die
von Kindern begriffen werden muss, wodurch sie in der Lage sind eine unendlich vielfältige
Anzahl von korrekten Sätzen zu formulieren. Man kann nicht jede mögliche Satzkonstruktion
durch Assoziationslernen erwerben.

Beim programmierten Unterricht (Grundlage ist der Behaviorismus) wird der Stoff in
atomare Einheiten zerlegt. Gelernte Einheiten werden belohnt, falsche Aussagen werden
bestraft. Einheiten müssen so oft durchlaufen werden bis sie korrekt wiedergegeben werden
können. Programmierter Unterricht konnte sich nicht durchsetzen, da er außerordentlich
langweilig ist (im Behaviorismus spielt Motivation keine Rolle).

Um 1945 entstand Kritik am Behaviorismus. Im Behaviorismus spielen Versuche eine


große Rolle: Ratten werden durch Labyrinth geschickt um Futter zu finden. Richtiges
Verhalten ist dann gegeben, wenn die Ratte keine falsche Abzweigung nimmt. Tolman konnte
zeigen, dass Ratten den Weg auch schwimmend finden, was der Behaviorismus nicht erklären
konnte. Tolman argumentierte, dass Ratten ein inneres Modell (unbedeutend für den
Behaviorismus, weil nicht beobachtbar) besitzen, das ihnen hilft den Weg zu finden.
Generell kann gesagt werden, dass der Behaviorismus durch den Verzicht der Betrachtung der
Inhalte des Bewusstseins viele Vorgänge nicht erklären kann und ist daher als Lerntheorie
eher ungeeignet.

1.3. Alternative Ansätze

1.3.1. Schematheorie

Schematheorie geht davon aus, dass neue Erfahrungen nur auf der Grundlage von bereits
gemachten Erfahrungen interpretiert werden. Bsp.: Indianische Geschichten die von
Engländern nacherzählt wurden, wurden systematisch an die eigenen Erfahrungen angepasst.
Dadurch erklärbar, dass Interpretation ein aktiver Prozess ist (irrelevant für den
Behaviorismus).

1.3.2. Gestaltpsychologie

Die Gestaltpsychologie betrachtet Wahrnehmung als ganzheitlichen Vorgang (entgegen dem


Behaviorismus, der einen atomaristischen Ansatz hat), das Ganze ist dabei mehr als die
Summer der einzelnen Teile (z.B. bei Melodien erkennbar).
Die Gestalt eines Objekts beeinflusst wie die einzelnen Teile gesehen werden. Es konnten
eine Anzahl von Gestaltgesetzen identifiziert werden (s.u.).

Die Gestaltpsychologie spielt heute beim Design von Interfaces eine große Rolle. Die
Organisation von Bildschirminhalten in der Form von Fenstern konnte sich schnell
durchsetzen, da verschieden Gestaltgesetze die Wahrnehmung von Fenstern unterstützen.

2
Diese vier Muster verdeutlichen die Gestaltgesetze der Nähe (a), der Ähnlichkeit (b), des
glatten Verlaufs (c) und der Geschlossenheit bzw. guten Gestalt (d).

• Gesetz der Geschlossenheit: Die menschliche Kognition neigt dazu, bei der Anordnung
von Elementen nach geschlossenen Formen zu suchen.
• Gesetz der Prägnanz (der guten Gestalt): Die menschliche Kognition versucht immer,
Elemente möglichst einfach und konstant zu organisieren. Simple und in sich
geschlossene Strukturen dominieren über den Gesamteindruck und heben sich gut vom
Hintergrund ab (Gegensatz zum Assoziationsgesetz).

1.3.3. Die Entwicklungspsychologie Piagets

Jean Piaget ist einer der bedeutendsten Entwicklungspsychologen und war ursprünglich
Biologe. Er ging davon aus, dass Kinder einen Entwicklungs- und Reifungsprozess
durchlaufen, der ähnlich dem einer Pflanze ist und wo sich in ähnlicher Weise Stadien
feststellen lassen. Er meint, dass Kinder anders lernen als Erwachsenen, da sie auf bestimmten
Entwicklungsstufen nur bestimmte Dinge begreifen und erlernen können.

Grundlegende Unterschiede zwischen dem Lernen von Kindern und Erwachsenen:


Kognitive Entwicklung ist Transformation der undifferenzierten, unspezialisierten kognitiven
Fähigkeiten der Kinder zu der spezifischen Fähigkeit des Erwachsenen Probleme zu lösen.

Der Konstruktivismus (Piaget war Konstruktivist) ist eine erkenntnistheoretische Strömung,


die davon ausgeht, dass die Welt nicht so ist, wie wir sie wahrnehmen. Unsere Wahrnehmung
strukturiert die Welt in bestimmter Weise. Bsp.: Frosch hat Rezeptoren im Auge, die auf
dunkle Flecken reagieren Æ Welt des Frosches voller Fliegen. Eine gewisse Verzerrung der
Wahrnehmung kann also für das Überleben vorteilhaft sein. Im Auge des Menschen werden
Hell-Dunkel-Kontraste verstärkt, Objekte können so leichter wahrgenommen werden.
Wahrnehmung ist für die Konstruktivisten ein aktiver Prozess. Auch Kinder warten nicht
passiv auf Erkenntnis, sondern konstruieren aktiv ihre eigenen Wissensstrukturen.

Piaget geht von 4 Entwicklungsstufen aus:


• Sensumotorische Stufe (0-2 Jahre): Kinder lernen Objekte und Ereignisse zu
identifizieren. Sie lernen Objektkonstanz (Teddy hinter dem Rücken Æ neues Objekt).

3
• Präoperationale Stufe (2-7Jahre): Kinder können Objekte und Ereignisse
symbolisch repräsentieren (Sprachlernen). Kinder können Dinge nur aus eigener Sicht
sehen (Egozentrismus). Kinder konzentrieren sich nur auf eine Dimension eines
Problems (Würfel, Anzahl & Abstand).
• Konkret-operationale Stufe (7-11 Jahre): Eindimensionales Denken und
Egozentrismus wird überwunden. Kinder internalisieren geistige Leistungen und
erweitern logisch-mathematische Fähigkeiten (Transitives Schließen).
• Formal-operationale Stufe (ab 11 Jahre): Kinder können komplexe abstrakte
Operationen ausführen und systematisch Hypothesen bilden, die sie in organisierter
Form untersuchen.

Die 3 Aspekte des Entwicklungsprozesses sind:


• Assimilation: findet statt, wenn Kinder neue Objekte und Ereignisse mit Hilfe von
existierenden Erkenntnisschemata zu erkennen versuchen.
• Akkomodation: wenn ein existierendes Erkenntnisschema geänderte werden muss,
um eine neue Erfahrung zu verarbeiten.
• Äquilibrium: Kinder streben nach einem „Gleichgewichtszustand“ in ihren
Erkenntnisprozessen. Besonders zwischen zwei Stufen ist dieser gestört.

Kritik an Piagets Modell war unter anderem:


• Stufe der Formalen Operation konnte nicht in allen Kulturen erreicht werden.
• Kinder verhalten sich nicht konsistent innerhalb der Stufen und können Dinge
frührer/später als Piaget das angenommen hatte.
• Charakteristika einzelner Stufen waren nicht immer beobachtbar, bzw. sind in neuen
Stufen nicht verschwunden (Kinder später noch egozentrisch, oder gar nicht).

2. Kognitive Psychologie / Human Computer Interaction

2.1. Kognitive Psychologie / Kognitionswissenschaften

Kognitive Psychologie beschäftigt sich mit den Aspekten der menschlichen


Erkenntnistätigkeit (z.B.: Wahrnehmung, Denken, Problemlösen, Gedächtnis,…). Sie ist unter
anderem aus Kritik am Behaviorismus entstanden, da die untersuchten Aspekte in der Regel
nicht beobachtbar und daher für den Behaviorismus irrelevant waren (kognitive Aspekte sind
also kein Gegenstand des Behaviorismus).

Die Psychologische Arbeitsgestaltung untersucht wie Bedienelemente von komplexen


Maschinen angeordnet/beschaffen sein müssen, damit Menschen effizient damit arbeiten
können (WWII Kampfflugzeuge, Piloten mussten schnell reagieren, Technik in
Kernkraftwerken). Der Behaviorismus kann auf diese Problemstellungen keine Antworten
geben, da es stark um Erkenntnistätigkeiten des Menschen geht. Ein neuer Ansatz war also
nötig.

Die Informationstheorie von Shannon und Weaver hat ihren größten Verdienst im
Zusammenhang mit der Kognitionswissenschaft in der Einführung des Begriffs Information,
welche ebenfalls für den Behaviorismus irrelevant ist (da nicht beobachtbar).

4
Die Linguistik (Chomsky) geht davon aus, dass Kinder ein umfangreiches Wissen über die
Struktur der menschlichen Sprache besitzen, das durch Verallgemeinerung und die
Generierung von Regeln erworben wurde.

Die Künstliche Intelligenz (KI) befasst sich damit, wie menschliche intelligente Leistungen
imitiert werden können. In diesem Bereich gibt es große Erfolge, aber auch eindeutige
Grenzen (Schachprogramme leicht, für den Menschen trivialere Problemstellungen aber
wesentlich schwieriger).

Die Neurowissenschaften haben seit WW2 großen Aufschwung erfahren. Die Funktionen
einzelner Gehirnaktivitäten, die menschliche Handlungen begleiten, wurden ausführlich
beschrieben. Es gibt aber immer noch Unklarheiten über viele Bereiche der kognitiven
Psychologie (z.B. wie Lernen im Gehirn funktioniert).

Die Computermetapher ist die Grundlage der Kognitionswissenschaft, damit ist gemeint,
dass ein Computer und ein menschliches Gehirn zumindest auf sehr ähnliche Art und Weise
funktionieren. Es gibt aber Unterschiede zwischen einzelnen Gruppen: traditionelle Vertreter
der KI versuchen kognitive Fähigkeiten explizit zu programmieren (Expertensysteme),
Vertreter der Neuronalen Netze versuchen die physiologischen elektrischen Aktivitäten
nachzubilden, was jedoch problematisch ist, da wir noch zu wenig über die Gehirnaktivitäten
wissen.

Die Grundannahmen der Kognitionswissenschaft sind:


• Ebene der mentalen Repräsentation (gilt nur für die traditionelle KI)
• Computer als Modell
• Ausschluss affektiver, emotionaler, historischer oder kultureller Faktoren
• Interdisziplinarität
• Verwurzelung in der abendländischen Philosophie

Disziplinen der Kognitionswissenschaft:

Das Kurzzeitgedächtnis spielt eine wichtige Rolle bei der Gestaltung von Softwaresystemen.
Wir merken uns Informationen wenn wir von einer Seite im WWW zu einer anderen gehen.
Die Kapazität ist sehr beschränkt, kann aber durch sinnvolle Organisation erweitert werden.

5
Datengesteuerte vs. Konzeptuell gesteuerte Informationsverarbeitung
Datengesteuerte Verarbeitung beruht auf den Eindrücken der Sinnesorgane und ist bottom-up.
Konzeptuell gesteuerte Informationsverarbeitung beruht auf dem Kontext, in dem die
Information verarbeitet wird, und dem Vorwissen der Menschen. Sie funktioniert top-down.
Das Dämonenmodell von Norman und Lindsay versucht dieses Zusammenspiel anschaulich
zu machen.
Unser Wissen über grammatikalische Strukturen führt dazu, dass beim Verarbeiten von
Sätzen an bestimmten Stellen nur bestimmte Wortkategorien erwarten. Konzeptuell gesteuerte
Informationsverarbeitung kann auf diese Weise unsere Informationsverarbeitung wesentlich
beschleunigen (da nur mehr eine Untermenge der Möglichkeiten betrachtet werden muss). Es
lässt sich auch zeigen, dass wir Worte nicht ganz lesen, sondern sukzessive Alternativen
ausschließen bis nur noch eine Möglichkeit übrig ist. Dies kann u.U. auch zu fehlerhafter
Wahrnehmung führen (Problem beim Korrekturlesen), Vorteile überwiegen allerdings die
Nachteile.

Die Wahrnehmung von Bildern ist für die Gestaltung von Lernsystemen wesentlich. Die
Verwendung von Bildern war lange Zeit umstritten, viele dachten, dass Bilder verdummen
und nur sprachliche Information die intellektuelle Entwicklung fördern könnte. Auch in den
verschiedenen Religionen gibt es unterschiedliche Einstellungen zu dieser Problematik. In den
letzten 30 Jahren gab es ausführliche Untersuchungen dazu. Es hat sich gezeigt, dass Bilder
häufig sinnvoll sind, aber natürlich von Gestaltung und Kontext abhängig sind.
Die Dual Coding Theorie von Shepard besagt, dass Bilder besonders günstig sind, da hier
Informationen sowohl verbal als auch bildlich gespeichert werden. Dies erklärt auch warum
man sich an konkrete Objekte leichter erinnert als an abstrakte. Shepard argumentierte mit der
mentalen Rotation, dass Objekte tatsächlich als Bilder gespeichert werden.

Für Modelle der Wissensrepräsentation gibt es keine allgemein anerkannte Theorie. Es gibt
mehrere konkurrierende Theorien, die alle bestimmte Schwächen haben.

Die Theorie der semantischen Netze geht davon aus, dass Wissen im Gehirn vernetzt (und
nicht hierarchisch) gespeichert ist. Kinder lernen z.B. zunächst Hunde und Katzen als eigene
Kategorie, später, dass beide Tiere sind. Semantische Netze und Hypertext haben eine große
Ähnlichkeit.

Das Prototypenmodell geht davon aus, dass Objekte in bestimmten Kategorien im Gehirn
gespeichert werden. Nicht alle Objekte sind aber für eine Kategorie gleich typisch. William

6
Labov benutzte verschiedene Tassenähnliche Figuren um die Grenzen der Kategorie „Tasse“
zu erforschen. Ist eine Tasse sehr flach wird sie zunehmend als Schale bezeichnet, ist sie sehr
hoch wird sie als Vase erkannt. Aber auch der Kontext (was in der Tasse ist, Kartoffelpüree,
Tee, Blume) ist bei der Kategorisierung von Bedeutung. Derartige Phänomene sollten v.A. bei
der Gestaltung von Datenbanken berücksichtigt werden, da diese davon ausgehen, dass jeder
Vertreter einer Kategorie gleich typisch ist.

Die Schematheorie geht auf Sir Frederic Charles Bartlett zurück und geht davon aus, dass
wir immer über ein bestimmtes statisches Hintergrundwissen verfügen, welches in Form von
Schemata organisiert ist. Es erleichtert uns neue Informationen zu interpretieren. Bsp.:
Restaurant-Skript, auf seiner Grundlage interpretieren wir Geschichten über
Restaurantbesuche (deren Hintergrundwissen nicht extra erzählt wird). Ein Problem dieser
Methode ist, dass sie eher statisch ist, es ist aber sehr wahrscheinlich, dass unser Wissen
einem ständigen Wandel unterworfen ist (andere Arten von Restaurants).

Die Theorie der mentalen Modelle hat einen dynamischen Charakter. Sie geht davon aus,
dass Menschen ununterbrochen Hypothesen über ihre Umwelt formulieren und diese dann auf
ihre Korrektheit testen. Donald Norman hat diese Theorie auf den Umgang mit Computern
umgelegt und konnte zeigen, dass BenutzerInnen oft Modelle von Computern haben, die stark
von denen der DesignerInnen abweichen. Sie sollten sich deshalb ausführlich mit den
mentalen Modellen der BenutzerInnen beschäftigen.

Charakteristika mentaler Modelle sind:


• Mentale Modelle sind flexibler als Schemata, wenn eine Hypothese nicht bestätigt
werden kann, wird das Modell entsprechend geändert.
• Sie bieten die Möglichkeit von Schlussfolgerungen in komplexen Situationen und von
Voraussagen über zukünftige Situationen.
• Es besteht ein Zusammenhang zwischen mentalen Modellen und Bildern.

Wissen ist in diesem Modell einem ständigen Wandel unterworfen. Wissenschaftler konnten
zeigen, dass viele unsere mentalen Modelle falsch sind, was allerdings egal ist (Bsp.: Modell
vom Strom, Bedienen eines elektr. Gerätes).Die Theorie mentaler Modelle ist zurzeit das am
weitesten verbreitete Modell der Wissensrepräsentation.

2.2. Human-Computer Interaction

HCI befasst sich mit der sicheren, befriedigenden und effizienten Interaktion von Menschen
und Computern. Diese Art der Interaktion wurde erst mit dem Aufkommen von PCs zum
Problem, als Computer nicht mehr nur von ExpertInnen bedient wurden. Weniger versierte
Personen wollten möglichst rasch und effizient ihre eigentliche Aufgabe lösen,
Betriebssysteme wie MS-DOS (viele Befehle auswendiglernen) waren daher nicht geeignet.

John Carroll’s Task-Artefact Cycle weist darauf hin, dass Softwareentwicklung ein
stufenweiser, inkrementeller Prozess ist. Die ersten Textverarbeitungsprogramme
ermöglichten primär das leichte Ausbessern und einfache Formatierung. Sie überwanden
somit die größte Einschränkung (constraint) der Schreibmaschine (Seite bei Tippfehler neu
schreiben). Früher war die Aufgabe der Sekretärinnen das korrekte Schreiben, mit den neuen
Textverarbeitungsprogrammen (neue artefacts) entstanden aber auch neue Requirements.
Heute können sie optisch ansprechende Berichte erstellen und mit Datenbanken und

7
Spreadsheetprogrammen umgehen. Die Modifikation der Aufgabenstellung erzeugt aber
wiederum neue Requirements.
Es handelt sich also um einen kontinuierlichen Prozess (Software kann nicht ein für alle mal
entworfen werden, sondern muss ständig angepasst werden).

Der (gesellschaftliche) Kontext der Anwendung und die Bedienungen unter der die
Software benutzt wird ist ein wesentlich Gesichtspunkt ohne den HCI keinen Sinn macht. Die
Einführung neuer Software verändert innerbetriebliche Strukturen i.d.R. relativ stark Daher
sollten vor Einführung Gespräche mit den Betroffen geführt werden und die Einstellung der
Mitarbeiter erhoben werden, da nur so gewährleistet ist, dass die Software sinnvoll genutzt
wird. Schlechte Software wird von Mitarbeitern unterlaufen. Schwer erlernbare Software
kostet viel Zeit bei der Einarbeitung. Nicht getestete Software kann ebenfalls zu großen
Problemen führen. Benutzer haben oft ein völlig anderes mentales Modell der Software als
Entwickler, dies muss ebenfalls berücksichtigt werden.

Usability-Forschung bezeichnet einen Teilbereich der HCI, der sich spezifisch mit der
Gestaltung der Oberfläche von Softwaresystemen befasst.
Software-Ergonomie befasst sich historisch mit der optimalen Gestaltung von Maschinen, in
der Software-Ergonomie spielen daher medizinische und physische Aspekte eine etwas
größere Rolle.

Donald Norman identifizierte 2 Grundprinzipien der HCI:


• Sichtbarkeit (visibility): Beim Hammer erkennt man jederzeit den Systemzustand, bei
einer Software eher nicht, Sichtbarkeit muss daher künstlich hergestellt werden
(Progressbar, Drag’n’Drop).
• Aufforderungscharakter (affordance): bedeutet, dass die Funktion eines Instruments aus
der äußeren Gestalt ableitbar ist (Bsp.: Hammer Æ Form Æ Nagel einschlagen, Sessel Æ
Sitzen Æ drauf stehen). Durch die mangelnde Sichtbarkeit in Computersystemen ist dies
aber wesentlich schwerer zu erkennen. Abhilfe kann durch Metaphern (z.B.: Desktop
Metapher) geschafft werden.

Direkte Manipulation ist ein Verfahren zur Gestaltung von Betriebssystemen und basiert auf
graphischen Interfaces. Es entstand als Alternative zu den kommando-orientierten Interfaces.
Benutzer können direkt mit dem System interagieren ohne irgendwelche Befehle einzugeben.
8
Aktionen können rasch, inkrementell und reversibel durchgeführt werden. Eine Sichtbarkeit
der Objekte (werden meistens durch Icons repräsentiert) ist gegeben. Es werden Metaphern
(analoges Denken) verwendet.

Vorteile der direkten Manipulation:


• NovizInnen lernen grundlegende Funktionen rasch.
• BenutzerInnen bekommen unmittelbares Feedback.
• BenuzerInnen reagieren unbeschwerter, da leichtes Undo möglich ist.
• Aktionen des Systems werden leichter vorhersehbar.

3. Lerntheorien:

Instructional Design ist eine objektivistische Theorie. Das bedeutet, dass die Welt so erkannt
werden kann wie sie ist. Konstruktivistische Theorien gehen dagegen davon aus, dass jeder
seine eigene Vorstellung von der Realität entwickelt. Moderate konstruktivistische Ansätze
weisen darauf hin, dass unsere Realitäten so ähnlich sind, dass wir darüber kommunizieren
können.
Da objektivistische Ansätze davon ausgehen, dass es nur eine „richtige“ Theorie über die
Realität gibt, verleit es den Lehrpersonen große Autorität. Die richtige Theorie wird den
Lernenden vermittelt und diese geben sie dann in einer Prüfung wider.
Konstruktivistische Ansätze gehen davon aus, dass Lernende über jeden Gegenstand eine
eigene Sichtweise entwickeln müssen. Dieser Ansatz ist in den Sozial- und
Geisteswissenschaften (Stil einer Deutscharbeit) leichter zu argumentieren als in den
Naturwissenschaften (Lösung eines Mathematikbeispiels).

3.1. Ausubel – Bedeutungsvolles Lernen (Kognitivismus)

Ausubel vertritt eine kognitivistische Lerntheorie. Im Gegensatz zum Behaviorismus geht er


davon aus, dass die geistige (kognitive) Verarbeitung des Gelernten von großer Bedeutung ist.
Es ist wichtig, sich darüber Gedanken zu machen wie Information im Gehirn gespeichert
wird. Ausubel spricht von bedeutungsvollem Lernen, die Behavioristen führten ihre
Experimente hauptsächlich mit sinnlosem Material durch. Er weist darauf hin, dass das
Vorwissen eine große Rolle spielt und dass Lernstoff in bestehendes Wissen eingeordnet
wird. Ausubel wendet sich also gegen das Lernen von isolierten Fakten und sieht Wissen als
vernetzt an.

David Ausubel entwickelte in diesem Zusammenhang den Advance Organizer. Dies ist ein
Textelement, welches für Lehrtexte und wissenschaftliche Arbeiten verwendet wird. Die
Platzierung ist immer am Anfang eines Textes. Der Advance Organizer liefert einen kurzen
Überblick über den Inhalt des folgenden Textes, ist aber keine reine Zusammenfassung. Der
Leser kann anhand dieser Information schnell erfassen, ob der folgende Text die Inhalte
enthält, die er benötigt.

Ausubel unterscheidet zwischen unterschiedlichen Arten des Lernens:


• bedeutungsvolles Lernen vs. Auswendiglernen
• Lernen durch Entdeckung vs. Lernen durch Rezeption
Ausubel weist aber darauf hin, dass entdeckendes Lernen sehr langweilig sein kann
(Chemielaborant) und es daher nicht der einzige Ansatz im Unterricht sein kann.
Bedeutungsvolles Lernen kann auch durch Rezeption (Vorträge, Lehrbücher) geschehen. Als

9
negativ betrachtet er das Auswendiglernen von isolierten, unverstandenen Fakten, welche
i.d.R. rasch wieder vergessen werden, da sie keinen Bezug zur Realität haben.
Computer unterstützen entdeckendes Lernen sehr gut, die meisten e-learning Programme
kommen aber ohne es aus, da es sehr schwierig zu implementieren ist. Wenn es überlegt
eingesetzt wird kann es aber den Lernprozess unterstützen.

3.2. Instructional Design (ID)

Instructional Design beruht auf einer Kombination von Behaviorismus und Kognitiver
Psychologie. ID beschäftigt sich mit dem Zusammenhang zwischen Lernstoff und dessen
Präsentation und den Lernergebnissen. Als Ergebnis zählen nur messbare Werte im Sinne
einer Prüfung. ID berücksichtigt aber auch mentale Modelle, inhaltliche Struktur sowie
Präsentation spielen auch eine Rolle.

Prinzipien des Instructional Design:


• Analyse von Aufgaben und Bedingungen, unter denen gelernt wird.
• Auswahl der Methode (erzielt idealtypischerweise immer dasselbe Ergebnis).
• Evaluation (einfach, da ein Text gelernt und wiedergegeben werden muss)

Wesentliche Vorannahmen des Instructional Design:


1. Die Ziele des Lernprozesses müssen eindeutig definierbar sein.
2. Die Ergebnisse des Lernprozesses müssen direkt messbar sein.
3. Die Lernenden sind wichtiger als die Lehrenden.
4. Grundlegende Kenntnisse über den Lernprozess sind notwendig.

Kritik am Instructional Design:


• Atomistisches Vorgehen
Lernmaterial wird in einzelne Komponenten zerlegt
• Rein kognitives Herangehen
Interaktion zw. Lehrenden und Lernenden wird nicht berücksichtigt
• Lehrmaterial und Lernziele völlig vorgegeben
kein Raum für autonome Lernprozesse der Studierenden

3.3. Konstruktivistische Lerntheorien

Konstruktivisten gehen davon aus, dass es unterschiedliche Sichtweisen auf Lerninhalte geben
kann. Sie betonen die Eigenaktivität und Verantwort der Lernenden und die Bedeutung des
Bezugs zur Alltagsaktivität. Lernen ist ein Prozess bei dem Wissen aktiv gesucht und
konstruiert wird. Lernende erzeugen ihre eigene Sicht auf die Realität.

• Core Knowledge Domain: Es gibt einen Kernbestand an Wissen der gelernt werden muss
und einen Bereich von Inhalten der von Lernenden entsprechend ihrer Sichtweise gestaltet
werden kann (Bsp.: Geschichte Æ bestimmte Fakten und Themen wo keine Einigkeit Æ
Studenten müssen eigene, wissenschaftlich fundierte Meinung bilden).
• Anbindung an die Realität (authentic tasks) spielt eine große Rolle. Studierende sollen
authentische Aufgaben lösen (Bsp.: Medizin, nicht Knochennamen lernen sondern mit
echten Patienten).
• Cognitive apprenticeship-Modell, also eine Art Lehrlingsausbildung im Rahmen von
praktischen Anwendungen (Bsp.: Medizinstudenten)
10
• Vielzahl von Sichtweisen, abhängig vom Blickwinkel der Lernenden.
• Wissen existiert nicht, sonder wird ausgehandelt.
• Problem der Evaluation, nicht leicht zu lösen. Ein Ansatz ist, nicht das Ergebnis, sondern
den Prozess zu beurteilen (Bsp.: Diplomarbeit, wissenschaftliche Methoden adäquat
verwendet?).

Gewisse Arten von Lernprogrammen eignen sich besonders gut für die Ideen des
Konstruktivismus:
• Mikrowelten: z.B.: Programmiersprache Logo, Kinder müssen Schildkröte so
programmieren, dass geometrische Formen gezeichnet werden.
• Hypertext: nicht-linearer, verteilter Text; eignet sich besonders gut für die
Darstellung von unterschiedlichen Sichtweisen (können unmittelbar gegenüber gestellt
werden, ohne mühsames Blättern).

Es gibt verschiedene Medien des Schreibens und Lesens.


• Schriftrolle: unhandlich und unstrukturiert, schwere Suche.
• Handschriftliches Manuskript: effizienter, leichter zu blättern, bessere Struktur
• Bücher: Grundlage der modernen Wissenschaft, Seitennummerierung,
Inhaltsverzeichnisse, Indices. Völlig idente Kopien waren möglich.
• Hypertext: Löst die Buchstruktur wieder auf, komplexere Gliederungs- und
Suchmöglichkeiten. Auswirkung auf Wissenschaft ist noch offen.

Es gibt 4 wesentliche Unterschiede zwischen Büchern und Hypertext:


• Linearität: Buch kann von der ersten bis zur letzten Seite gelesen werden.
• Offenheit: Buch ist ein für alle mal fertig, Hypertext kann upgedated werden.
• Interaktivität: Medium reagiert dynamisch auf Ein- und Ausgabe
• Einbeziehung von nichttextuellen Darstellungsformen: Bild, Video, Animation

4. Distance Education / E-Learning

E-Learning hat sich als Oberbegriff für alle Arten des Lernens mit dem Computer
durchgesetzt, obwohl es primär Lernen über das Internet bezeichnet. Distance Education ist
der Fernunterricht über das Internet, er beruht darauf, dass Lehrende und Lernende nicht zur
selben Zeit am selben Ort sind (bis vor kurzem hauptsächlich per Post verschickte Skripten,
bzw. Fernunterricht über TV).

Die Popularität von Distance Education hängt mit der politischen Situation und der
Deregulierung der Wirtschaft zusammen. Bildung wird zunehmend als möglicher Markt für
Privatunternehmen gesehen (insbesondere große Medienunternehmen, wie Time Warner oder
Bertelsmann). Das Internet ermöglicht es Ausbildungsprogramme weltweit (Englisch –
Problem) anzubieten. Virtuelle Unis, wie etwa die Phoenix University, lassen aber vermuten,
dass die Qualität der Bildung unter der Profitorientierung leidet.

Es gibt keine wissenschaftliche Begründung dafür, dass e-Learning effizienter als traditionelle
Lernformen ist. Grundsätzlich bedeutet e-learning, dass die Lernenden wesentlich autonomer
werden. Man muss allerdings außerordentlich motiviert sein um einen Kurs zu beenden, viele
Studierende bevorzugen eine stärker strukturierte Umgebung, da es ihnen so leichter fällt
diszipliniert zu lernen. Es kommt auch zu einem Bedeutungsverlust der Lehrenden, wichtiger
ist das Unterrichtsmaterial und die Erkenntnis, welche die Lernenden für sich selbst

11
gewinnen. Die Lehrenden spielen aber als Betreuungsperson weiterhin eine große Rolle. Die
physische Präsenz geht allerdings verloren (man trifft sich nur noch in Chats oder Foren).
Arbeitsgruppen gestalten sich schwieriger, da die Verbindlichkeit im Internet wesentlich
geringer ist als in der Face-to-Face Kommunikation.

2 widersprüchliche Arten von Reaktionen:


1. StudentInnen wollen keinen Fernunterricht, da sie den persönlichen Kontakt mit Lehrenden
und anderen StudentInnen wünschen. Informelle Interaktion ist wesentlicher Bestandteil des
Lernprozesses.
2. StudentInnen wünschen Fernunterricht, da es ihnen zusätzliche Erfahrungen ermöglicht,
z.B. den Kontakt mit StudentInnen aus anderen Ländern. Sie können sich das Studium
flexibler einteilen (open learning).

Einige bezweifeln die Bedeutung von Medien in der Lehre. Empirische Forschung zeigt,
dass insbesondere das Engagement und der Stil der Lehrenden einen wesentlich größeren
Einfluss auf das Unterrichtsgeschehen haben, als das verwendete Medium (vgl. Clark – mere
vehicle Analogie und Finn – Steigbügel Analogie).

Probleme des E-Learning:


• Viele Programme werden nicht von PädagogInnen erstellt.
• Kosten sind i.d.R. sehr hoch.
• Kulturelle Probleme bei weltweitem Angebot (Sprache, westliche Ansätze)
• Wegfall persönlicher Beziehungen
• Technische Probleme (langsames, gar kein Internet, unausgereifte Technologie)

Grundsätzlich sollte E-Learning bzw. Distance Education nicht abgelehnt werden, es ist aber
wichtig auch die Probleme, die damit einhergehen aufzuzeigen. In vielen Fällen kann E-
Learning dennoch sinnvoll eingesetzt werden.

12