Cognitive Computing: Steigerung des systemischen Intelligenzprofils
Von Matthias Haun
()
Über dieses E-Book
Ziel des Buches ist, artifizielle Systeme als kognitive Modelle und damit als wissensbasierte Agenten zu konzeptionalisieren und diese Agentenmodelle durch rechnerbasierte Technologien in prozessualer und funktionaler Hinsicht zu kognitiven Problemlösungssysteme auszugestalten. Das Ziel eines solchen Ansatzes liegt in der Steigerung des systemischen Kognitionsquotienten solcher Systeme. Erreichbar wird dieses Ziel durch die Konzeptionalisierung von Modellen auf Basis einer Kognitionstheorie, der (Aus)implementierung dieser Modelle durch den Einsatz der Cognitive Computing Technologie unter Verwendung der Programmiersprache Java und der Validierung dieser Lösungen im Rahmen von Simulationen.
Das Buch wendet sich gleichermaßen an Studierende, Fachleute aller Fachrichtungen als auch den interessierten Leser. Indem die einzelnen Kapitel einen Brückenschlag zwischen Standardwissen und Wissen aus Nachbargebieten, wie Kognitionswissenschaft oder Informatik darstellen, versucht dieses Handbuch ein tiefgreifendes Verständnis des komplexen Themengebietes „Artifizielle Kognition“ zu ermöglichen und dabei dennoch voraussetzungsfrei lesbar zu bleiben.
Ähnlich wie Cognitive Computing
Ähnliche E-Books
Zusammenfassung von „10 x DNA - Das Mindset der Zukunft“: Kernaussagen und Analyse von Frank Thelens Buch: Zusammenfassung Bewertung: 0 von 5 Sternen0 BewertungenTierkommunikation III Bewertung: 0 von 5 Sternen0 BewertungenKindergeschichten zum vorlesen ab 6-8 Bewertung: 0 von 5 Sternen0 BewertungenSprachen lernen - Tolle Tipps und Tricks: Kreative Methoden für Motivation und maximalen Erfolg Bewertung: 3 von 5 Sternen3/5YogaKids®: Spielerische Übungen für Konzentration, Ausgeglichenheit und Wohlbefinden bei Kindern Bewertung: 0 von 5 Sternen0 Bewertungena tempo - Das Lebensmagazin: Mai 2021 Bewertung: 0 von 5 Sternen0 BewertungenNachhaltigkeit für Kinder erzählen: Mitwelt-Geschichten als Schlüssel zur Naturvertrautheit Bewertung: 0 von 5 Sternen0 BewertungenRECHNEN IN BEWEGUNG: Rechenfähigkeiten entwickeln - Rechenprobleme überwinden Bewertung: 0 von 5 Sternen0 BewertungenNICHT WIEDER ROSA MOOS Bewertung: 0 von 5 Sternen0 BewertungenGeheimwaffe: Assistenz I: Kommunikation und Soft Skills Bewertung: 0 von 5 Sternen0 BewertungenLeistung: 100 Praktische Tipps für Karriere und Privatleben Bewertung: 0 von 5 Sternen0 BewertungenBuchtipps: Diese Bücher müssen Sie gelesen haben Bewertung: 0 von 5 Sternen0 BewertungenZur Sache, Experten!: Sachbuch schreiben und vermarkten Eine 10-Schritte-Anleitung Bewertung: 0 von 5 Sternen0 BewertungenEmpirisches Arbeiten in Linguistik und Sprachlehrforschung Bewertung: 0 von 5 Sternen0 Bewertungen2025 - Das Endspiel: oder Der Putsch von oben Bewertung: 1 von 5 Sternen1/5Professionelle Angebotserstellung: Erklärungsbedürftige Inhalte überzeugend verkaufen Bewertung: 0 von 5 Sternen0 BewertungenÖffentliche Rede – Terror zum Triumph: Wie man die Angst vor öffentlichen Reden überwindet Bewertung: 0 von 5 Sternen0 BewertungenWe/Me-Power: Wie wir Dinge leichtnehmen, wenn es schwer wird Bewertung: 0 von 5 Sternen0 BewertungenVoice sells!: Die Macht der Stimme im Business Bewertung: 0 von 5 Sternen0 Bewertungen12 Stunden bis zur Selbstliebe Bewertung: 0 von 5 Sternen0 BewertungenVertrieb trifft Hirnforschung: Mit intelligenter Gesprächsstrategie Kunden einfach kaufen lassen Bewertung: 0 von 5 Sternen0 BewertungenDer Elefant und der Treiber: In Trance aus dem Trauma Bewertung: 0 von 5 Sternen0 BewertungenTextom: Ultraverlinkung von Weltleitzahlen, Orten, historischen Personen, Geschichtsdaten Bewertung: 0 von 5 Sternen0 BewertungenLeben und Arbeiten in Neuseeland: Ein interkultureller Ratgeber für den beruflichen Alltag von Expatriates Bewertung: 0 von 5 Sternen0 BewertungenPraktische Aspekte der kulturanalytischen Linguistik Bewertung: 0 von 5 Sternen0 Bewertungen
Rezensionen für Cognitive Computing
0 Bewertungen0 Rezensionen
Buchvorschau
Cognitive Computing - Matthias Haun
© Springer-Verlag Berlin Heidelberg 2014
Matthias HaunCognitive Computing10.1007/978-3-662-44075-9_1
1. Prolog als Motivation
Matthias Haun¹
(1)
VETEC Ventiltechnik GmbH, Speyer, Deutschland
Matthias Haun
Email: matthias.haun@web.de
1.1 Probleme als Herausforderung
1.2 Cognitive Computing als Wissenschaftsdiziplin
1.3 Kognitive Systeme als Problemlösungssysteme
Literatur
Die generelle Motivation für dieses Buch und damit zur Entwicklung kognitiver Systeme liegt in der Erkenntnis, dass Computer zwar schnell und mit enormer Präzision solche Probleme berechnen und damit lösen können, die sich gut definieren lassen, aber sich bisher eher schwer tun wenn es um die Lösung von nur ungenau umrissenen Problemen geht. Maschinen, wie Robotersysteme oder Softwareprogramme, wie Agentensysteme sollen also Fähigkeiten „einverleibt" bekommen, die sie in die Lage versetzen, Probleme zu lösen, die bisher nur Menschen lösen konnten.
1.1 Probleme als Herausforderung
Derzeit sehen sich der Staat, die Unternehmen und die Gesellschaft mit einer Vielzahl von Problemen konfrontiert: Staatliche Finanzprobleme, Liberalisierung der Märkte, zunehmende internationale Kooperationen, Globalisierung, Boom in den asiatischen Ländern bei gleichzeitiger Sättigung in den entwickelten Staaten, Fragmentierung bei gleichzeitiger Polarisierung der Märkte, Ethisierung, Technologisierung und Beschleunigung der Innovationsrate bei gleichzeitiger Verpflichtung zum nachhaltigen Wirtschaften . Gleichzeitig zu dieser Problemsituation zeichnet sich – wenn auch noch eher schleichend – eine vierte industrielle Revolution ab, indem durch eine „Intelligenzierung von Produktionsanlagen und industriellen Erzeugnissen bis hin zu Alltagsprodukten mit integrierten Speicher- und Kommunikationsfähigkeiten, Funksensoren, eingebetteten Aktuatoren und intelligenten Softwaresystemen eine Brücke zwischen virtueller („cyber space
) und dinglicher Welt geschlagen werden soll. Diese Brücke wird eine wechselseitige Synchronisation zwischen digitalem Modell und der physischen Realität gestatten. Letzteres wird nicht nur die derzeitigen Produktlebenszyklen nachhaltig beeinflussen, sondern auch neue Produktplanungs-, und -steuerungs-sowie Fertigungsprozesse erfordern. So kann das Ziel ressourcensparender, weil effizienter Produktionsprozesse angestrebt werden. Außerdem kann damit der Tatsache entsprochen werden, dass das Internet der Dinge zum Garanten und Treiber für neue „smarte Geschäftsmodelle , zur Entwicklung intelligenter und damit „smarter
Produkte und zum Bereitstellen mehrwertiger und damit „smarter" Dienstleistungen avanciert.
In dieser Problemlandschaft hat sich der Computer als eine Schlüsseltechnologie zur Problemlösung etabliert. Der heutige Mensch schreibt mit PCs, informiert sich im Internet und kommuniziert per E-Mail oder Handy. Selbst wer sich diesem Computeralltag entzieht, vertraut sich computergestützten Produktions-, Versorgungs-, Verkehrs- und Gesundheitssystemen an. Diese Tatsache kommt in der Begrifflichkeit der „vierten Kulturtechnik" zum Ausdruck:
Neben die traditionellen Kulturtechniken Lesen, Schreiben und Rechnen tritt als eine neue vierte Kulturtechnik die Handhabung computergestützter Informations- und Datenverarbeitung. (Zimmerli 1988)
Dahinter stehen logische Beweis-, Steuerungs-, Planungs- und Organisationsaufgaben, die von Computersystemen auch bisher erledigt wurden, in Zukunft aber mehr oder weniger selbständig und intelligent ausgeführt werden müssen. Sprache und Denken, Wahrnehmen und Fühlen, Interaktion und Kommunikation sind längst Forschungsthemen der unterschiedlichen Wissenschaftsdisziplinen, mit dem Ziel, die traditionellen Schranken von Mensch-Maschine-Systemen zu erforschen und zu überwinden. So entfaltet sich das Cognitive Computing zu einem ausgedehnten Forschungsgebiet, das zahlreiche verschiedene Fachdisziplinen in einer interdisziplinären Wissenschaftsdisziplin vereinigt. Ohne Anspruch auf Vollständigkeit können hier Mechanik, Maschinenbau, Elektrotechnik, Antriebstechnik, Biologie und Informatik, Mathematik, Regelungstechnik, Sensortechnik und Künstliche Intelligenz aufgezählt werden.
Gemäß der klassischen Auffassung sind Lösungsysteme, Aufgaben und Umgebung miteinander verknüpft und können nicht unabhängig voneinander betrachtet werden (Abb. 1.1).
A305667_1_De_1_Fig1_HTML.gifAbb. 1.1
Klassischer Ansatz von Lösungssystemen
Die zukünftigen Anforderungen lassen hingegen Lösungssysteme erwarten, die nicht nur Aufgaben „abarbeiten beziehungsweise sich in einer bestimmten Umgebung nur „verhalten
, sondern auf und in diese Umwelt „einwirken". Sie reagieren auf Umgebungsreize in sinnvoller Weise und können durch Interaktionen bzw. durch zukünftige Interoperation mit der Umwelt auch nicht voraus geplante Probleme adäquat lösen. Damit wird bereits recht früh in diesem Buch postuliert, dass die zukünftigen Lösungssysteme als intelligente Verhaltenssysteme zum einen von der Komplexität ihrer Umgebung weitgehend bestimmt werden, aber durch ihr eigenes intelligentes Verhalten auf diese Umwelt einwirken. Die zukünftigen intelligenten Lösungssysteme entwickeln sich daher mit ihrer Umwelt und umgekehrt (Abb. 1.2)!
Abb. 1.2
Zukünftige Lösungssysteme
Fasst man an dieser frühen Stelle des Buches sowohl die Systeme des Alltags und die Lösungsysteme als Agentensysteme auf, so wird man von diesen Agenten in Zukunft erwarten, dass sie „denken bevor sie handeln, dass sie aus Erfahrung lernen und damit Probleme „intelligent
lösen können. Dabei wird in diesem Buch ein eher intuitiver Begriff vom Denken verwendet, da man nach wie vor keine notwendigen und hinreichenden Bedingungen angeben kann, mit deren Hilfe man final entscheiden kann, ob eine bestimmte Entität bzw. ein konkretes Objekt denkt. Es ist also der intuitive umgangssprachliche Begriff des Denkens in seiner ganzen Vagheit, der in den folgenden Überlegungen verwendet wird (Abb. 1.3).
Abb. 1.3
Agentensysteme als generische Problemlösungssysteme
Der Begriff des Agentensystems wird dabei im Folgenden in enger Anlehnung an die Modelle aus der Robotik verwendet, wo diese Modelle In- und Outputs verarbeiten. Diese oft autonome Agenten genannten Modelle empfinden einfache Systeme nach, nehmen die Umwelt direkt über Sensoren (z. B. Bildkameras) wahr und können selbst unmittelbar mit Effektoren bzw. Aktoren (z. B. Motoren) operieren.
Es werden Systeme sein müssen, die sich selbst weiterentwickeln, um solche Aufgaben auch zu lösen, für die sie ursprünglich nicht dediziert programmiert wurden. Um eine solche Weiterentwicklung anstreben zu können, werden diese Agentensysteme neben dem Zugriff auf inhärentes Wissen, um darauf basierend Schlussfolgerungen zu ziehen, vor allem Daten und Informationen aus der Umgebung sammeln, um diese Informationen in stimmige Handlungsempfehlungen umzuwandeln. Übersteigt eine Aufgabe trotz der vorhandenen Wissensbasis die Fähigkeit eines solches Agenten, wird er von sich aus versuchen, durch geeignete Such- und Rechercheverfahren beispielsweise die riesige Informationsmenge des Internets für die Wissenserweiterung zu nutzen.
1.2 Cognitive Computing als Wissenschaftsdiziplin
Im Allgemeinen versteht man unter Cognitive Computing die Orchestrierung von Erkenntnissen aus den unterschiedlichen Disziplinen, wie beispielsweise Philosophie , Psychologie , Informatik , Linguistik , Mathematik und Neurowissenschaften . Im Besonderen umfasst Cognitive Computing die Kombination unterschiedlicher wissenschaftlicher Modelle aus den Kognitionswissenschaften und Technologien aus dem Bereich der Künstlichen Intelligenz (Artificial Intelligence ) und des Künstlichen Lebens (Artificial Life ). In diesem Sinne wird in diesem Buch der Versuch unternommen, eine Art technologischer Erweiterung der Kognitionswissenschaften zu entwickeln, die sowohl eine konsequente Methoden- und Erkenntnisintegration von natur- und geisteswissenschaftlichen Aspekten anstrebt, dabei eine grundlagentheoretische Verfahrensweise zugrunde legt, als auch eine technologische, kommerzielle und damit praxisnahe Ausrichtung verfolgt. Insofern handelt es sich beim Cognitive Computing um eine Wissenschaftsdisziplin , die mit kognitiven Modellen arbeitet und diese Modelle als Vorlage („Blaupause") zur software- und hardwaretechnischen Implementierung problemlösungsfähiger bzw. lauffähiger Systeme bereitstellt. Im Einzelnen dienen dabei die Technologien des Cognitive Computing der Realisierung von auf Modellen basierenden Lösungen und setzen sich aus symbolischen (Produktionsregeln, Fuzzy Logik, Rekursive Algorithmen, Agentensysteme) und subsymbolischen (neuronale Netze) Ansätzen zusammen. Gerade der multiplikative Einsatz der unterschiedlichen symbolischen und subsymbolischen Techniken vermag Problemlösungsräume zu erschließen, die dem bisherigen, singulären Einsatz der Techniken eher verschlossen blieben.
Es ist darauf hinzuweisen, dass die einzelnen Techniken des Cognitive Computing punktuell auch unter den Begriffen des Soft Computing , Computational Intelligence , Organic Computing oder auch Ubiquitous Computing und Autonomic Computing abgehandelt werden. Unter Computational Intelligence werden allerdings primär Techniken verstanden, die mit dem Begriff des Soft Computing vergleichbar sind, wie Neuronale Netze, Genetisches Programmieren, Schwarmintelligenz und Fuzzy Systeme. Der Fokus der Computational Intelligence liegt daher eher auf solchen subsymbolischen Techniken. Im Zusammenhang mit Organic Computing werden selbstorganisierende Systeme untersucht, daher werden primär Neuronale Netze, Evolutionäre Algorithmen sowie Zellularautomaten behandelt. Insofern scheint die Einführung des Begriffs des Cognitive Computing aus wissenschaftsphilosophischer Sicht gerechtfertigt, da es sich hier erstmalig um eine Orchestrierung intradisziplinär gewonnener Erkenntnisse, um eine multiplikative Verknüpfung symbolischer und subsymbolischer Ansätze und damit um eine umfassende Technologisierung von kognitionswissenschaftlichen Erkenntnissen handelt.
Den Techniken gemeinsam ist der Aspekt der Repräsentation von Wissen in natürlichen und künstlichen Systemen. Wissen bedeutet in diesem Zusammenhang in einer bestimmten Situation innerhalb eines Problemraumes adäquat zu handeln. Bei den Ansätzen handelt es sich zum einen um symbolische Ansätze der Wissensrepräsentation , wie Produktionsregelsysteme, Logik-basierte Verfahren, fallbasiertes Schließen, bis hin zu stochastischen Automaten. Diese Ansätze nutzen meist diskrete Konzepte, mit deren Hilfe logische Aussagen oder Zustände repräsentiert werden können. Es wird allerdings gezeigt werden, dass es bei gewissen Problemkonstellationen bzw. in speziellen Problemdomänen nicht ausreicht, Wissen auschließlich auf symbolische Weise zu präsentieren, um damit Lösungen zu erarbeiten. Die symbolische Wissensrepräsentation verfügt nicht über die notwendigen und hinreichenden Mittel, um in solchen Problemräumen intelligentes Verhalten zu erzeugen. Daher werden im Rahmen des Cogntive Computing auch subsymbolische Ansätze verwendet, die mit Repräsentationen unterhalb der Symbolebene arbeiten. Hier wird dann nicht mehr die Rede von Symbolen, Deduktion und Produktionsregeln die Rede sein, sondern parallel ablaufende Prozesse und strukturelle Kopplungen im Fokus stehen.
Es wird stufenweise ein Modell der artifiziellen Kognition entwickelt, das unter Anwendung von symbolischen und subsymbolischen Ansätzen zu einem Kognitionsmodell wird, das im späteren Verlauf des Buches einer Algorithmisierung zugänglich ist. Letzteres impliziert, dass Kognition als Berechnungsvorgang („Computation) verstanden werden kann. Als solches Verständnis ist es die Grundlage dafür, um im Rahmen der Implementierung solche Computerprogramme entwickeln zu können, um die im Rahmen der Konzeptionalisierung entwickelten Modelle kognitiver Prozesse abzubilden. Insofern steht der Begriff der „Computation
in diesem Buch nicht nur für ein bestimmtes soft- bzw. hardwaretechnisches Modell, sondern auch für eine bestimmte technische Realisierung. Eben diese Entwicklung vom Modell zur realisierten Lösung offenbarte eine Krise, in der nicht nur die kognitive Modellierung steckt, sondern von der jeder modellbasierte Lösungsansatz betroffen zu sein scheint. Es fehlt an grundlegenden, interdisziplinären Vorgehensmodellen, die so allgemein ausgeprägt sind, um Domänen in den Griff zu bekommen, die nicht nur durch rein formal-logische Repräsentationskonzepte und Schlüsse erfassbar sind. Insofern wird nach der Entwicklung des Kognitionsmodells ein Vorgehensmodell vorgestellt, das den geforderten interdisziplinären Zugang zu den Problem- aber auch den Lösungsräumen ermöglicht.
Sowohl bei der Modellierung kognitiver Phänomene als auch bei der späteren Implementierung dieser Modelle in konkrete Systemlösungen werden durch die interdisziplinäre Vorgehensweise einzelne Erkenntnisse aus den unterschiedlichen Wissenschaftsdisziplinen integriert. Ziel ist dabei, eine möglichst allgemeine, aber dennoch verwertbare Sichtweise für Intelligenz , Denken , Erkennen und damit Kognition zu erarbeiten. Obwohl das Phänomen der Kognition aus verschiedenen Perspektiven beleuchtet wird, gilt die menschliche Kognition (human cognition) als natürliches Vorbild. Dadurch, dass Cognitive Computing ihrem Gegenstand und ihren Methoden nach nicht nur eine kultur- und naturwissenschaftliche, sondern auch eine technologische Wissenschaft ist, erscheint sie als eine wissenschaftliche Disziplin neuen Typs.
Die spezifische Nähe von Theorie und Praxis beziehungsweise von Modell und Systemlösung macht eine veränderte wissenschaftsphilosophische Betrachtung erforderlich. Neben dieser Nähe erscheinen auch die Aspekte der Theorienpluralität , der Transdisziplinarität und der durch die Technologie induzierte Zirkularität wissenschaftsphilosophisch relevant. Deshalb ist es sicherlich notwendig, die Instrumente der klassischen Wissenschaftsmodelle (Kuhn, Lakatos, Feyerabend etc.) kritisch zu würdigen, um zum einen ihre Anwendungsmöglichkeiten auf die sich abzeichnende Technologisierung der Wissenschaft zu erörtern und zum anderen an den Stellen, an welchen sich die „klassischen Methoden als unzureichend erweisen, nach neuen Beschreibungsmustern zu suchen. Dieser Notwendigkeit in der erforderlichen Tiefe nachzukommen, erscheint jedoch an dieser Stelle zu früh, würde außerdem den Rahmen dieses Buches sprengen und bleibt daher weiteren Arbeiten und Autoren überlassen. Dennoch sei kurz die in diesem Buch vertretene Wissenschaftsauffassung angedeutet, um eine „philosophische Verortung
bereits an dieser frühen Stelle zu ermöglichen:
Das Ganze ist nicht gleich der Summe der Teile.
Komplexe Systeme sind vernetzte, dynamische Ganzheiten.
Offene Systeme sind mit ihrer Umwelt vernetzt und tauschen mit ihr Materie, Energie und Informationen.
Das Verhalten komplexer Systeme lässt sich nicht im Einzelnen vorhersehen, jedoch beeinflussen.
Komplexe Systeme weisen erkennbare Ordnungsmuster auf, die gestaltet werden können.
Lenkung (Steuerung, Regelung) hält ein System unter Kontrolle.
Soziale Systeme können lernen und sich qualitativ entwickeln.
Der Mensch verfügt über empirisches Wissen, das in konstruktivistischer Weise an ihn selbst und seine kognitiven Fähigkeiten gebunden ist.
Dieses Wissen ist nicht an die objektive Struktur einer wie auch immer gearteter Wirklichkeit gebunden, sondern ist Wissen von genau der Welt, wie sie der Einzelne kognitiv erfasst.
Das Buch strebt nicht an, ein „wahres" Abbild dieser Wirklichkeit zu liefern, sondern will vielmehr Vorschläge zur Entwicklung von verwertbaren Realitätskonstrukten anbieten.
In diesem Sinne verfolgt das Buch einen handlungstheoretischen Ansatz, indem Wissen als die Fähigkeit bzw. Eignung aufgefasst wird, in einer bestimmten Situation intelligent zu handeln.
Der wissenschaftsphilosophische Ansatz, der diesem Buch zugrunde liegt, basiert einerseits im kritischen Rationalismus nach Karl Popper und andererseits auf den Erkenntnissen der Phänomenologie und der Hermeneutik . Dieser Ansatz, unter Einbeziehung der Modell- und Systemtheorie, wird insbesondere durch einen Konstruktivismus geprägt und durch neue Ansätze der Informatik „operationalisiert".
1.3 Kognitive Systeme als Problemlösungssysteme
Mit Hilfe des kognitiven Modells lassen sich allerdings nicht nur kognitive soft- und hardwaretechnische Systeme entwickeln. Der kognitive Ansatz lässt sich auch auf Organisationen und Strukturen anwenden. Dabei werden beispielsweise Unternehmen als wissensbasierte bzw. kognitive Organisationen aufgefasst und damit als kognitive Modelle konzeptionalisiert, um diese Modelle dann durch rechnerbasierte Technologien in prozessualer und funktionaler Hinsicht so auszugestalten, dass sich dadurch messbare Mehrwerte in den Wertschöpfungsketten erzielen lassen. Insofern gilt das Cognitive Computing neben dem Business Process Managements (BPM) und dem Business Intelligence (BI) als eine Schlüsseltechnologie für die Probleme und Herausforderungen, mit denen sich jedes Unternehmen, die Gesellschaft als Ganzes und damit jeder Einzelne konfrontiert sieht. So können beispielsweise Städte und Kommunen wirtschaftlichen Erfolg erzielen, wenn es ihnen gelingt, die Anforderungen von Konzernen und Mitbürgern nachhaltig in Einklang zu bringen, sprich: zu vernetzen. So bevorzugen multinationale Konzerne und ausländische Geschäftsleute die Infrastrukturen moderner Städte und Kommunen. Leider sucht man in Europa solche Infrastrukturen dagegen häufig vergebens. Erschwerend kommt hinzu, dass derzeit Städte und Kommunen mit Luftverschmutzung, Energieverschwendung und Verkehrslärm, als Folge der Entwicklung, kämpfen. Die schlechte Ökobilanz verursacht Kosten in Milliardenhöhe. Auch die Wasser- und Energieversorgung oder die Müllbeseitigung bekommen die Behörden nur schwer in den Griff. Hier helfen Cognitive Computing Technologien, um aus Daten und Informationen das wertvolle Wissen zu generieren, um die genannten Probleme zu lösen.
Mit Hilfe des kognitiven Modellansatzes lassen sich aber auch Probleme der Mobilität oder Energie als kognitive Strukturen auffassen, diese dann als kognitive Modelle konzeptionalisieren, um diese Modelle dann wiederum durch rechnerbasierte Cognitive Computing Technologien in prozessualer und funktionaler Hinsicht auszugestalten (Abb. 1.4). Letzteres scheint dringend notwendig, denn trotz der zahlreichen, aber leider verteilten Bemühungen um die Einführung und Etablierung von Elektromobilität, basiert die gegenwärtige Energieversorgung des Straßenverkehrs zum überwiegenden Teil auf fossilen Energiequellen, d. h. auf den Erdölprodukten Benzin bzw. Diesel. Auch die in Verbindung mit der weltweit steigenden Nachfrage nach Mobilität und Erdöl zunehmende ökonomische, wie auch strategische Bedeutung (bei gleichzeitiger Endlichkeit dieser Ressource), konnte den Etablierungsprozess von Elektromobilität nicht beschleunigen. Dennoch: Das derzeitige System der Mobilität, welches nahezu vollständig auf die Verfügbarkeit des fossilen Energieträgers Erdöl ausgerichtet ist, lässt sich in dieser Form nicht in die Zukunft übertragen. Der Entwicklung und Verbreitung neuer Antriebskonzepte wird deshalb für die Sicherstellung einer gesellschaftlich notwendigen Mobilität, die gleichzeitig auch den beiden Zielen Nachhaltigkeit und Klimaschutz Rechnung trägt, eine erhebliche Bedeutung zugeordnet. Elektrofahrzeuge und die damit notwendigen intelligenten bzw. kognitiven Infrastrukturen stellen einen wichtigen Bestandteil der modernen und nachhaltigen Mobilität dar.
A305667_1_De_1_Fig4_HTML.gifAbb. 1.4
Kognitive Lösungen
Kognitive Robotik wird eine weitere Generation neuer, weil intelligenter, kognitiver Robotersysteme ermöglichen. Die neue Generation der Kognitiven Roboter wird neben der Simulationstechnik auf die Technologien des Cognitive Computing zugreifen. Dieser Einbezug der Technologien des Cognitive Computing wird nachhaltig zu neuen Architekturen von Robotersystemen führen, was dann wiederum von zentraler Bedeutung für die Ausgestaltung dieser Systeme mit intrinsischer Intelligenz sein wird. Die Kernvoraussetzung einer solchen artifiziellen Intelligenz im Bereich der Robotik ist zum einen die Fähigkeit, selbständig denken und damit aus sich heraus Schlüsse ziehen zu können. Zum anderen wird maschinelles Lernen und sensorgestütztes Handeln, das Interoperieren, das Bewegen in einer bzw. das Einwirken auf eine dynamische Umwelt , deren Zustände sich permanent ändern und daher unsicher sind, erst ermöglicht.
Insofern handelt es sich beim Cognitive Computing in der Tat um eine Wissenschaftsdisziplin, die nicht nur mit kognitiven Modellen arbeitet, sondern diese Modelle im Rahmen einer entsprechenden Methodik und unter Anwendung spezieller Techniken als kognitive Lösungen in Form kognitiver Strukturen, kognitiver Organisationen oder kognitiver Systeme zur Problemlösung bereitstellt.
Literatur
Zimmerli, W.: Künstliche Intelligenz – Die Herausforderung der Philosophie durch den Computer. Forum Interdiszip. Forsch. 1, 27 (1988)
© Springer-Verlag Berlin Heidelberg 2014
Matthias HaunCognitive Computing10.1007/978-3-662-44075-9_2
2. Grundlagen
Matthias Haun¹
(1)
VETEC Ventiltechnik GmbH, Speyer, Deutschland
Matthias Haun
Email: matthias.haun@web.de
2.1 Erkenntnistheoretisches Fundament
2.2 Methodik
2.3 System-, Modell-, Simulations- und Wissenstheorie
2.3.1 Systeme
2.3.2 Modelle
2.3.3 Simulationen
2.3.4 Wissen
2.4 Symbolismus
2.4.1 Symbolverarbeitung
2.4.2 Produktionsregelsysteme
2.4.3 Fuzzy Logik
2.4.4 Rekursive Algorithmen
2.5 Subsymbolismus
2.5.1 Konnektionismus
2.5.2 Konnektionistische Systeme
2.5.3 Konnektionistische Modelle
2.6 Interoperationalismus
2.7 Künstliche Intelligenz
2.7.1 Historie
2.7.2 Konzepte
2.7.3 Kritik
2.7.4 Implikationen
2.8 Cognitive Computing
2.9 Artifizielle Kognition und Systemische Intelligenz
Literatur
Dieses Kapitel ist der Behandlung wichtiger Grundlagen und der Einführung zentraler Begriffe gewidmet. Der Gebrauch schlecht definierter Ausdrücke mit zentraler Bedeutung sollte in einem guten Buch bzw. in fundierten Theorien vermieden werden. In gewissem Sinne stellen der Verlauf dieses Buches und seine Inhalte ein wissenschaftliches Experiment dar, indem immer Fragen an die Natur gestellt werden. Aus den Antworten und aus den Daten werden vorläufige Vermutungen, das heißt Hypothesen, abgeleitet, diese der Gemeinschaft der Leser vorgestellt und damit auch der Validierung bzw. Kritik ausgesetzt. Eine Hypothese, die wiederholt solchen Tests standgehalten hat und die durch viele Beobachtungen und Experimente belegt werden kann, wird schließlich in den Status einer Theorie erhoben.
2.1 Erkenntnistheoretisches Fundament
Das Buch beschäftigt sich im Allgemeinen mit der Entwicklung sogenannter „kognitiver Lösungen (cognitive solutions ), bei denen es darum geht, Lösungssysteme zunächst als wissensbasierte bzw. kognitive Modelle zu konzeptionalisieren und diese Modelle mit Software und Hardware „intelligent
bzw. „kognitiv auszugestalten. Im Speziellen wird damit die Konzeptionalisierung und Implementierung einer „artifiziellen Kognition
(artificial cognition) verfolgt, die durch die Orchestrierung von Simulationen naturanaloger Verfahren das intelligente Verhalten von Lösungssystemen erzeugen soll. Dazu ist eine enge Anlehnung an die Computertechnologie, der Künstlichen-Intelligenz-Forschung (Artificial Intelligence), der Erforschung Künstlichen Lebens (Artificial Life) im Allgemeinen und des Forschungsprogramms Cognitive Robotic bzw. Cognitive Computing im Speziellen gefordert. Darüber hinaus bestehen gerade durch das Cognitive Computing Anknüpfungspunkte zu den zwei Megaprojekten der USA und der EU, wo es im Rahmen des Brain Activity Map Projekts um die Erfassung der Aktivitäten von Nervenzellen, deren Kartierung und somit um das Funktionsverständnis des Gehirnes geht. Dagegen liegt der Fokus des von der europäischen Union geförderten Human Brain Projekts weniger auf der Kartierung, sondern vielmehr auf der Entwicklung einer Plattform bzw. der Computersimulation des Gehirns. Generell wird dadurch der Versuch gestartet, durch die Synchronisation der Erkenntnisse u. a. aus der Kognitionswissenschaft und der Computerwissenschaften das Verständnis des menschlichen Gehirns als Organ und der Kognition als Artefakt dieses Organs auf eine neue Ebene zu heben. Dazu soll ein Modell des Gehirns entwickelt werden, das alle Strukturen des Organs umfasst. Auf Basis dieses Modells und unter Einsatz von Supercomputern sollen sich dann die Aktivitäten des Gehirns simulieren lassen. Dabei baut dieses Projekt auf den Erkenntnissen des Vorgängerprojektes „Blue Brain Project " der ETH Lausanne auf, das zwar eine Reihe interessanter Arbeiten hinterlässt, allerdings auch die zum Ziel gesetzte Simulation der Aktivität einer kortikalen Säule hat vermissen lassen.¹ Insofern werden im weiteren Verlauf dieses Buches unter dem Begriff „Artificial Cognition" sowohl auf Erkenntnisse des Forschungsprogramms Cognitive Robotic bzw. Cognitive Computing, als auch dem des Human Brain Projekts² bzw. Activity Map Projekts³ zugegriffen und somit zum Gegenstandsbereich des Buches.
Den Rahmen dieser Erkenntnisverwertung bilden einige erkenntnistheoretischen Positionen, die im Folgenden kurz erläutert werden sollen. So werden Positionen des Konstruktivismus vertreten, nach denen Entitäten bzw. Objekte erst als Resultat eines Konstruktionsprozesses existieren. Die Existenz solcher Entitäten kann insofern nur postuliert werden, wenn es eine Methode oder ein Prinzip zu ihrer Konstruktion gibt. Mit anderen Worten besteht der Kerngedanke des Konstruktivismus darin, dass die menschliche Wahrnehmung , das Denken und Erinnern nicht eine äußere Realität abbildet oder repräsentiert, sondern womöglich eine eigene Wirklichkeit erzeugt bzw. konstruiert.
Dabei gilt es zu bedenken, dass es „den Konstruktivismus an sich nicht gibt, da der Begriff „konstruktivistisch
mehrdeutig verwendet wird. So beschäftigt sich beispielsweise der empirische Konstruktivismus zum einen mit den Objekten der Wirklichkeit und zum anderen mit Konstruktionsprozessen der Wirklichkeit. Die Wirklichkeitskonstruktion wird somit auch hier als konstruktivistischer Prozess aufgefasst. Mit dieser Auffassung werden alle die Gegenstände angesprochen, die auch bei der Entwicklung von Simulationen naturanaloger Prozesse zum Tragen kommen. Es sind dies neben dem Prozess als solchem, Voraussetzungen, Bedingungen und auch die Folgen der kognitiven Konstruktion von Wirklichkeiten. Aber auch eher entwicklungsnahe Aspekte, wie physiologische, biologische, anthropologische Voraussetzungen, Wahrnehmungs-, Daten-, Informationsverarbeitungsprozesse, Affekt-, Situations- und Wissensmanagement werden in die Überlegungen mit einbezogen. Dabei werden Gebiete der Kognitionswissenschaften und Künstlichen Intelligenz-Forschung aufgesucht, wenn es um die Voraussetzungen von Lernen, Interoperation und Kommunikation, der Ordnungsbildung und der Entstehung von Organisationen, beziehungsweise des Phänomens der Emergenz in Prozessen der Selbstorganisation geht.
Die eher philosophische Frage, was systemische Erkenntnis ist oder maximal sein kann, wie sie erlangt und wie sie gerechtfertigt werden kann, verwandelt sich damit in die Frage, wie das Substrat einer solchen Erkenntnis, die Maschine und deren Komponenten, eine solche Erkenntnis erzeugt. Dabei soll der Begriff der Maschine in der funktionalen Weise eines abstrakten Tupels M = (Q,I,O,∫) mit einer Zustandsmenge Q, einer Eingabemenege I, einer Ausgabemenge O und einer Zustandssübergangsfunktion ∫ betrachtet werden. Eine solche Maschine kann dann durch ihre möglichen Sytemzustände und die Art und Weise, wie sie Anfangszustände in Endzustände überführt, hinreichend modelliert werden.
Zunächst gilt es zu berücksichtigen, dass das System niemals aus seinem Erkenntnisbereich und den darin entwickelnden Repräsentationen der Wirklichkeit heraustreten kann. Zusätzlich stellt das Erkennen vor allem einen selbstbezüglichen Prozess dar, indem das System dann über Wissen verfügen kann, wenn es dieses über einen kognitiven Prozess und den darin verankerten Operationen selbst entwickelt hat. Wissen als Resultat eines solchen Erkenntnisprozesses ist demnach nicht ein „Entdecken, sondern ein „Konstruieren
einer Realität und einer Wirklichkeit. Insofern rekurriert dieser Ansatz insbesondere auf Ansätze aus Systemtheorie , Neurobiologie und Kybernetik , die annehmen, dass kognitive Systeme „informationsdicht" sind, indem sie ihre Wirklichkeit selbst erzeugen.
Die Rückwendung dieses Konstruktivismus und damit die Abkehr vom radikalen Konstruktivismus besteht darin, dass er einen Wissensbegriff etabliert, der nicht ohne Ontologie und damit Repräsentation auskommt (Abb. 2.1).
A305667_1_De_2_Fig1_HTML.gifAbb. 2.1
Varianten des Konstruktivismus
Die Ontologie beeinflusst dabei nicht nur die Konzeptionalisierung (Modelle) und die Implementierung (Klassen, Methoden etc.), sondern auch die Methodik des gesamten Entwicklungsprozesses. Beispielsweise gliedert sich ein an der Ontologie orientierter Entwicklungsprozess in folgende Phasen: Planung: Identifikation der Aufgaben, Planung der Aufgaben, Identifikation der Ressourcen. Kontrolle der korrekten Abwicklung der Aufgaben. Qualitätssicherung: Qualitätssicherung aller im Entwicklungsprozess anfallender Produkte (Ontologie, Softwarekomponenten, Dokumentation etc.) Vor-Entwicklung: Plattform- und Entwicklungsumgebung, Grobspezifikation, Machbarkeitsstudien, Entwicklung: Konzeptionalisierung, Formalisierung, Implementierung. Nach-Entwicklung: Wartung, Produktion, Refactoring. Die Phasen 1 bis 6 unterstützenden Aktivitäten: Wissens-Akquise, Evaluierung, Integration durch Wiederverwendung bereits bestehender Lösungen, Dokumentation, Konfigurations-Management, Projektmanagement.
Der artifiziell-systemischen Kognition kommt daher vor allem eine aktive, konstruktive und adaptive Funktion zu und besteht nicht in der passiven Abbildung einer objektiven Wirklichkeit. Insofern besteht Wissen in der Konstruktion von in Begriffen gefassten Entitäten, die entweder mit der Erfahrungswelt eins sind oder aber mit dieser Erfahrungswelt in Konflikt geraten können. Diese Konstrukte müssen im System daher in einem ersten Schritt zunächst mit der ontologischen Welt im Sinne einer Repräsentation übereinstimmen (Minimalforderung), sie müssen aber noch nicht in das Gesamtkonzept der Erfahrung „passen. Wenn diese begrifflichen Entitäten als Wissen dann auch noch passen (Maximalforderung), so heißt dies nicht mehr und nicht weniger, als dass dieses Wissen sich der Erfahrungswelt als Selektionsmechanismus stellt, und aus diesem Rückkopplungsprozess ein für das erkennende System so lange gangbares „viables
Verhalten erzeugt wird, als dieses die Problemlösung sichert.
Eine solche Sichtweise widerspricht nicht den Erkenntnissen der Kognitionswissenschaften. Die Repräsentation im neuronalen Substrat erfüllt demnach nicht nur eine Abbildfunktion zwischen Umwelt und kognitivem Apparat, sondern sie konstruiert durch kontinuierliche physische Veränderung das zum Überleben und zur Reproduktion des Organismus adäquate Verhalten und stellt damit eine stabile Beziehung zwischen Umwelt und Organismus dar. Das Repräsentationssystem nimmt aktiv an diesen Konstruktionsprozessen teil. Die Dynamik der Umwelt spielt dabei nur die Rolle eines Auslösers (Pertubation), welche die durch das Repräsentationssystem determinierten Verhaltensweisen selektiert. Strategien von Versuch und Irrtum bzw. der funktionalen Passung bestimmen die Beziehung zwischen Umwelt und Repräsentationssystem. Die Repräsentationsstruktur wird so lange versuchsweise verändert und durch Verhalten externalisiert, bis ein intern oder extern festgestellter Fehler minimiert bzw. der homöostatische Zustand hergestellt ist.
Diese Rückwendung soll auch der Auffassung gängiger konstruktivistischer Epistemologien widersprechen, dass man nicht mehr vernünftig von Beobachtungsdaten sprechen kann, dass diese nicht Informationen über die Außenwelt, sondern lediglich Konstruktionen des Bewusstseins darstellen, die keine Aussagen über eine von diesem Bewusstsein unabhängige äußere Welt zulassen. Ebenfalls widersprochen wird der damit oftmals vorgebrachten Behauptung, dass Erklärungen nicht auf Sätzen mit empirischem Gehalt oder wahren Sätzen beruhen müssen, sondern das angestrebte Ziel einer Erklärung nur in ihrer „Viabilität , Passung oder Fitness zum Ausdruck kommt. Theorien, Gesetze und damit auch Erklärungen sind demzufolge „viabel
bzw. „fit, wenn sie dem Überleben in der Wissenschaftspraxis dienen. Gleichwohl soll die Erkenntnis über die Erkenntnis „naturalisiert
werden, um so den Erklärungen auf diese Weise auch einen instrumentellen Charakter zukommen zu lassen.
Dies lässt die folgenden Hypothesen zu:
Die Repräsentation ist keine passive Abbildung, sondern eine aktive Konstruktion der Umwelt im kognitiven System.
Weil der Zugang zur Umwelt nur über die Repräsentation im kognitiven System (Brainware ) laufen kann, ist die Repräsentation der Umwelt von der Struktur dieses kognitiven Systems determiniert und nicht von der objektiven Struktur der Umwelt.
Da das kognitive System nicht nur mit eigenen oder anderen Systemzuständen interagiert, sondern vielmehr mit der Umwelt interoperiert, dringen Daten und Information von außen ins System ein.
Daten und Information werden nach Maßgabe der Strukturdeterminanten des Systems aus den über das perzeptive System eingehenden Signalen erst erzeugt und im kognitiven Prozess durch Semantik angereichert.
Die im kognitiven System verkörperte Dynamik ist von daher kein unabhängiges, objektives Wissen über die Außenwelt und die Wirklichkeit, sondern abhängig von der Struktur des kognitiven Systems im erkennenden Umgang mit seiner Umgebung.
Im Verlaufe des Buches wird das Verhältnis des Kognitiven und Mentalen zum Physischen behandelt und annähernd erklärt werden müssen. An dieser Stelle soll dabei der Begriff des „Mentalen " noch in klassischer Verwendungsweise als Kürzel für die recht heterogene Ansammlung von kognitiven, intentionalen und phänomenalen Kompetenzen und Manifestationen stehen, die Lebewesen charakterisieren. Hierzu wird eine reduktionistisch-funktionale Sichtweise eingenommen, wo Emergenz- und Supervenienztheorien sowie reduktionistische und eliminative Ansätze unterschiedliche Lösungen bereitstellen.
Mit „Emergenz" ist an dieser Stelle gemeint, dass Phänomene ihrem Ursprung nach physikalisch, chemisch, oder biologisch zu sein scheinen, dass aber diese Phänomene keinesfalls auf diese Ebene zurückgeführt werden können.
Im Rahmen der Konzeptionalisierung erfolgt zum einen eine „wohl temperierte", d. h. schrittweise Reduktion der Theorien von einer höheren Beschreibungsebene auf eine darunter liegende, solange, bis das Ziel der Reduktion in der Implementierung erreicht ist (Mikroreduktion). So besteht die Mikroreduktion beispielsweise darin, die Soziologie als Wissenschaft der Interaktion von Gruppen auf die Psychologie als Wissenschaft des Verhaltens einzelner Menschen zu reduzieren. Von dieser Erklärungsebene ausgehend, werden die Gesetze und Theorien, mit denen sich das Verhalten von Menschen erklären und beschreiben lässt, auf Theorien der Biologie reduziert. Auf diese Weise lässt sich beispielweise das Verhalten eines Menschen in einer bestimmten Situation mit dem Vokabular einer psychologistischen oder gar physikalistischen Sprache formulieren, beschreiben und erklären.
So bauen die Simulationen im Rahmen der Validierung auf den Möglichkeiten der Mikroreduktion auf. Zum anderen kommen die Erklärungen in diesem Buch auf der Makroebene nicht ohne den Rückgriff auf Gesetze oder Sachverhalte einer Makroebene aus (Makroreduktion). Die Notwendigkeit des Rückgriffs auf eine Makroebene wird deutlich, dass ein System, dessen Verhalten oder Eigenschaften erklärt werden sollen, nicht losgelöst von seiner Umwelt betrachtet werden kann. Wird das System simuliert, so müssen Eigenschaften und Prozesse der Umwelt in die Simulation mit einfließen.
So erfordern psychologische Erklärungen beispielsweise sehr oft eine Makroreduktion, d. h. sie nehmen Bezug auf soziologische Faktoren, auch wenn sie eine materielle und damit physikalische Basis haben.
Das reduktionistische Programm dieses Buches steht und fällt mit der Möglichkeit, das kognitive Vokabular auf das Vokabular des Cognitive Computing und damit letztlich auf das physikalische Vokabular zu reduzieren. Kern dieses Reduktionismus muss sein, Argumente für die Hypothese aufzuzeigen, dass sich die Rede vom Kognitiven auf die Technologie des Cognitive Computing reduzieren lässt.
Die Grundidee dieses Reduktionismus kann anhand einer Zwiebel metaphorisch verstanden werden: Funktionen oder Ereignisse einer bestimmten Schicht werden durch Prozesse hervorgerufen, die in einer tiefer liegenden Schicht stattfinden. Mit anderen Worten besteht der harte Kern aus der Kognitionswissenschaft und dem Cognitive Computing, deren weitere Schale wiederum die Physik und Philosophie, und dort wiederum die Informatik und das Simulationsexperiment bilden.
Eine Argumentation in diesem Buch wird unter anderem sein, dass das eine Vokabular kommensurabel zum anderen ist, weil zwar nicht dieselben Ereignisse betrachtet und beschrieben, aber diese ereignishaften Differenzen durch Modelle ausgeglichen bzw. die semantische Lücke durch Simulationen überwunden werden kann.
In Bezug auf die Entwicklung von Computerprogrammen zeigen sich damit gewisse reduktionistische Implikationen. Menschliches Wissen im Allgemeinen, aber auch Sachverhalte oder Gegenstandsbeschreibungen im Besonderen, müssen für die Programmierung explizit gemacht und damit in Form von propositionalen Satzgehalten ausgedrückt werden. Ein weiterer Reduktionsschritt besteht darin, dass dieses vergegenständlichte Wissen auch noch formalisiert und damit bestimmten formallogischen Regeln unterworfen werden muss. Letzteres ist sicherlich die weitaus größere Reduktion, welche zur Programmierung der Computersysteme vorgenommen werden muss.
Durch die Modelle und Simulationen soll die Hypothese der Identität kognitiver Zustände und Prozesse mit funktionalen Zuständen und Prozessen trotz fehlender empirischer Befunde gestützt werden. Auf dieser Annahme bauen jedoch die Simulationen als formalisierte und implementierte „Brückengesetze " auf, die eine Isomorphie der funktionalen Zustände eines Programms auf der einen und jener des menschlichen Bewusstseins bzw. der artifiziellen Kognition auf der anderen Seite stützen sollen. Dabei dient die klassische Auffassung von Bewusstsein als Subsumption von absichtsvollem Handeln (Intentionalität), Intelligenz (Intuition, Introspektion und Kreativität) als Vorgabe (Blaupause) für die Realisierung eines artifiziellen Bewusstseins durch ein kognitives System. Im Gegensatz dazu wird im Folgenden unter natürlichem und damit menschlichem Bewusstsein ein erweitertes (Selbst)Bewusstsein verstanden, das dadurch entsteht, dass sich der Mensch in seiner Sprachlichkeit rekursiv auf sich selbst bezieht (Selbstreferentialität ). Diese Selbstbeobachtung kann durch eine wechselseitige Fremdbeobachtung angereichert werden, was dann zu einem selbstkritischen Selbstbewusstsein führen kann, aber nicht muss.
Im Folgenden wird also im Falle eines natürlichen Bewusstseins stets von Selbstbewusstsein die Rede sein, wodurch beide Begriffe synonym und in Abgrenzung zum artifiziellen Bewusstsein behandelt werden.
Eine Grundposition dieses Buches ist also, dass Simulationen durchaus als Erklärungen benutzt werden können.
Wenngleich im Rahmen der Implementierung der Simulationsprogramme die Einsicht aus dem Konstruktivismus verwertet wird, dass es unter Umständen nicht ausreicht, funktionales Verhalten zu simulieren, sondern dass auch die strukturellen Veränderungen und Prozesse mit untersucht werden müssen, wenn natürliche kognitive System verstanden, erklärt und in Simulationsprogramme überführt werden sollen.
Sie eignen sich für diese Aufgabe, weil mit ihnen nicht nur Ergebnisse produziert werden können, die gut mit zu beobachtenden Ereignissen übereinstimmen, sondern sie zeigen auch auf, dass die modellierten und simulierten Prozesse im Original der Realität ähnlich sind.
Die Eignung des methodischen Funktionalismus, der besagt, dass die Betrachtungsweise kognitiver Phänomene als funktionaler Phänomene für die Zwecke der Forschung angemessen sind, ergibt sich aber auch aus einem rein praktischen Umstand, weil sich die darin getroffenen theoretischen Annahmen einigermaßen leicht computertechnisch umsetzen und implementieren lassen. Dies darf und soll an dieser Stelle nicht verschwiegen werden.
Die Bestätigung dieser Annahme führt zur starken Hypothese der Kognitionswissenschaft, die durch die gute Übereinstimmung der Simulationsergebnisse und der tatsächlich gemachten Beobachtungen zwar gestützt, jedoch bis dato nicht durch eine gesicherte empirische Evidenz, die für die Isomorphie der Prozesse spricht, also durch den empirischen Nachweis von Symbolverarbeitungs- oder von subsymbolischen Informationsverarbeitungsprozessen gefestigt wird (Abb. 2.2).
A305667_1_De_2_Fig2_HTML.gifAbb. 2.2
Reduktion auf Modelle und deren Erweiterung durch Simulation
Nach dem in diesem Buch verfolgten Ansatz sind Theorien die Basis für die Konzeptionalisierung von Kognitionsmodellen. Dabei sind Theorien als auch die Modelle Bestandteil eines zukünftigen allgemeinen Modelles der Kognition, wobei in den einzelnen Modellen jeweils andere Zusatzannahmen getroffen werden. Die einzelnen Theorien und Modelle decken folgenden Gegenstandsbereich ab:
Ein allgemeines Modell beinhaltet, dass Kognition Informationsverarbeitung ist. Informationsverarbeitende Prozesse transformieren Eingaben durch Anwendung einer Abbildungsrelation in Ausgaben. Rein mathematisch handelt es sich in der Tat um Relationen und nicht um Funktionen, da die Abbildung nicht zwingend eineindeutig und umkehrbar sein muss. Von der physischen Realisation der informationsverarbeitenden Prozesse wird abgesehen, da ihre Beschreibung rein funktionalistisch erfolgt. Das allgemeine Modell soll dabei idealtypisch für alle kognitiven Systeme gelten und diese erklären.
Das natürlich