Discover millions of ebooks, audiobooks, and so much more with a free trial

Only $11.99/month after trial. Cancel anytime.

Die Bit-Revolution: Künstliche Intelligenz steuert uns alle in Wirtschaft, Politik und Gesellschaft
Die Bit-Revolution: Künstliche Intelligenz steuert uns alle in Wirtschaft, Politik und Gesellschaft
Die Bit-Revolution: Künstliche Intelligenz steuert uns alle in Wirtschaft, Politik und Gesellschaft
Ebook829 pages10 hours

Die Bit-Revolution: Künstliche Intelligenz steuert uns alle in Wirtschaft, Politik und Gesellschaft

Rating: 0 out of 5 stars

()

Read preview

About this ebook

Wie tickt heute die Welt? Ist die Künstliche Intelligenz schon schlauer als wir? Entscheiden Maschinen intelligenter? Wie viele Menschen werden sie arbeitslos machen? Hebeln Computer Handel und Wettbewerb aus? Werden wir eine bessere Medizin mit unseren Daten bezahlen? Gibt es für Privatheit noch eine Chance? Und ist das ewige Leben kein bloßer Traum, sondern schon bald Realität?
Diese Fragen beantwortet dieses Buch. Nach einer Übersicht über die alles ändernde Datenflut zeigt es an einer konkreten Software-Entwicklung, die Regierungen, Verbände und Firmen mit unvorstellbar genauen Datenanalysen und Prognosen versorgt, was Big Data und was Künstliche Intelligenz können, wie ihre Experten denken und handeln, welches Geschäftsmodell sie entwickeln und was das für uns bedeutet.
Dieses Buch ist am Geschehen nah dran. Es zeigt, wie schnell die Künstliche Intelligenz unser aller Leben verändert. Es beurteilt ihre Chancen und Risiken und zeigt, was da auf uns zu kommt.
LanguageDeutsch
PublisherUVK Verlag
Release dateJan 28, 2019
ISBN9783739804705
Die Bit-Revolution: Künstliche Intelligenz steuert uns alle in Wirtschaft, Politik und Gesellschaft

Related to Die Bit-Revolution

Related ebooks

Accounting & Bookkeeping For You

View More

Related articles

Reviews for Die Bit-Revolution

Rating: 0 out of 5 stars
0 ratings

0 ratings0 reviews

What did you think?

Tap to rate

Review must be at least 10 words

    Book preview

    Die Bit-Revolution - Gernot Brauer

    Gernot Brauer

    ist ein erfahrener Kommunikationsmanager aus der Industrie und ein routinierter Journalist, der als Buchautor zwei Begabungen verknüpft: die Fähigkeit zu exakter Recherche auch sehr komplexer oder versteckter Sachverhalte und eine Leidenschaft für spannendes Erzählen ebenso wie kritisches Hinterfragen dessen, was er ans Tageslicht bringt.

    Was Gernot Brauer ermittelt, mag noch so kompliziert sein – er stellt es so dar, dass man es versteht, dass man es mit Gewinn und Vergnügen liest und dabei auch noch sonst kaum durchschaubare Zusammenhänge begreift, in denen wir leben und von denen wir abhängig sind. Er nimmt seine Leser mit in eine Reise in unser aller Zukunft.

    Für dieses Buch hatte Gernot Brauer exklusiven Zugang zu einem Computergenie. Auf der Basis ausgefeiltester Künstlicher Intelligenz hat dieser Mann ein Programm zur Entscheidung und Prognose auf den Markt gebracht, wie es nach seiner Überzeugung weder IBM noch Microsoft oder Google haben, weder Facebook noch sonst jemand.

    Auch Lesern, die von Datenverarbeitung nur so viel wie der Durchschnittsbürger verstehen, präsentiert Gernot Brauer diese unglaubliche Entwicklung so klar, als seien sie selbst dabei. Er breitet vor uns eine Welt aus, die unser Leben mitbestimmt – mit jedem Tag, der vergeht, ein Stück mehr. Was da abgeht, ist atemberaubend.

    Gernot Brauer hat bereits mehr als ein Dutzend Bücher über verschiedenste Themenfelder veröffentlicht. Mit seiner Kenntnis der Wirtschaft und der Gesellschaft schafft er es immer wieder, seine Leser nicht nur verlässlich zu informieren, sondern auch gut zu unterhalten. Denn schon die Tatsachen, die er anzubieten hat, sind spannend genug.

    Viele vertiefende, oft spannende Einzelheiten zu Kapiteln dieses Buches finden Sie auf der zum Buch gehörenden Webseite unter www.uvk.digital/9783867649018.

    Einleitung

    Dieses Buch handelt von einer der umwälzendsten Revolutionen seit Menschengedenken. Dieser gesellschaftliche Wandel vollzieht sich vor unseren Augen. Trotzdem erkennen viele Menschen noch nicht, dass es sich um eine Revolution handelt, die fast alle gewohnten Lebensverhältnisse umkrempeln wird, „a change analogous to the rise of conciousness in humans" (Minelli 2017: xiii), so grundlegend wie die Entwicklung des menschlichen Bewusstseins. „Wir leben in einer Welt, in der man entweder ein Teil dieser Revolution ist oder von ihr überrollt wird" (Schröder 2017: 14).

    Diese Umwälzung ist eine Folge der Digitalisierung. „Alles, was digitalisiert werden kann, wird digitalisiert. Autos, Flugzeuge und Kühlschränke sind künftig nur noch Blechhüllen, mit denen kaum Geld verdient wird. Die Gewinner sind – dank Netzwerkseffekt – vor allem die Vermittler" (Keese 2014: 165). Längst nutzen wir Produkte und Dienste, die die Ablösung des mechanischen durch das elektronische Zeitalter wesentlich prägen. Aber wir realisieren erst schemenhaft, wie sehr dieser Wandel zur Künstlichen Intelligenz uns selbst ändern wird. Davon berichtet dieses Buch, von technischen und gesellschaftspolitischen Entwicklungen rund um uns und von Konsequenzen für das Menschsein überhaupt. Es zeigt in zwölf Kapiteln, was die Künstliche Intelligenz mit uns macht.

    Dazu nimmt dieses Buch Sie als Leser mit auf eine weite Reise. Sie beginnt in Kapitel 1 in der Welt der Big Data. Dieses Kapitel erörtert, wie schlau die Künstliche Intelligenz bereits ist und was wir von ihr noch zu erwarten haben. Aber dieses Buch berichtet nicht nur über Maschinen und deren unglaubliche Leistung. Es portraitiert auch die Personen hinter der Technik. Kapitel 2 führt uns zuerst mit Heiner und dann mit Hardy zusammen, Big Data Daddy genannt, einem Mann, der die Datenwelt komplett umkrempelt. Es erläutert eine von ihm patentierte Software, die Regierungen, Verbände und Firmen mit Datenanalysen und Prognosen bisher unvorstellbarer Präzision versorgt. Dann berichtet es von Phil, ebenfalls einer Multibegabung, und seiner Zusammenarbeit mit Hardy bei der Entwicklung der Software Quantum Relations und des digitalen Weltmodells, auf dem sie aufbaut.

    In Kapitel 3 lernen wir kennen, wie diese Software die Finanzwelt revolutionierte und warum sie ihr ihre Geschäftsgrundlage denoch ziemlich bald wieder entziehen könnte. In Kapitel 4 schließlich geht es um den jüngsten, größten Coup dieses Mannes, das Programm Prisma, das mit der Software Prisma Dicision Point geradezu allwissend agiert und sich derzeit weltweit verbreitet. So weit das erste Drittel des Buchs.

    Das zweite Drittel fragt in Schritt 5, was Big Data in der Wirtschaft bedeuten. Kapitel 6 erläutert, warum diese Welt aus Daten den Wettbewerb und in ihm den Handel aufzulösen imstande sind und was an ihre Stelle treten dürfte. In Kapitel 7 erörtern wir Konsequenzen für jeden von uns: Was geschieht, wenn Maschinen intelligenter werden als wir? Übernehmen Sie dann die Regie? Das Mensch-Maschine-System birgt enorme Chancen, aber auch veritable Gefahren. Das gilt auch im Gesundheitswesen. Das beleuchtet Kapitel 8.

    Das Gesundheitswesen ist ein gutes Beispiel für das Problem der Privatheit, mit dem das letzte Drittel des Buches beginnt. Je mehr Daten jemand über uns hat, desto gläserner sind wir für ihn. Wollen wir das und können wir es überhaupt verhindern oder zumindest wirksam begrenzen? Davon handelt Kapitel 9. Dort erörtern wir auch die Datenschutzethik. In Kapitel 10 geht es darum zu verstehen, wie global verfügbare Daten als eine neue, weltweite Aufklärung wirken und alles Entscheiden wissensbasiert, vernunftgeleitet und kooperativ gestalten können. In Schritt 11 ziehen wir daraus Konsequenzen für die Politik. Und im abschließenden Schritt 12 stellen wir dar, was aus unserem Leben wohl wird, wenn wir es an Maschinen übergeben können. Maschinen sterben nicht. Kommt dann das ewige Leben? Dieses Schlusskapitel zeigt Ihnen, worauf wir uns voraussichtlich einrichten können.

    Dieses Buch fußt auf einer Vielzahl von Fakten und belegt, woher sie stammen. Es berichtet darüber so, dass man sie möglichst einfach verstehen kann. Dazu verzichtet es wo immer möglich auf Fachsprachen und auf vermeidbare wissenschaftliche Umständlichkeit. Das sei hier an einem einzigen Beispiel erläutert. Es ist gekürzt, sonst wäre es noch komplizierter. Es beschreibt Transaktionen. Und nun kommt es:

    Diese Transaktionen „implizieren eine individualisierende Adressierbarkeit der an den Transaktionen beteiligten Entitäten, die deren zeitliche und häufig auch räumliche Verortbarkeit beinhaltet. Transaktionen rekurrieren somit auf ganze Medienensembles der Zeitmessung, der Adressierung und der Verortung, deren gemeinsame Nutzung Gegenstand der Anbahnung wie auch Implementationsbedingung von Transaktionen ist ... Prüfprozesse betreffen die Gültigkeit der Übereinkünfte der Transaktionsprozesse durch die Transaktionsbeteiligten ... Transaktionen rechnen also mit Verweigerung und attribuieren diese Möglichkeit den Transaktionsbeteiligten. Big Data ... irritiert die skizzierten Modalitäten von Kommunikation und Transaktion und führt eine Verunschärfung des voluntaristischen Aspekts von Transaktionen herbei."

    Es sei erlaubt, den vermuteten Gehalt dieses Satzungetüms so herunterzubrechen: Transaktionen, also Übertragungen, setzen voraus, dass die daran Beteiligten wissen, wer die jeweils anderen Mitbeteiligten sind, wann und häufig auch wo man sie erreichen kann und dass man sie zu bestimmten Zeiten an bestimmten Orten auch wirklich erreicht ... Dazu sind Übereinkünfte nötig. Die können die Beteiligten prüfen, aber auch verweigern. Bei Big Data ist eine solche Verweigerung allerdings nur eingeschränkt möglich.

    Auch computer nerds verständigen sich in einer mit unzähligen Abkürzungen durchsetzten Fachsprache, die sich dem Normalbürger oft nicht erschließt. Das beginnt schon mit dem Wort nerd selbst; es bezeichnet Personen, die an neuen Computertechnologien aktiv teilhaben, sei es als IT (Informations-Technologie)-Spezialisten oder als early adopters, also sehr frühe Nutzer. Wir vermeiden oder erklären in diesem Buch solche Fachausdrücke. Nur Begriffe wie Computer oder Internet, die schon Teil der deutschen Umgangssprache sind, werden auch so benutzt.

    Dieses Buch fußt einerseits auf Gesprächen in den Jahren 2017 und 2018 mit den Hauptakteuren, denen ich für diese Auskünfte sehr danke. Ihre Aussagen sind in wörtlicher oder indirekter Rede wiedergegeben oder nacherzählt. Alle erwähnten Personen, Firmen und Fachbegriffe sind im Anhang erläutert. Im Übrigen stützt sich dieser Text auf eine Vielzahl schriftlicher Quellen. Sie sind auf der zu diesem Buch gehörenden Webseite alphabetisch nach Autoren gelistet. Wo der Text daraus sinngemäß oder wörtlich zitiert (nur wörtliche Zitate stehen in Anführungszeichen), wird auf die Quelle in Klammern verwiesen (Name, Erscheinungsjahr: Seite). Wird aus einer Quelle mehrfach direkt nacheinander zitiert, wird ab dem zweiten Zitat nur auf sie verwiesen (ibid.: Seite). Wird aus einer schon genannten Seite nochmals zitiert, ist eine erneute Erwähnung derselben Seitenzahl natürlich entbehrlich; dann genügt ein ibid. (ebenda). Sie brauchen diese Verweise nicht zu beachten. Wenn Sie aber eine Quelle ausführlicher nachlesen möchten; zeigt Ihnen die Webseite zu diesem Buch, wo Sie fündig werden können.

    Die Webseite bringt übrigens noch weit mehr: Hintergründe und Zusammenhänge in der Welt der Big Data und der Künstlichen Intelligenz. In den Kapiteln wird auf solche Vertiefungen jeweils verwiesen. Sie können dort aber auch einfach ein wenig schmökern. Es lohnt sich. Und nun viel Interesse an Big Data und viele Einsichten in diese spannende Welt.

    Gernot Brauer

    Ein Rat vorab

    Wer online geht, tut das stets in Gesellschaft, auch wenn er es nicht bemerkt oder nicht will. Wenn Sie online gehen, sehen und hören Ihnen nämlich zahllose programmierte Maschinen zu. Mit jedem Klick auf eine Webseite, besonders intensiv mit jeder Anfrage an eine Suchmaschine oder an ein Preisvergleichsportal machen Sie ein Stück weit sichtbar, was Sie interessiert. Mit jeder Aktivität und jeder Meinungsäußerung in einem sozialen Netzwerk zeigen Sie nicht nur Ihren Freunden, sondern auch technischen Beobachtern, was für ein Typ Sie sind, was Sie tun und wie Sie drauf sind. Denn jeden Klick auf jede Webseite registrieren externe Computer sofort. Sie parken Cookies auf Ihrem Gerät; das sind kleine Dateien, die die Einstellungen Ihres Geräts und andere Informationen speichern. Die werden für weitere Kontakte mit Ihnen ausgelesen und kommerziell genutzt. Cookies zu speichern können Sie auf Ihrem Gerät zwar unterbinden, aber dann wird die aufgerufene Webseite vielleicht nicht gut funktionieren.

    Wann immer Sie ins Internet gehen, werden Sie also möglichst gründlich durchleuchtet. Dazu dienen Tracking-Technologien. Was diese über Sie in Erfahrung bringen, wird kommerziell ausgewertet und im Internet auch weiterverkauft. Ihr Surf-Verhalten steht deshalb auch anderen Betreibern zur Verfügung. So erfahren auch diese, was Sie interessiert und sprechen Sie mit zielgerichteter Werbung an. In vielen Webseiten sind Plugins sozialer Netzwerke wie Facebook und Twitter, YouTube und Google+ schon integriert. Sie registrieren bei jedem Seitenaufruf Ihre Daten und geben so genaue Auskunft über Ihre Aktivitäten. Dazu müssen Sie weder bei dem sozialen Netzwerk eingeloggt noch dort Mitglied sein. Bei einigen Webseiten müssen Sie dieses Symbol zwar erst anklicken. Sind Sie dort bereits angemeldet, erteilen Sie damit jedoch Ihre Zustimmung, Daten automatisch an den sozialen Netzbetreiber zu übermitteln. Sie können auch einfach ein Häkchen setzen – dann ist der ausgewählte button immer aktiv. Google Analytics und Wettbewerber (vgl. Joos 2018) registrieren außerdem Ihre Verweildauer im Netz, Ihre geographische Herkunft und einiges mehr – immer mit dem Ziel, der Werbung erfolgversprechende Pfade zu bahnen. So entstehen Wahrscheinlichkeiten darüber, welche Werbung wann und wo etwas bringt. Viele Webseiten arbeiten global mit einem Dutzend und mehr externer Analyse-Dienstleister zusammen. In ihren Datenschutzrubriken müssen Webseitenbetreiber die Auswertungsfirmen zwar nennen. Aber welcher Internetnutzer liest dieses Kleingedruckte sorgfältig?

    Der Internetpionier und Mitverfasser des Internet-kritischen Cluetrain-Manifesto von 1999, Doc Searls, sieht diese Entwicklung äußerst kritisch: „Werbung wurde furchtbar pervertiert, bis hin ins Unmoralische. Ein Geschäft würde mir niemals einen Sender auf die Schulter pflanzen, nachdem ich in ihm eingekauft habe. Im Web ist das Standard, und das ist einfach falsch. Weil so viel davon unbeobachtet abläuft, haben wir all diese gruseligen Verhaltensmuster" (Kuhn 2018).

    Besonders heikel sind personenbezogene Daten, also die, anhand derer man Sie als Einzelperson identifizieren kann. Dazu gehören Name, E-Mail-Adresse und zum Beispiel Zahlungsinformationen. Zwar müssen persönliche Daten in vielen Fällen anonymisiert oder pseudonymisiert werden. Das lässt sich aber umgehen: Nicht wenige Offerten im Internet, etwa Gewinnspiele, haben hauptsächlich den Zweck, an freiwillig übermittelte personenbezogene Daten zu kommen. Wer etwas gewinnen will, muss ja offenlegen, wer er ist. Haben Sie erst einmal irgendwo Ihren Namen und Ihre Adresse hinterlassen, werden solche persönlichen Daten sofort mit denen verknüpft, die im Netz sonst noch über Sie kursieren. Die wirken wie ein offenes Buch: Schon mit zehn Facebook-likes lässt sich eine Person besser einschätzen als das ein durchschnittlicher Arbeitskollege kann. 70 likes reichen aus, um die Menschenkenntnis eines Freundes zu überbieten, 150 um die der Eltern zu übertreffen, und mit 300 likes kann eine Maschine das Verhalten einer Person genauer vorhersagen als deren Partner. Mit noch mehr likes kann sie sogar übertreffen, „was Menschen von sich selber zu wissen glauben" (Krogerus 2016). Alsbald sind Sie also absolut gläsern. Selbst wenn Sie nicht im Internet surfen, sondern nur eine Kundenkarte vorlegen, greift dieses System. Wer aus dieser Datenwelt aussteigen will, müsste deshalb bereit sein, ein Einsiedlerdasein wie Robinson Crusoe zu führen (Morgenroth 2014: 226). Aber Sie benutzen das Internet ja gerade, um Kontakte aufbauen und pflegen zu können und um sich zu orientieren.

    Mit dem Schutz Ihrer Privatsphäre ist es in der Datenwelt folglich nicht weit her. Das werden Sie in Kapitel 9 genauer einzuschätzen lernen. Es gibt zwar Regeln, die den Datengebrauch limitieren; in der EU ist es in erster Linie eine Richtlinie, die seit dem Frühsommer 2018 europaweit gilt. Aber große Grauzonen verbleiben, zumal viele „Datenkraken" keine europäischen Firmen sind, sondern amerikanische mit einem weit laxeren Rechtsrahmen.

    Es gibt Empfehlungen dafür, wie man die Ausforschung der eigenen Person via Internet begrenzen kann, etwa indem man nicht ständig online ist. Die meisten dieser Empfehlungen sind etwas weltfremd. Wer will es schon Robinson Crusoe gleich tun? Aber man kann handeln, etwa sich bei digitalcourage.de informieren, eigene Daten und Mails verschlüsseln und die Politik zum Handeln auffordern. Vor allem aber sollten Sie die Mechanismen kennen und zu nutzen oder zu umgehen lernen, denen Sie sich als Datenbesitzer aussetzen. Das ist ein Zweck dieses Buches. Der andere ist, Ihnen die faszinierende Welt der Künstlichen Intelligenz in ihrer ganzen Vielfalt nahezubringen. Sie birgt, wie es in diesem Buch zu Recht heißt, ein „unfassbar aufregendes, intellektuelles Abenteuer." Erobern Sie es sich.

    Hinweise zum Buch

    Dieses Buch und die Webseite zu diesem Buch gehören zusammen. Die Webseite enthält Hintergrundinformationen, Erläuterungen und Vertiefungen sowie das ausführliche Literaturverzeichnis. Alle im Buch verwendeten Quellen verweisen auf dieses Literaturverzeichnis.

    Hier noch einmal die Webseiten-Adresse: www.uvk.digital/9783867649018

    Inhalt

    0Einleitung und ein Rat vorab

    Wie verbreitet Big Data sind, wie sie das wirtschaftliche Handeln verändern und was das für uns bedeutet.

    1Milliarden in Millisekunden.Ist die Künstliche Intelligenz schon schlauer als wir?

    1.1 Die Entwicklung des Computers im Zeitraffer

    1.2 Die großen Beweger – die Datenkraken

    1.3 Der Weg zu Big Data

    1.4 Internet und darknet

    1.5 Das Internet der Dinge

    1.6 Die Blockchain

    1.7 Die Künstliche Intelligenz

    2Big Data Daddy.Was befähigt einen Mann, die Datenwelt komplett umzukrempeln? Ein Dreier-Team hat mit Quantum Relations den Weg zum Cloud Computing geebnet. Woher kamen diese drei Menschen, was führte sie zusammen, wie gingen sie vor?

    2.1 Ein Filmproduzent entdeckt die Welt von Big Data

    2.2 Hardy, der Universalist

    3Von Newton über Einsteinzu RavenPack und zu Prisma. Wie tickt heute die Welt?

    Einstein zu verstehen war die Basis für quantim relations. RavenPack revolutionierte damit die Finanzwelt. Prisma ermöglicht nun blitzschnelle Entscheidungen mit höchster Treffsicherheit nicht nur auf der Basis von Zahlen, sondern auch der gesamten mentalen. Welt. Das gab es noch nie.

    3.1 Algorithmen – die Alleskönner

    3.2 Wissendes Subjekt und gewusstes Objekt

    3.3 Von Quanten zu Quantum Relations

    3.4 Phil, die Multibegabung

    3.5 Der Weg zu RavenPack

    3.6 Die Schloer Consulting Group wird geschaffen

    3.7 Die Prisma Analytics GmbH entsteht

    4 Goldstandard der News. Wie verbreitet sich dieses Know-How jetzt global?

    Einer der größten Datenkonzerne wird mit Prisma Analytics verbunden, so dass das System in Echtzeit jede menschliche Regung registrieren und verarbeiten kann.

    4.1 Maschinenleistung und der menschliche Faktor

    4.2 Wie Prisma Daten visualisiert

    5Big Data in der Wirtschaft.Werden Arbeitnehmer entbehrlich? Big Data automatisieren die Arbeit in unvorstellbarem Maß, verdrängen Millionen Beschäftigte, schaffen auch neue Jobs, aber für höher Qualifizierte. Wer verliert, wer gewinnt?

    5.1 Data Scientists

    5.2 Jobkiller Datentechnik

    5.3 Die Wirtschaft 4.0

    5.4 Big Data in der Automobilindustrie

    5.5 Big Data in der Prozesindustrie

    5.6 Big Data im Handel

    5.7 Die Smart City

    6Was Spekulanten einbüßen.Hebelt der Computer Handel und Wettbewerb aus? Spekulations- und Handelsgewinne beruhen auf Informationsvorsprung. Der verschwindet in digitalisierten Märkten. Daten werden zur neuen Währung der Welt.

    6.1 Wenn Wissensvorsprung sich auflöst

    6.2 Das Global Value Exchange-System

    6.3 Die Global Economic Unit

    7 Wissen ist gut, denken ist besser.Entscheiden Maschinen intelligenter als wir? Niemand weiß so viel wie Computer. Sie lernen auch zu denken und zu entscheiden. Übernehmen sie bald auch uns? Was das Mensch-Maschine–System bedeutet.

    7.1 Grenzen Mensch – Computer verschwimmen

    7.2 Hardys Vision vom intelligenten Planeten

    8Der nackte Patient.Werden wir eine bessere Medizin mit unseren Daten bezahlen? Gesundheitsdienste wollen und werden alles über uns wissen. Wie viel Souveränität behalten wir noch über unsere intimsten Daten, die über unsere Gesundheit?

    8.1 Die Maschine als Arzthelfer

    8.2 Auch im Gesundheitswesen Big Data

    8.3 Zoe – die Vision einer gesünderen Welt

    8.4 Datenschutzprobleme

    9Gläsern sind wir schon jetzt.Gibt es für irgendeine Privatheit noch eine Chance? Was in der Datenwelt legal ist und was legitim: Persönlichkeitsschutz, Datengebrauch, Datenschutzethik.

    9.1 Was wird aus der Privatsphäre?

    9.2 Wem gehören Daten?

    9.3 Der Datenklau von Cambridge Aalytica

    9.4 Das deutsche Datenschutzrecht

    9.5 Die EU-Datenschutzgrundverordnung

    9.6 Eckpunkte einer Datenstrategie in der Welt von Big Data

    9.7 Privacy by Desig

    9.8 Die Digitalcharta

    9.9 Was ethische Normen leisten können

    9.10 Ethical Alligned Design

    9.11 Ein Leitlinienentwurf von Bitkom

    9.12 Cybersicherheit ist eine globale Aufgabe

    10Die neue Aufklärung.Wie wird global greifbares Wissen das Leben aller verändern? Ist eine Welt vorstellbar, in der wir wissensbasiert, vernunftgeleitet und kooperativ das allgemeine Beste ermitteln und danach handeln? Experten erwarten genau das.

    10.1 Die Welt der Open Data

    10.2 Interkulturelle Zentren investigativen Wissens

    10.3 Digital Humanities

    10.4 Big Data in den Wissenschaften

    10.5 Eine Zwischenbilanz

    11 Politik durch die Bürger,nicht nur für sie. Kommt die kooperative Regierung? Noch ist ein datengesteuertes Regierungssystem auf Basis des Bürgerwillens eine Vision. Aber wir besitzen schon die Möglichkeit, es zu installieren.

    11.1 Helbings Plan

    11.2 Running for President

    11.3 Wie und wozu der Staat Daten abgreift

    11.4 Ohne Algorithmen läuft nichts mehr

    11.5 Suchmaschinen steuern, wie wir denken

    11.6 Aufklärung durch Fakten

    12Das ewige Leben.Kann der Mensch mit der digitalen Maschinenwelt zu einem ewig möglichen Leben verschmelzen? Forscher und Universitäten prognostizieren schon, wann es so weit sein wird.

    12.1 Das zweite Ich

    12.2 Humanismus und Transhumanismus

    12.3 Noch sind viele Fragen offen, aber wir sind unterwegs

    Anhang:

    Glossar der Fachbegriffe

    Namensregister

    Register der Firmen und Institutionen

    Stichwortregister

    Die Webseite enthält folgende Abschnitte:

    Der Umgang mit Daten (Datenspeicherung, Clouds, Datenauswertung,

    Besonderheiten der Auswertung von Big Data, Hadoop) 344

    Der Markt der Künstlichen Intelligenz 360 Stichwortverzeichnis der Webseitenabschnitte 363 Literatur 365

    1 Milliarden in Millisekunden

    Ist die Künstliche Intelligenz schon schlauer als wir?

    Was bei Big Data abgeht, ist schier unvorstellbar. Datenwolken beginnen jedes Handeln zu durchdringen und alle Entscheidungen zu konditionieren. Firmen wie Microsoft, Google und Facebook erzeugen cyber-physische Systeme. Dieses Kapitel erläutert die Datenwelt und verweist auf ihre großen Beweger und deren Technologien (Details auf der Webnseite). Es zeigt, wie verbreitet Big Data sind, wie sie als Künstliche Intellugenz das Handeln verändern und was das für uns bedeutet.

    1.1 Die Entwicklung des Computers im Zeitraffer

    1.2 Die großen Beweger – die Datenkraken

    1.3 Der Weg zu Big Data

    1.4 Internet und darknet

    1.5 Das Internet der Dinge

    1.6 Die Blockchain

    1.7 Die Künstliche Intelligenz

    1.1 Die Entwicklung des Computers im Zeitraffer

    „Stell dir vor, es ist Revolution, und die Leute merken es kaum. Unterdessen ist der wahre Umsturz längst im Gange", schreibt der Computerexperte Martin-Jung (2018a) und erläutert: er verläuft exponentiell. Menschen erfassen das nur schwer. Daher gibt Martin-Jung ein Beispiel: Wenn in ein Fußballstadion alle zwei Sekunden Wasser getropft würde, erst ein Tropfen, dann zwei, dann vier, dann acht und immer so weiter die doppelte Menge - wie lange würde es dauern, bis die riesige Betonschüssel voll ist? Nicht einmal zehn Minuten (ibid.). Anfangs merkt man nicht, was da passiert. So ist oder war es zumindest auch mit der Welt der Computer. Es ist höchste Zeit, sich vorzubereiten (ibid.).

    Computer, das Internet und Daten allerorten gehören inzwischen zu unserem Leben wie Wasser und Brot. 2,8 Milliarden Menschen sind mittlerweile online; das ist ein Zuwachs von 280 Prozent in nur zehn Jahren (Noska 2017). Was sich derzeit vollzieht, revolutioniert unseren Alltag von Grund auf. „Wir verarbeiten Daten nicht nur schneller und besser als zuvor. Wir tun Dinge, die wir zuvor nie tun konnten", sagt Jason Cornez, Chief Technology Officer der im Finanzmarkt tätigen Analysefirma RavenPack, und der Leiter des Bereichs Finance Product Management von MathWorks, Stuart Kozola, stimmt ihm ebenso zu wie Thani Sokka, der Technikchef des Datenhauses Dow Jones (RavenPack 2017b). Datenanalysen, die auf herkömmlichen Computersystemen noch vor Kurzem eineinhalb Monate dauerten, lassen sich in der cloud (was das ist, zeigen wir auf unserer Webseite) in Stunden erledigen. Die Auswertung aller Daten von Wetterstationen für eine Wettervorhersage, die vor einem Jahrzehnt noch 15 Minuten dauerte, ist jetzt in einer Sekunde erledigt. Eine nochmalige Beschleunigung um das 17.000-fache deutet sich an (näheres im Abschnitt über Quantencomputer). Entscheidungen sind also sofort möglich. Der Handel mit Aktien vollzieht sich bereits in 200 Millisekunden – wir kommen in Kapitel 3 darauf noch zu sprechen. Datenwolken umgeben uns seit wenigen Jahren so selbstverständlich, dass wir gut daran tun, uns zu erinnern, wie relativkurz die Geschichte der elektronischen, automatisierten Datenverarbeitung zurück reicht.

    Die Herkunft der elektronischen Datenverarbeitung.

    Die Idee, wir selbst seien so etwas wie biologische Automaten, eine Art natürlicher Computer, ist zwar schon recht alt. Im 17. Jahrhundert verstand der deutsche Philosoph und Mathematiker Leibniz die Welt als ein System aus Automaten, die er Monaden nannte – eine Weltsicht, die heute wieder aktuell ist (vgl. Mainzer/Chua 2011). Leibniz betrachtete alles, was lebt, als natürliche Monaden, als solche biologischen Automaten, die wesentlich besser funktionieren als von Menschen gebaute Automaten seiner Zeit. Und in der Tat: Der menschliche Körper atmet, verdaut und regeneriert sich schlafend automatengleich, ohne dass das Bewusstsein eingreifen muss. Leibniz zeigte sich überzeugt, dass eines Tages Automaten nicht nur menschliche Arbeit übernehmen und die Menschen damit für kreative Tätigkeiten frei machen könnten, sondern dass diese Automaten auch Entscheidungen zu treffen vermöchten. Er sollte Recht behalten.

    Den ersten programmierbaren Automaten baute aber erst im im 19. Jahrhundert, im Zeitalter der Dampfmaschinen, der Brite Charles Babbage auf noch rein mechanischer Grundlage. Zur Steuerung benutzte er auswechselbare Lochkarten für damals schon teilautomatisch getaktete Webstühle. Elektromechanische Rechenmaschinen tauchten dann im ausgehenden 19. Jahrhundert auf. Erstmals verwendet wurden sie in den USA zur Volkszählung 1890 (Kurzweil 2012: 251). Trotz der Weite des Landes und der Einwandererströme war sie in sechs Wochen durchgeführt und nach zweieinhalb Jahren ausgewertet (Press 2013).

    Leibniz' Vision wurde erst zur Mitte den 20. Jahrhunderts umgesetzt, als zelluläre Automaten konstruiert werden konnten. In ihnen lassen sich Arbeitsschritte beliebig zerlegen und in diesen kleinsten Schrittchen dann wie in den Zellen eines Gehirns arbeitsteilig und miteinander kombiniert erledigen. Computer sind solche zellulären Automaten. Ihr Kern ist ein Zentralprozessor, in dem Zellen mit Hilfe elektrischen Stroms zugleich rechnen und speichern. Er kann auf den ersten Blick wenig, nämlich „nur" die zwei unterschiedlichen elektrischen Spannungszustände an oder aus registrieren und verarbeiten. Das tut er aber erstens in maximal möglichem Tempo, nämlich mit Lichtgeschwindigkeit, zweitens auf kleinstem, mittlerweile molekular kleinem Raum und drittens parallel, das heißt: Seine Zellen erledigen eine Vielzahl von Registrierungs- und Verarbeitungs-, also Rechenaufgaben zur selben Zeit.

    Computer sind der sichtbarste Teil einer technischen Revolution, die die Welt in den letzten fünfzig Jahren zunehmend umgekrempelt hat und weiter verwandelt. Ihr Kern ist die Elektronisierung zunehmend aller technischen Vorgänge und damit ihre Digitalisierung. Sie führt geradewegs in die Welt von Big Data.

    Aus einer größeren Zahl kluger Köpfe, die sie vorangebracht haben, seien hier in der Reihenfolge ihrer Geburtstage drei genannt, die für die Digitalisierbarkeit der Welt besonders wichtig sind. Es sind erstens der ungarisch-amerikanische Mathematiker und Vater der Spieltheorie John von Neumann (1903-1957); er spielte in den Jahren des Zweiten Weltkriegs als Computerpionier im sogenannten Manhattan-Projekt zum Bau der ersten Atombombe eine tragende Rolle und präsentierte 1946 den ersten militärisch genutzten Computer ENIAC. Als zweiter ist der deutsche Erfinder Konrad Zuse (1910-1995) zu nennen; er beschäftigte sich schon seit 1935 mit programmierbaren Computern auf der Basis binärer Zeichen und präsentierte 1941 seinen ersten Computer, konnte ihn aber nicht mit Vakuumröhren ausstatten, weil das NS-Regime Computer nicht als kriegswichtig einschätzte (Kurzweil 2012: 189). Der dritte Pionier ist der britische Logiker und Mathematiker Alan Mathison Turing (1912-1954), dessen Arbeit sogar kriegsentscheidend war, mittlerweile verfilmt wurde und uns gleich noch etwas genauer beschäftigt.

    1936, ein Jahr nach Zuses Innovation, schreibt dieses englische Computergenie Alan M. Turing seinen Aufsatz „on computable numbers". Im Jahr darauf erscheint sein Text auch gedruckt (Turing 1937). Darin entwickelt er das Konzept einer Turing machine. Es ist zunächst nur eine Idee. Aber sie definiert das Arbeitsprinzip aller späteren Computer, die als Universalmaschinen mehr oder weniger schnell und elegant jedes mathematische Problem lösen können, das sich mit Algorithmen bearbeiten lässt. Turings Geniestreich versetzt die Briten während des Zweiten Weltkriegs in die Lage, mit dem Rechnersystem Colossus im Forschungszentrum Bletchley Park bei London (Hinsley/Stripp 2005) das Verschlüsselungssystem Enigma der deutschen Marine und mit ihm deren Funksprüche zu knacken. Das war der „erste große Erfolg der Informatik (brand eins 2016) und für den Sieg der Alliierten auf See der entscheidende Durchbruch. Nach den Worten des US-Oberbefehlshabers und späteren Präsidenten Eisenhower ist es sogar der „kriegsentscheidende Schlüssel gewesen, um den U-Boot-Krieg zu gewinnen (Ulbricht 2005). Nach dem Krieg arbeitet dieser „überragende Theoretiker der Berechenbarkeit" (Mainzer 2014a) in Großbritannien am Projekt ACE (Automatic Computing Engine) und ab 1949 an der Universität Manchester an der software für den ersten zivilen Computer Manchester Mark 1 (ibid.).

    1942 stellt der science fiction-Autor Isaac Asimov seine Roboter„gesetze" vor. Sie bestehen aus drei einfachen und klaren Forderungen: Erstens: Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen wissentlich Schaden zugefügt wird. Zweitens: Er muss menschlichen Befehlen gehorchen, es sei denn, der Befehl widerspricht Punkt 1. Und er muss drittens die Existenz der Menschen beschützen, solange das nicht mit Regel 1 oder 2 kollidiert.

    1943 sagen Warren McCulloch und Walter Pitts erstmals künstliche Neuronen voraus (McCulloch/Pitts 1943). Im selben Jahr baut der deutsche Erfinder Konrad Zuse seinen ersten Computer mit dem Namen Zuse 3 und legt 1945 die weltweit erste Version einer höheren Programmiersprache namens Plankalkül vor. Praktisch verwendet wird diese Sprache allerdings nicht. 1969 beschreibt er in seinem Buch „Rechnender Raum" das Universum und seine physikalischen Zustände als einen gewaltigen zellulären Automaten.

    1946 wird nach dem Konzept des Mathematikers John von Neumann der erste fast vollständig frei programmierbare Computer fertiggestellt, der amerikanische Electronic Numerator, Integrator and Computer (ENIAC). Nach seinen Prinzipien arbeiten seither alle Computer. Dieser erste ENIAC gehört damals dem Militär.

    Was ist da Grundlegendes passiert? „Ein Computer verlangt, dass alles aus dem kontinuierlichen Fluss unserer Alltagswirklichkeit in ein Raster von Zahlen umgewandelt wird, das als eine Darstellung der Wirklichkeit abgespeichert werden kann, die sich dann mit Hilfe von Algorithmen manipulieren lässt" (Berry 2014: 48). Fairerweise ist zu sagen: Computer selbst verlangen gar nichts. Wir programmieren sie vielmehr auf bestimmte Leistungen.

    Computer und die sie verbindenden Netze galten anfangs als bloße Hilfsmittel und die „Leistung der Maschine als Diener, nicht als „ihr Beteiligter, der eine kritische Betrachtung ermöglicht (McCarty 2009). In den letzten zehn Jahren haben viele Menschen aber zu begreifen begonnen, dass aus dem Hilfsmittel Computer in hohem Tempo ein Mit-Arbeiter und zunehmend ein Vor-Arbeiter wird. Er kann nämlich vieles bereits schneller und besser als wir. Die Technik hat im Umgang mit Daten also neue Qualitäten erzeugt. Diese Leistung nennt man üblicherweise Künstliche Intelligenz.

    Schon im ausgehenden 20. Jahrhundert erwies sich, dass sich mit Computerhilfe die gesamte Welt neu organisieren lässt. Nicht zufällig kommen im Wortschatz von Computerexperten die Begriffe global, Welt und Planet signifikant häufig vor, etwa in der IBM-Initiative smarter planet, im Google-Motto „organize the world's information" oder in Google-Papieren wie etwa „web search for a planet" (Barroso et al. 2003). Auch in Überlegungen zum Computerprogramm quantum relations ist dieses Vokabular immer wieder zu finden. Quantum relations werden uns im Kapitel 3 dieses Buchs noch detailliert beschäftigen.

    Dass Google das Wort Information in seinem Motto verwendet, ist gewiss gut durchdacht. Denn mit „Information ist nicht nur gemeint, dass wir „im Zeitalter digitaler Informationsverarbeitung durch Computer leben, sondern dass wir Information überall entdecken können: So werden aus Nullen und Einsen die Datenströme sozialer Netzwerke und aus Marktplätzen ,hochkomplexe Informationssysteme' – von der Quantenphysik bis zur Evolutionstheorie, vom algorithmischen und nachrichtentechnischen Begriff zur experimentellen Hirnforschung (Mainzer 2016b).

    1950 überlegt Alan Turing, wie man feststellen kann, ob eine Maschine selbstständig unterscheiden und damit denken kann. Seine Antwort gibt er in einem Bild: Kommuniziert eine Testperson mit zwei anonymen Gesprächspartnern ohne Blickkontakt nur via Tastatur und Bildschirm und kann sie dabei nicht unterscheiden, wer von den beiden Antwortenden Mensch oder Maschine ist, dann hat die Maschine diesen Test bestanden. Heute löst dieser berühmte Test nur noch wenig Begeisterung aus. Wissenschaftler finden, er gehe am inzwischen erreichten Forschungsstand vorbei. Experten wie Francesca Rossi, KI-Forscherin an der Universität Padua, jetzt bei IBM, fordern daher neue Teststandards (Henssler 2018).

    1951 nehmen die ENIAC-Pioniere (vgl. 1946) John Mauchly und John Presper Eckert ihren ersten wohnzimmergroßen und 13 Tonnen schweren zivilen Computer mit 5.200 Röhren und 18.000 Kristall-Dioden in Betrieb, den UNIVAC I. Er macht für das United States Census Bureau, also das statistische Amt, knapp zweitausend Rechenoperationen pro Sekunde. Die Trends zur US-Präsidentschaftswahl 1952 berechnet er verblüffend genau (brand eins 2016). Anfang 1952 erhält auch die US Air Force einen UNIVAC. Exemplar Nummer 5 geht im selben Jahr an den Fernsehsender CBS, um Ergebnisse der Präsidentschaftswahl vorherzusagen. Auch er rechnet korrekt. Marvin Minsky, ein Pionier der Künstlichen Intelligenz, baut im selben Jahr für seine Dissertation den Prototypen eines Neurocomputers. Und in Deutschland gründet der junge Physiker Heinz Nixdorf sein IT-Unternehmen.

    1955 treffen sich am Dartmouth College im US-Bundesstaat New Hampshire Forscher, unter ihnen John McCarthy und der spätere „Vater der künstlichen Intelligenz" Marvin Minsky, um mit Wissen über sogenannte neuronale Netze im Gehirn des Menschen ein Projekt für das Lernen und alle anderen Merkmale der Intelligenz aufzusetzen. Es soll so genau sein, dass danach eine Maschine gebaut werden kann, die diese Vorgänge simuliert. Sie soll, so hoffen die Forscher, so kreativ sein wie der homo sapiens, sich ständig selbst verbessern und mit Zufällen umgehen können. Auch wenn die Entwickung des homo sapiens Millionen Jahre dauerte: Die Wissenschaftler rechnen für sechs Forscher, einige Praktikanten und eine Sekretärin mit einer Projektzeit von nur drei Jahren. Die Realität sieht allerdings anders aus: An diesen Zielen wird bis heute gearbeitet.

    1957, nicht lange nach der Dartmouth-Konferenz, legen der spätere Wirtschaftsnobelpreisträger Herbert Simonund der Informatiker Allen Newell ihr Konzept für einen general problem solver (GPS) vor. Diese Maschine soll Fragen aller Art mit künstlicher Intelligenz beantworten. Er kann aber nur zum Beweisen simpler Theoreme aus Logik und Geometrie, Wortpuzzles oder Schach angewandt werden.

    1958 berichtet die New York Times von einem ,lernenden Computer' der US-Navy. Er kann nach 50 Versuchen rechts von links unterscheiden.

    1965 wird der erste Roboter entwickelt, der ansatzweise Muster erkennen kann: Forscher am Stanford Research Institute in Menlo Park, Kalifornien, bauen in diesem Jahr Shakey zusammen (Eberl 2016: 43). Die Microsoft-Gründer Bill Gates und Paul Allen lassen sich von Shakey ebenso inspirieren wie Arthur C. Clarke, der 1968 zusammen mit dem Regisseur Stanley Kubrick im Kinofilm „2001 - Odyssee im Weltraum" dreht, mit HAL 9000 als Prototyp einer gefährlichen Computerintelligenz.

    1966 stellt der aus Berlin stammende, an der Entwicklung des Internetvorgängers Arpanet beteiligte Informatiker Joseph Weizenbaum am Massachusetts Institute of Technology (MIT) das Computerprogramm Eliza vor. Es simuliert einen intelligenten Dialog mit Menschen gerade so, wie sich Turing das vorgestellt hatte. Tester glauben, das Programm sei wirklich so schlau. Aber tippt man ein: „Ich bin tot" ein, gibt Eliza lediglich zurück: „Und wie fühlt es sich an, tot zu sein? Weizenbaum ist damals davon überzeugt, dass man Maschinen nicht zum Denken bringen könne, wenn man versuche, die menschliche Denkweise maschinell nachzubilden. Vielmehr müsse man die Menschen stärker wie Maschinen behandeln, indem man ihnen einen Spiegel vorhält (Hankey 2017: 93). Künstliche Intelligenz, glaubt der deutschstämminge Professor damals, sei zwar möglich, aber extrem gefährlich. Niemals dürften Computer folglich selbst etwas entscheiden. Denn zu Urteilsvermögen und Emotionen seien sie nicht fähig (ibid). Sie können allerdings emotionale Äußerungen von Menschen erkennen und deuten. Werbestrategen nutzen diese maschinelle Leistung heute, um ihre Botschaften noch gezielter zu setzen. Die IT-Welt verdankt Joseph Weizenbaum später den ersten lauten Zwischenruf gegen einen mechanistischen Maschinenglauben im Zeitalter der Digitalisierung. Die Titel seiner Bücher sprechen für sich: 1977 „Die Macht der Computer und die Ohnmacht der Vernunft und 1993, in der aufkommenden Interneteuphorie „Wer erfindet die Computermythen?"

    Trotz solcher Skepsis hält die stürmische Weiterentwicklung der Computertechnologie ungebremst an. Der amerikanische Experte Ray Kurzweil wagt im Jahr 2000 über Computer eine Prognose: Als „sinnliche und spirituelle Maschinen des 21. Jahrhunderts" seien sie von unserer Kultur nicht mehr zu trennen (Kurzweil 2000: 208). Heute wird dazu von Cyborgs gesprochen. 1999 sagt Kurzweil voraus, 2009 würden Menschen ein Dutzend Computer am Körper tragen (ibid.: 295) – eine Vorhersage, die sich - wenn auch mit einem Jahrzehnt Verspätung – als tendenziell richtig erweist. Und für 2019 lautet seine Prognose, Computer würden bis dahin „weitgehend unsichtbar überall eingebettetsein – in Wände, Tische, Stühle, Schreibtische, Kleider, in Schmuck und im Körper (ibid.: 314). Mit dem Internet der Dinge kommt derzeit genau dies auf uns zu. Nur sprechen wir statt von in den Dingen eingebetteten Computern von Sensoren. In der Tendenz hat Kurzweil richtig gelegen. Ein einzelner Transistor auf Mikrochips ist bereits deutlich kleiner als das kleinste Grippevirus (Eberl 2016: 49), und Sensoren in Allerwelts-Haushaltsgeräten werden so normal und so billig wie fließendes Wasser. Der wissenschaftliche Dienst des deutschen Bundestages spricht vom Internet der Dinge ganz treffend als vom ,Allesnetz' (Borgmeier/ Grohmann 2017: 5).

    Weiter ist Kurzweil im Jahr vor der Jahrtausendwende davon überzeugt, dass damals 4000 Dollar teure Computer innerhalb von zwei Jahrzehnten ein Zehntel davon kosten, aber die Leistung des menschlichen Gehirns erreichen würden (ibid.: 315 f.). Dieser Preissturz gilt für Standard-PCs tatsächlich, für Hochleistungscomputer natürlich nicht. Den prognostizierten Zeitraum dieser Entwicklung sollten wir nicht wörtlich nehmen – aber in der Tendenz lag Kurzweil auch hier richtig. Der Vergleich mit der „Rechen"leistung des menschlichen Gehirns wird längst angestellt. Das beste Smartphone von heute ist mit rund hundert Milliarden Rechenoperationen pro Sekunde bereits fast so schnell wie es der beste Supercomputer Mitte der 1990er-Jahre war (Eberl 2016: 48). Für einen Blick voraus kann man diesen Vergleich getrost umdrehen: „Alles in allem werden wir in den nächsten 20 bis 25 Jahren – also bis 2035 oder 2040 – noch einmal eine Vertausendfachung der Rechenleistung, der Speicherfähigkeit und der Datenübertragungsrate von Mikrochips erleben. Auch eine Verzehntausendfachung bis 2050 ist ohne Weiteres drin. Das was ein heutiger Supercomputer kann, könnte also bis 2040 oder 2050 für weniger als 500 Euro in jedem Smartphone stecken" (ibid.: 52).Zur Erläuterung: Die derzeit leistungsfähigsten Supercomputer der Welt, Titan am Oak Ridge National Laboratory in Tennessee, USA, und Tianhe-2 im chinesischen Guangzhou, haben Arbeitsspeicher zwischen 700 und 1400 Terabyte und erreichen mit 18 bis 34 Billiarden Rechenoperationen pro Sekunde die Größenordnung des menschlichens Gehirns. Allerdings benötigen sie zwischen acht und 18 Megawatt elektrischer Leistung. Das ist der Bedarf einer deutschen Stadt mit 20.000-Einwohnern. Dem Gehirn genügt zum Anhören eines halbstündigen Vortrags die Energiezufuhr eines Esslöffels Joghurt. Für eine eineinhalbstündige Präsentation verbraucht es die Energie einer Praline von gerade einmal fünf Gramm (ibid.: 146). Bis die Technik es mit der Effizienz von uns Menschen aufnehmen kann, ist der Weg also noch weit.

    Heute ist das beste Smartphone mit rund hundert Milliarden Rechenoperationen pro Sekunde wie erwähnt fast so schnell wie der beste Supercomputer Mitte der 1990er-Jahre (ibid.: 48). Dieses Tempo ist schon gigantisch. Eine für die Kommunikation grundlegende Fähigkeit geht Computern und damit auch Smartphones dagegen derzeit noch ab. Sie können noch nicht sprechen. Wir nehmen in Kauf, dass wir uns bisher in der Sprache ausdrücken müssen, die Computer verstehen: in Zeichen und Zahlen, genauer in binären Zeichen, in Bits.

    Das ändert sich aber: Algorithmen lernen die Vorlieben der Nutzer. Sie sollen „flüssige Unterhaltungen mit dem Computer möglich machen" (Schulz 2017: 18) und können das in Grenzen bereits. In bestimmten Themenfeldern können Systeme zur Sprachanalyse die natürliche Sprache schon jetzt verstehen und interpretieren. Sie können Fragen im Dialog mit den Menschen beantworten und dabei ständig weiterlernen.

    Fujitsu setzt Simultanübersetzungs-Software ein, die sich selbstlernend weiterentwickelt. Sie wird beispielsweise in japanischen Krankenhäusern genutzt. Dort verbessert sie in bis zu 50 Sprachen den Dialog mit Patienten – freilich nur mit hochleistungsfähiger Hardware im Hintergrund (Fujitsu 2017: Media Day). 2017 stellte das Unternehmen sein Sprachsystem Live Talk vor. Es wurde für Menschen mit eingeschränktem Hörvermögen entwickelt sowie für jede Form von Kommunikation, die in anderen Sprachen funktionieren soll. Das gesprochene Wort wird dazu über eine Spracherkennung in schriftlichen Text umgewandelt, und der wird auf einem PC, Tablet oder Smartphone angezeigt (Schonschek 2017).

    Der chinesische Internetkonzern Baidu erreicht nach seinen Angaben bei der automatischen Spracherkennung bereits eine Trefferquote von 97 Prozent, bei der Gesichtserkennung sogar von 99,7 Prozent. Die Spracheingabe funktioniert dreimal schneller als als Eintippen von Text und erzeugt zumindest im Chinesischen zwei Drittel weniger Fehler (Der Spiegel 2017: 20).

    1.2 Die großen Beweger - die Datenkraken

    Das kybernetische Universum der Gegenwartheißt Cyberspace. Dieser Name geht auf den Schriftsteller William Gibson zurück; er hatte ihn sich im letzten Band seiner ,Neuromancer'-Trilogie 1982 ausgedacht, einer literarischen Weiterführung von Gedanken des Mathematiker Norbert Wiener (Kreye 2017). In diesem Cyberspace sind Microsoft, Apple und Google, die sozialen Netzwerke Facebook, Twitter und weitere wie YouTube, Instagram, Tumblr sowie Medienkonzerne die großen Beweger. Kritiker nennen sie wie schon erwähnt Datenkraken, weil sie via Internet milliardenfach Daten absaugen, aufbereiten und vermarkten. Ihre Namensliste ließe sich fortsetzen; ihre Rangfolge muss aber immer wieder neu justiert werden. Hier eine Übersicht über die Konzerne, deren Namen jeder kennt, deren Herkunft und Macht aber keineswegs allgemein bekannt ist.

    Microsoft

    1975 gründen Bill Gates und Paul Allen das Unternehmen Microsoft. Erste Erfolge bringt ein BASIC-Interpreter. 1981 kommt das im Auftrag von IBM entwickelte Betriebssystem MS-DOS auf den Markt, im Jahrzehnt darauf das grafische Betriebssystem Windows und das Software-Paket Office. Beide dominieren den PC-Weltmarkt. PCs, also personal computers, haben den Umgang mit Rechnern von der anonymen Ebene der Regierungen, ihrer Militärs und der großen Konzerne zuerst zum einzelnen Beschäftigten in socheen Firmen und dann zum einzelnen Bürger verlagert. Der Effekt: Microsoft ist heute mit weit über 100.000 Mitarbeitern der größte Software-Hetsteller der Welt.

    Apple

    1976 starten Steve Jobs, Steve Wozniak und Ronald Wayne anfangs als Garagenfirma den Elektronikkonzern Apple, den Jobs nach einer Unterbrechung ab 1997 bis zu seinem Tod 2011 leitet. Das Unternehmen entwickelt und vertreibt zunächst Betriebssysteme, Anwendungs-Software und Computer. Die grafischen Benutzeroberflächen auf Bildschirmen und die Computermaus gehen in den 1980er Jahren wesentlich auf Apple zurück. Mit dem iPod (2001), dem iPhone (2006) als erstem Smartphone und dem iPad (2010) als erstem Tablet erfindet Apple weitere Produktfelder. 2003 gestaltet mit dem ersten Download-Portal iTunes Store für Musik und Filme diesen Markt wesentlich mit. iTunes und der 2008 eröffnete App Store gehören zu den meistgenutzten Absatzwegen für digitale Güter. Das Unternehmen gehört inzwischen zu den größten der Welt. 2018 überschreitet Apple als erste Firma die Marke von einer Billion US-Dollar Börsenwert. Damit setzt sich der iPhone-Konzern gegen Alphabet, Amazon und Microsoft durch (Brien 2018a).

    Google

    1998 verfassen Larry Page und Sergey Brin ihre Facharbeit über the antonomy of a large-scale hypertextual web search engine (Brin/Page 1998) und gründen im selben Jahr im kalifornischen Palo Alto ihre Firma Google. Das ist vier Jahre nach der ersten Volltext-Suchmaschine für das Internet namens WebCrawler, die anders als Google den Rang einer Webseite noch allein aus der Seite selbst abgelesen hatte. Page und Brin schalten im November dieses Jahres mit dem Slogan Search the web using Google! ihre erste deutlich komplexer arbeitende Suchmaschine mit einer anderen Suchsystematik frei: Bei Google bestimmen links wesentlich darüber mit, wie prominent eine Seite präsentiert wird. Schon im ersten Monat schießen die Zugriffe der Nutzer auf 50.000 hoch und verzehnfachen sich in nur vier Monaten auf eine halbe Million. 2015 liegen sie bei unvorstellbaren 2834 Milliarden (https://de.statista.com). Inzwischen bestimmt Google den page rank einer Webseite längst nicht mehr nur nach Art und Menge der links, sondern nutzt ca. zweihundert sogenannte Signale um zu entscheiden, wie weit oben in Suchergebnissen eine Seite angezeigt wird (Drösser 2016: 60). Welche Signale das sind, ist vertraulich.

    Das BetriebssystemMicrosoft Windows besteht aus etwa 50 Millionen Zeilen. Das Google-Suchprogramm ist vierzigmal so groß; es braucht rund zwei Milliarden Zeilen. Das ist so komplex, dass Google ein eigenes Programm namens Piper nutzt um sicherzustellen, dass alle 25.000 Google-Entwickler mit derselben Version diverser Algorithmen arbeiten – wir erörtern noch, was das ist – und dass es keine Inkonsitenzen gibt. Dort wirkt also „ein Algorithmus als oberster Hüter der Algorithmen (Drösser 2016: 230). Als „Gründungs-DNA bezeichnet Google die computerbasierte Künstliche Intelligenz (Google 2016a). Big Data spielen für das Unternehmen und seine Kunden schon seit Jahren eine tragende Rolle. So sagte Google schon 2009 aus Big Data-Analysen den Ausbruch einer Grippewelle in den USA richtig voraus, lag allerdings später daneben (Näheres im Kapitel Gesundheit).

    Der Anspruch von Google ist so einfach wie umfassend: „Grundlegend wollen wir die Informationen der Welt organisieren und für alle Menschen zugänglich machen" (Google-Sprecher Robert Lehmann). Damit ist das Unternehmen schon recht weit: Zu den Datenbeständen, die man bei Google abrufen kann, gehören der book corpus mit bisher 3,5 Millionen englischsprachiger digitalisierter Bücher aus den letzten zweihundert Jahren, die Git-Hub Data mit 2.8 Millionen open source-, also öffentlich zugänglichen Quellen (GitHub ist ein Onlinedienst, der Software-Entwicklungsprojekte auf seinem Server bereitstellt), über 145 Millionen Einzeldaten und mehr als zwei Milliarden file paths über die Namen und Geburtstage aller US-Amerikaner seit 1879, die eine Sozialversicherung besaßen oder besitzen. Ferner hält Google Übersichten der US-Behörden über alle zwischen 1888 und 2013 in den USA aufgetretenen Krankheiten sowie über Verordnungen und Kosten für ärztliche Behandlungen und Rezepte bereit, enorme Mengen von Wetterdaten, alle Daten des Geo-Satelliten Landsat seit 1982 und des ESA-Satelliten Sentinel 2, weitere Rasterungen der Erdoberfläche. Schließlich kann man dort 2500 Genome von 25 Völkern rund um den Globus und große weitere Genom-Datenbanken ebenso abrufen wie Datenbestände zu allen Taxifahrten in New York City seit 2009 und alle registrierten Hacker-Angriffe. Aus Analysen der 170 Millionen New Yorker Taxifahrten ließ sich beispielsweise ablesen, wo sich kurz vor politischen Entscheidungen die Aktivitäten von Lobbyisten ballten und woher Besucher einschlägiger Nachtclubs kamen (BMBF/Wi 2018: Federrath). Öffentlich zugängliche Daten stellt Google in seiner cloud kostenfrei bis zu einem Terabyte pro Monat bereit. Bezahlt werden muss die Aufbereitung und Auswertung je nach Zeitaufwand.

    Facebook

    2004 gründet der heutige Milliardär Mark Zuckerberg seine Plattform Facebook als zunächst exklusives Netzwerk der Harvard University. Schritt für Schritt öffnet er sie für weitere Universitäten, expandiert ins Ausland, bis schließlich 2006 jedermann zugelassen wird, der älter als 13 Jahre ist (Stampfl 2013: 23). Das Unternehmen wächst stürmisch. Im Sommer 2006 will Yahoo Facebook für eine Milliarde Dollar übernehmen (Schulz 2018: 16). Aber der Firmengründer Mark Zuckerbeerg verkauft nicht.

    2010 erklärt Facebook-Teilhaber Thiel: „Google organisiert die Informationen der Welt, Facebook aber organisiert die Menschen der Welt" (ibid.). Das wird mit stetig steigenden Nutzerzahlen jedes Jahr ein Stück wahrer. Als das Unternehmen zwei Jahre später, am 18. Mai 2012, an die Börse geht und dabei 16 Milliarden Dollar einnimmt (ibid.), schreibt Zuckerberg in einem öffentlichen Brief, Facebook sei „gebaut, um eine soziale Mission zu erfüllen, die Welt offener zu und enger zu verbinden. „Welches Unternehmen, fragt später Der Spiegel, „beglückt bei seinem Börsengang mit einem politisch-ideologischen Leitfaden? (ibid.) und gibt selbst eine Antwort: „Die Mission dient nicht nur als Antrieb, sondern als Rechtfertigung Alles ist erlaubt, wenn es die Welt besser macht (ibid.).

    Noch melden sich Kritiker nicht zu Wort, die später sagen werden, die permanente Kommunikationsdynamik dieses Netzwerks diene „zur Autohypnose einer Bevölkerung, die gutgelaunt zuschaut, wie die Grundrechte abgebaut werden" (Emcke 2018). Noch bleibt auch eine Bemerkung Zuckerbergs weitgehend unbeachtet, die zeigt, wie kalt ihn das lässt: „Ein Freund fragt Zuckerberg, warum so viele Menschen freiwillig ihr Leben auf Facebook offenlegen würden. Seine Antwort: weil sie ,dumb fucks' seien; Vollidioten" (Schulz 2018:15). Noch sagt Tim Cook, der Apple-Chef, nicht: „Ich habe keine eigenen Kinder, aber einen Neffen: Ich will nicht, dass er soziale Netzwerke nutzt". Später wird er das sagen (ibid.: 13). Zum Zeitpunkt des Börsengangs hat dieses soziale Netz 720 Millionen aktive Nutzer (Moorstedt 2013b: 90, vgl. Leistert 2011), Mitte 2015 leitet es mehr Leser auf die Websites von Medien als Google. Aber viele folgen solchen linkszu Medienhäusern gar nicht mehr, sondern lesen ihre Nachrichten nur noch direkt bei Facebook. „Der Konzern wird zur dominierenden Kraft der globalen Medienbranche – und weigert sich zugleich, Teil von ihr zu sein" (Schulz 2018: 19); denn was Medien traditionell leisten, Nachrichten einzuordnen, zu bewerten und zu kommentieren, weist Facebook von sich – es sei lediglich eine Plattform, auf der andere ihre Information und Überzeugung anbieten könnten, nicht mehr. „Facebook hätte die power, die Menschheit subtil zu ändern", urteilt der Spezialist für Künstliche IntelligenzRamin Assodolahi(BMBF/Wi 2018: Assodolahi), aber versucht genau das nicht zu tun. „Jeder, der bis drei zählen konnte, wusste, dass Facebooks Geschäftsmodell nun einmal darin besteht, Daten zu sammeln und weiterzuverkaufen", sagt auch der Sprecher des Deutschen Ethikrats Peter Dabrock (Anger 2018). Das Ansinnen, Facebook müsse sein Geschäftsmodell ändern, sei utopisch. „Das kann man natürlich fordern, aber es wäre das Ende von Facebook", sagte Dabrock dem Handelsblatt. Denn dieses Modell finde in einer hochkompetitiven Globalwirtschaft statt. „Wettbewerber sitzen mit Alibaba und Tencent vor allem in China" (ibid.).

    Auf einzelne Gefahren reagiert das Netzwerk taktisch klug, aber strategisch belanglos. Als beispielsweise ein Selbstmörder sein Selbstmordvideo ins Netz gestellt hat, lässt Facebook die persönlichen Daten aller Nutzer auf Anzeichen von Suizidgefahren durchforsten und gibt denen, die dabei auffallen, ungefragt Ratschäge. Reine Menschenfreundlichkeit ist das nicht; „Facebook schaltete diese Warnung aus wirtschaftlichen Erwägungen (BMBF/Wi 2018: Dabrock).

    Dass clevere Internetnutzer die Facebook-Plattform manipulatorisch einsetzen könnten, blendet das Unternehmen lange aus, selbst noch, als Facebook von Russen missbraucht wird, die, als Amerikaner getarnt, Ende 2016 Hunderttausende Facebook-Nutzer in russisch kontrollierten Gruppen zusammentreiben, in denen sie mit fake news zugeschüttet werden, um sie für die Botschaften des damaligen Präsidentschaftsbewerbers Trump empfänglich zu machen. Ein US-Sonderermittler klärt das ein Jahr später auf. Er klagt Facebook nicht an, lässt aber keinen Zweifel daran, dass Facebook das zentrale Instrument für diese organisierte Wahlmanipulation durch ausländische Kräfte war. Im Herbst 2017 muss Zuckerbergs Unternehmen zugeben, dass 150 Millionen Amerikaner auf seiner Plattform Propaganda serviert bekamen, die russische Geldgeber bestellt und bezahlt hatten (Schulz 2018: 22). In den Augen des Spiegel-Redakteurs Rosenbach erscheinen Facebook und Co. deshalb „nicht mehr als Förderer der Demokratie, sondern als Werkzeuge destabilisierender Mächte – als zunehmend unheimliche Orte, wo sinistre Strippenzieher insgeheim Meinungen beeinflussen, Desinformation verbreiten, Zwietracht säen und demokratische Wahlen manipulieren" (Rosenbach 2018).

    Heute loggen sich pro Tag 1,37 Milliarden Menschen bei Facebook ein, fast ein Fünftel der Weltbevölkerung (Busse/Martin-Jung 2018). Insgesamt hat Facebook inzwischen weltweit über zwei Milliarden Nutzer (ibid). Die aufgekaufte Video- & Foto-Plattform Instagram, die seit 2010 existiert, und der 2009 gegründete Messenger-Dienst WhatsApp, ebenfalls von Facebook übernommen, haben ebenfalls Nutzerzahlen an der Milliardengrenze (Schulz 2017: 15). Millionen Nutzer finden es gut, sich via Facebook öffentlich zu präsentieren. Sie kommunizieren mit Freunden aus ihrem realen Leben ebenso wie mit Personen, die sie noch nie gesehen haben, und das so intensiv, dass allein die Anzahl der täglich bei Facebook hochgeladenen Fotos größer ist als die sämtlicher Kunstwerke in allen Museen der Welt (Manovich2014: 66). Bei Facebook, Twitter & Co. tummeln sich 2017 weltweit über zweieinhalb Milliarden Nutzer, ein Drittel der Erdbevölkerung (Bastien 2016). Das macht das Unternehmen zu einem der einflussreichten und auch reichsten der Welt. Jedes Jahr, heißt es, verdiene Facebook mit den Daten jedes Nutzers ein- bis zweitausend Euro (Behrens 2018a: 64).

    Seit Anfang 2018 kann man bei Facebook, das sich zu einer ernsthaften Konkurrenz für den Videokanal YouTube entwickelt hat, nicht nur Fotos und Videos ansehen und auch digital Rundfunk hören, sondern sogar eigene Rundfunksendungen verbreiten. Dazu hat die baden-württembergische Landesmedienanstalt dem Anbieter #imländle die Lizenz für ein regionales Streaming erteilt. Solche live streams sind nämlich Rundfunk, wenn sie journalistisch-redaktionell gestaltet werden, sich an die Allgemeinheit richten und anhand eines Sendeplans in gewisser Regelmäßigkeit linear verbreitet werden. Bei dem, was die Bloggerin Petra Nann #imländle anbietet, ist das der Fall (Landwehr 2018).

    Facebook bleibt bis auf weiteres der Platzhirsch der sozialen Netzwerke. Facebook kann mit einer software, die vorerst nur bei Fotos von Sehenswürdigkeiten, bei Büchern, Kunstgegenständen, Lokalen, Wein und Logos eingesetzt wird, gepostete Bilder analysieren, das Abgebildete identifizieren und es durch Zusatzinformationen aus dem Netz ergänzen. So lassen sich auch Gesichter erkennen und identifizieren. „Im Nu wüsste man, wo der Gesprächspartner oder jeder beliebige Passant arbeitet, woher er kommt, wie alt er ist, wo er wohnt, welche Musik er gerne mag und noch vieles mehr" (Stampfl 2013: 27). Zu Recht fragt Stampfl: Bedeutet das nicht das Ende der Anonymität im öffentlichen Raum?

    Inzwischen berichtete Der Spiegel. „Bei einer Hähnchenbraterei im ostchinesischen Hangzhou bestellen Gäste ihre frittierten Chicken Wings an einem Computerterminal. Bezahlt wird mittels 3D-Gesichtserkennung und Telefonnummer. Nur wenige Sekunden dauert diese Prozedur. Es geht darum, Fast Food noch schneller zu machen – und Daten zu sammeln. Der Werbespruch dazu lautet: ,Zahlen Sie mit einem Lächeln'" (Der Spiegel 2017: 20). Diese automatische Gesichtserkennung ist in China vielfach schon Alltag: Gescannte Gesichter von Flugpassagieren ersetzen die Bordkarte. Bahnhöfe, Hotels, Schulen und Kindergärten nutzen sie als Einlasskontrolle (ibid.).

    Facebook-Nutzer erhöhen mit der Preisgabe privater Informationen die Chance, dass andere das auch tun; „eine positive Feedbackschleife, die immer mehr Zusammenhalt ermöglicht" (Tamir/Ward 2017: 115. vgl. Bowles/Gintis 2002). Das zeigt, wie präsent Plattformen sein können, auch wenn sie wie Facebook gar keine eigenen Inhalte transportieren, sondern nur für fremden content Raum zur Verfügung stellen und in diesem Raum Menschen vernetzen.

    Innerhalb von nur sechs Jahren ist Facebook „von einem virtuellen Poesiealbum zum Betriebssystem der Welt geworden (Moorstedt 2013b: 93). Adamek konnte schon 2011 behaupten: „Wer dort nicht präsent ist, der existiert nicht (Adamek 2011: 16); er begründete dies mit einer ,,diffuse[n] Sehnsucht [der Nutzer] nach einem emanzipatorischen Aufbruch, vielleicht auch nach einem Gegenpol zu den herrschenden Verhältnissen" (ibid.: 16).

    Beobachter wie die Gründerin und Direktorin der MIT Initiative on Technology and Self Sherry Turkle bewerten diese von Maschinen organisierte Kommunikation als „einen Ersatz des Menschlichen durch das ,Maschinistische'. Die „weniger vorhersagbaren, letztlich aber fordernderen und lohnenderen Beziehungen in den Bereichen Freundschaft, Liebe und Kollegialität (Pasquale 2017: 96) würden ersetzt durch roboterisierte Interaktion. Was weniger fordert, werde zunächst als befreiend erlebt. Es drohe aber den eigenen Einfallsreichtum und die eigene Kreativität zu schmälern, „also gerade jene Ressourcen, die die schöne neue Welt der Algorithmen erst ermöglicht haben (ibid.).

    Betrachtet man eine im November 2012 auf Facebook geschaltete Eigenwerbung, zeigt die Firma in einem Film unter anderem Stühle, die Menschen benutzen, die zusammenkommen: „Jeder kann auf einem Stuhl sitzen. Und ist der Stuhl groß genug, können sie sich zusammensetzen" – das soll heißen: Wer bei Facebook mitmacht, ist Teil einer weltweiten Gemeinschaft. Doll nennt das „Unifizierungsphantasien" (2014: 467); er versteht sie als globale Versuche, „dadurch Facebook – das ja in erster Linie ein Geschäftsmodell ist – zum wirkungsmächtigen politischen Werkzeug aufzuwerten" (ibid). Nicht von ungefähr werde der, der den Facebook-Film sieht, mit dem Symbolbild des blauen Planeten und der Silhouette eines fiktiven Kontinents „an das Whole Earth Movement und den weltbürgerlichen Counterculture-Universalismus der 1960er Jahre erinnert (ibid., vgl. Turner 2006). „Vielleicht machen wir ja all' diese Sachen, heißt es in der Facebook-Eigenwerbung, „um uns daran zu erinnern, dass wir eben nicht alleine sind" (ibid.: 468).

    Enjoying the preview?
    Page 1 of 1