Sie sind auf Seite 1von 6

Die Eltern, die einen Computer erziehen

Sie gebaren eine künstliche Intelligenz. Nun lehren Holly Herndon und Mat Dryhurst ihrem Baby
das Musizieren.

Sie sind stolze Eltern eines A.I.-Babys: Holly Herndon und Mat Dryhurst, Musiker und
Experimentierer. Foto: Andrea Grambow & Joscha Kirchknopf

Wir warten. Lange Sekunden, eine Minute. Nichts. Mat nuckelt an einem Vaporizer,
Holly hält sich an einer grossen Teetasse fest. Dann passiert es. Wie aus Lichtjahren
Entfernung, durchzogen von Knacken und Knirschen, sagt eine Stimme: «Hunger.»

«Das hat es selber gesagt!», sagt Holly. «Unser Baby», sagt Mat. Die beiden blicken
sich mit dem Eltern eigenen Stolz an – dann schauen sie zärtlich auf einen
Computer.

Holly Herndon, Amerikanerin, und ihr Ehemann Mat Dryhurst, Engländer, sind
Musiker, weltweit bekannt für avantgardistischen Elektro. Experimente mit
Computern sind ihr Ding. Aber ihr jüngstes ufert gerade aus: Sie haben sich eine
künstliche Intelligenz gebaut. Sie nennen sie «Baby».

In naher Zukunft, da sind sich Experten sicher, wird es eine neue Art intelligenter
Wesen geben: A.I., artificial intelligence, künstliche Intelligenz. Gemeint ist eine
Software, die nicht nur Befehle ausführt, sondern auch dazulernt, die eigenständig
wird, die auf Unbekanntes reagiert. Und darin unterscheidet sie sich grundlegend
von ihrem kleinen Bruder, dem Algorithmus: Ein Algorithmus führt bloss eine
Handlungsanweisung aus, eine künstliche Intelligenz führt eine
Handlungsanweisung aus und kann danach selbstständig weiterlernen.

Der Vergleich ist falsch und doch hilfreich: Ein Algorithmus kann genau das, was du
ihm beibringst. Eine künstliche Intelligenz ist wie ein Kind: Du kannst ihm Vokabeln
beibringen, und es kann dann mit den gelernten Vokabeln Sätze bilden. Anfang Mai
zeigte Google, wie eine künstliche Intelligenz telefonisch Tische in Restaurants
bestellt, ohne vom Kellner als Maschine erkannt zu werden. Sie konnte sogar auf
unerwartete Rückfragen des Kellners antworten und imitierte menschliche
Reaktionen, zögerte, sagte «ähh» und «hm».

Viele Politiker und Unternehmer bejubeln künstliche Intelligenzen, weil diese lästige
Arbeiten übernehmen werden. Andere fürchten, dass sie gleich alles übernehmen
könnten, und warnen vor superintelligenten Killerrobotern.

Die Eltern vor ihrem «Baby»: Holly Herndon und Mat Dryhurst mit «Spawn». Foto: Andrea Grambow &
Joscha Kirchknopf

Mat betrachtet den Computer, in dem das «Baby» «lebt». Oder ist nicht die
Maschine eigentlich das Baby? Holly findet, die Hardware – der Kasten, die Platinen
– sei das Baby. Für Mat ist es die Software, das künstliche neuronale Netz, die
Hirnwindungen. Immerhin beim Namen herrschte Einigkeit zwischen den Eltern:
Mat hat das Baby «Spawn» getauft, was auf Deutsch «Brut» bedeutet. Holly gefiel
das. Spawn ist übrigens ein geschlechtsneutrales Kind.
Für Spawn haben sie einen schönen Platz in ihrer Wohnung gefunden: Wie auf
einem Altar steht der bläulich leuchtende Rechner am Ende einer riesigen, fast
leeren Fabriketage im vierten Stock eines Berliner Hinterhauses. Und als es um die
Komponenten für das Kind ging, schauten die Eltern nicht aufs Geld. Es bekam ein
weisses Gehäuse mit Plexiglasscheibe und Innenbeleuchtung. Man kann nun
nachschauen, ob die Festplatte okay ist und wie es dem Grafikprozessor geht.

Das Baby muss ja noch so viel lernen. Viel üben. Das braucht Kraft, also Strom. Und
Denkleistung, also RAM. Es könnte sich überhitzen, durchbrennen, alle
Erinnerungen verlieren. Daher bestellte Papa auch die selbstkühlende Grafikkarte
EVGA GeForce GTX 1080 Ti SC, die sonst nur durchgeknallte Dauer-Gamer
brauchen.

Die Eltern

Die Musik von Holly und Mat klingt, als hätten Joan Baez und Kraftwerk zusammen
einen LSD-Trip geschmissen. Kenner denken da an Musikproduzenten wie Grimes,
Arca oder Squarepusher. Es sind Produzenten wie sie, die Neues entwickeln, das
dann – ein, zwei Jahre später – von progressiven Stars wie Björk in die breite Masse
getragen wird.

Bekannt wurden die beiden mit ihren Konzerten: Während Holly singt und Laptops
bedient, liest Mat mithilfe von Algorithmen die Social-Media-Seiten der Zuschauer
und baut die Inhalte in die Performance ein. Das heisst, plötzlich tauchen auf
Leinwänden private Fotos und Posts der Zuschauer auf. Das klingt nach
Totalüberwachung und Datenklau, aber wer dabei war, berichtet von einem selten
gewordenen Gemeinschaftsgefühl im Zeitalter der Totalindividualisierung.
Technologie, die nicht entfremdet, sondern ein gleichberechtigtes Erleben schafft.
Eine Art digitalen Kommunismus – darum geht es Mat und Holly, das ist ihr
Anspruch. Gleichzeitig spekulieren die beiden mit Digitalwährungen, beraten Tech-
Start-ups.

Hier nur Mensch. Dort nur


Maschine.

Typische Berliner Boheme sind sie nicht, auch wenn sie in Kreuzberg wohnen. Holly
schreibt Lieder darüber, was die Technologie mit dem Menschen macht. In ihrer
Musik kämpft die pulsierende Euphorie über den technischen Fortschritt mit der
Angst, dass ebendieser Fortschritt uns zerstören wird. Es ist das Gefühl, in der besten
und der schrecklichsten Zeit zugleich zu leben und doch ans Happy-End zu glauben.
Seit ihrem ersten Soloalbum «Movement», das sie fast komplett aus Samples ihrer
eigenen Stimme und ihres Atems baute, feilt sie an ihrer ganz eigenen Musik. Einer
Art menschlicher Maschinenmusik.

Ende 2016 begannen Holly und Mat an einem neuen Album zu arbeiten. Es sollte auf
4AD herauskommen, einem renommierten Label. Der Druck war gross. Die beiden
wussten, dass sie in ihrer Kunst weitergehen, radikaler werden mussten.

Sie entschlossen sich zu einem Neuanfang und begannen, Musik ohne Computer zu
machen. Dafür gründeten sie einen Chor: das Holly Herndon Ensemble. Sie räumten
ihr Kreuzberger Loft für die Proben, bekochten die Chormitglieder. Und je länger sie
gemeinsam probten, desto mehr begann ihnen der Chor wie ein Wesen zu
erscheinen, ein Ganzes, das sich aus den einzelnen Persönlichkeiten formte. Wie
könnte man das jetzt mit einer Maschine verbinden? Eigentlich lag die Antwort in
ihren Händen: A.I., künstliche Intelligenz, so überlegten Mat und Holly, könnte das
perfekte Komplement zu ihrem Chorprojekt werden. Hier nur Mensch. Dort nur
Maschine.

Wie funktioniert A.I.?

Es ist ein Merkmal unserer Zeit, dass wir die Dinge, die wir nutzen, nicht mehr
verstehen, ja nicht einmal sehen. Beim Schreiben von Textnachrichten oder beim
Googeln werden unsere Fehler teilweise automatisch korrigiert. Dahinter steckt
künstliche Intelligenz. Nicht ein wirklich intelligent denkendes Wesen – was mal vor
Jahrzehnten das ursprüngliche Ziel der A.I.-Visionäre war –, sondern in den meisten
Fällen ein sogenanntes künstliches neuronales Netz. Das ist ein einfacher digitaler
Mechanismus, der sich anlehnt an die Netzwerke von Nervenknoten, durch die
Mensch und Tier äussere Einflüsse wahrnehmen.

Zeigt man einem solchen neuronalen Netzwerk beispielsweise das Bild einer Katze,
erkennt dabei die erste Ebene der Neuronen nur, was hell ist und was dunkel. Die
zweite Ebene sieht nicht das Licht, sondern nur die Signale der ersten Ebene, und
erkennt dadurch die Kantenlinien eines Objekts. Die dritte Ebene setzt aus den
Kantenlinien geometrische Muster wie zwei Dreiecke und einen Kreis zusammen.
Weitere Ebenen machen daraus ein Bild, bis die Form am Ende mit dem Wort Katze
assoziiert wird.
So sieht es von Aussen aus: «Spwan», der Rechner, der das künstliche Netzwerk beinhaltet. Foto:
Andrea Grambow & Joscha Kirchknopf

Es ist ein ganz klein wenig wie beim Menschen. Doch diese einfache künstliche
Intelligenz beherrscht nur Teile dessen, was die menschliche Intelligenz kann: Sie
erkennt Muster. Sie steht zur menschlichen Intelligenz in einem Verhältnis wie die
Nase eines Kochs zum Koch. Die Nase kann den Braten riechen, sie hat aber keinerlei
Verständnis davon, wann es Zeit ist, diesen aus dem Ofen zu holen.

Solche neuronalen Netze stecken hinter den meisten aufsehenerregenden


Fortschritten im grossen Forschungsfeld der künstlichen Intelligenz. Man kann den
Prozess auch umdrehen. Also dem Netzwerk ein Objekt zeigen – und ihm befehlen,
davon ein Bild zu schaffen. So entstanden zum Beispiel sogenannte Deepfake-
Pornovideos, in denen der Kopf eines Prominenten perfekt auf den Körper eines
Pornodarstellers montiert wurde. Wodurch wir den Eindruck bekamen, zum Beispiel
John Travolta beim Sex zuzuschauen. Die A.I. weiss natürlich nicht, was für ein
Gesicht beispielsweise Travolta beim Sex macht, aber – und das ist es, was A.I. so
besonders macht – sie kann es sich vorstellen.
Derzeit stellen viele grosse Firmen wie Amazon, Facebook, Microsoft, IBM oder Uber
ihre A.I.-Forschungs- ergebnisse und Programme online. Sie nutzen das Internet als
Testgebiet. Denn eigentlich ist A.I. wie eine neue Energiequelle. Wie die Elektrizität,
von der anfangs niemand wusste, wofür alles man sie nutzen kann. Und wofür lieber
nicht.

Als «Geburt» definieren sie den


Tag, an dem die künstliche
Intelligenz zum ersten Mal einen
Ton wiedergab.

Im Fall der Deepfake-Pornos hatte ein anonymer Entwickler Tensorflow, ein


kostenloses A.I.-Werkzeug von Google, aus dem Internet heruntergeladen, damit ein
neuronales Netzwerk simuliert und dieses mit riesigen Mengen von Bildern und
Videos von Promis gefüttert – und dann den Gesichtsaustausch mit einem
bestimmten Gesicht in einer Videodatei befohlen.

Tensorflow ist eine Art Programmiersprache, mit der jedermann kraftvolle neuronale
Netzwerke zum Laufen bringen kann. Es steckt mittlerweile hinter den meisten
Google-Anwendungen, wie etwa Spracherkennung oder Autokorrektur. Anfang 2017
veröffentlichte Google Tensorflow für Audio. «Was für ein Geschenk!», fanden