Sie sind auf Seite 1von 5

Warum Algorithmen oft diskriminieren und unsere Gesellschaft schuld d... https://www.jetzt.de/aufsteigerinnen/diskriminierende-kuenstliche-intelli...

„Eine KI lernt Diskriminierung von jedem


einzelnen Nutzer“

Interview von Marie Campisi

Unsere interessantesten Artikel

Sobald du unsere Push-Nachrichten aktivierst, erhältst Du hier einen Überblick


neuer Artikel seit deinem letzten Besuch.

powered by

1 von 5 25.10.2020, 23:27


Warum Algorithmen oft diskriminieren und unsere Gesellschaft schuld d... https://www.jetzt.de/aufsteigerinnen/diskriminierende-kuenstliche-intelli...

Die Ingenieurin Kenza Ait Si Abbou Lyadini erklärt, wann Algorithmen


problematisch werden und was man dagegen tun kann.

slide 1 of 1

2 von 5 25.10.2020, 23:27


Warum Algorithmen oft diskriminieren und unsere Gesellschaft schuld d... https://www.jetzt.de/aufsteigerinnen/diskriminierende-kuenstliche-intelli...

Künstliche Intelligenzen (KIs) erleichtern uns in vielen Bereichen des Lebens die
Arbeit: Bei der Jobsuche, beim Übersetzen von Texten, bei der Partner*innensuche
– um nur einige Beispiele zu nennen. Sie sind darauf programmiert, ständig weiter
zu lernen, um sich selbst zu optimieren. So sollen sie beispielsweise Gesichter
möglichst treffsicher erkennen, Werbeanzeigen an die perfekte Zielgruppe senden
oder auch die Kreditwürdigkeit einer Person bestimmen. Während viele der
Nutzer*innen von KIs nicht wirklich wissen, wie das Ganze funktioniert, hat
sich Kenza Ait Si Abbou Lyadini besonders intensiv damit auseinandergesetzt. Sie
arbeitet bereits seit 15 Jahren in der IT-Branche und ist Managerin für Robotik und
künstliche Intelligenz bei der Telekom. Im August 2020 hat sie ihr erstes Buch
„Keine Panik, ist nur Technik“ veröffentlicht. Darin erklärt sie nicht nur, wie KIs
und ihre Algorithmen funktionieren, sondern auch, warum sie manchmal
diskriminieren.

jetzt: Künstliche Intelligenzen und Algorithmen werden für ihre


Neutralität gelobt, aber sind sie wirklich so neutral?

3 von 5 25.10.2020, 23:27


Warum Algorithmen oft diskriminieren und unsere Gesellschaft schuld d... https://www.jetzt.de/aufsteigerinnen/diskriminierende-kuenstliche-intelli...

Kenza Ait Si Abbou Lyadini: Künstliche Intelligenzen sind nur so objektiv, wie
sie programmiert wurden. Es ist wichtig zu verstehen, dass KIs kein
Selbstbewusstsein haben und keine bewussten Entscheidungen treffen. Sie sind
nach mathematischen Formeln programmiert, die keine eigene Meinung haben –
genau wie die KI selbst. Sie handelt nur nach dem, was ihr beigebracht und
vorgegeben wurde.

„Dieser Umfang an Diskriminierungspotenzial, den KIs


aufweisen, ist nicht vergleichbar mit dem eines Menschen“
Wie kommt es dann, dass viele KIs Menschen diskriminieren?

Das kommt von uns Menschen. Wir trainieren die Maschinen und die lernen dann
unsere Realität. Das tun sie anhand der Daten, die wir ihnen zum Lernen geben. Es
ist auch nicht unbedingt der Entwickler, der diskriminiert. Ein großer Teil von
Diskriminierung entsteht durch historische Daten, mit denen die KI in der
Entwicklung gefüttert wird. Diese historischen Daten stammen aus der
Menschheitsgeschichte und wurden in Datenbanken angesammelt. Da
beispielsweise früher kaum Bilder von Schwarzen Menschen gemacht wurden, gibt
es in den historischen Daten viel mehr Bilder von weißen Männern. Lernt eine
Gesichtserkennung durch diese Daten, hat das zur Folge, dass dunkelhäutige
Menschen viel seltener erkannt werden als weiße. Vor einigen Jahren gab es da eine
Untersuchung, die verschiedene Softwares zur Gesichtserkennung verglichen hat.
Diese Untersuchung hat gezeigt, dass weiße Männer zu 99 Prozent erkannt wurden,
während es bei Schwarze Frauen nur 65 Prozent waren. Eine Teilschuld tragen die
Entwickler und vor allem die Hersteller der Software, weil sie bei der Entwicklung
der Technik auch nicht über diesen Aspekt nachgedacht haben. Wenn man was
baut, muss man das ausführlich testen, damit es auch für alle Teile der Gesellschaft
funktioniert.

Auf der anderen Seite wird vielen KIs auch erst nach der Live-Schaltung die
Diskriminierung antrainiert. Denn dann lernen sie ja weiter. Bei jedem Klick und
jedem Nutzerverhalten lernt die KI, ob sie richtig oder falsch gehandelt hat und
optimiert sich selbst. So lernt die KI die Diskriminierung direkt von jedem
einzelnen Nutzer.

Wie kann ich mir das in der Praxis vorstellen?

Microsoft hat beispielsweise vor einigen Jahren einen Twitter-Bot entwickelt, der
mit den Nutzern schreiben sollte. Einige Twitter-Nutzer haben sich damals
zusammengetan und diesen Bot mit rassistischen, faschistischen und sexistischen
Aussagen konfrontiert. Nach einer Weile hat er gelernt, wie sie kommunizieren und
hat sich daran angepasst. Er hat dann ebenfalls begonnen, diskriminierende
Aussagen zu posten. Microsoft hat den Bot natürlich sofort entfernt.

Also ist unsere Gesellschaft das Problem und die KI spiegelt sie nur
wider?

Ganz genau. KIs können sich keine neuen Diskriminierungen ausdenken, aber das,
was sie von uns gelernt haben, reproduzieren sie. Das große Problem dabei ist, dass
wir die Diskriminierungen nicht nur an die KIs übertragen und sie das wiederholen,
sie vervielfältigen das auch Millionen Male. Wenn ein Mensch einen anderen
diskriminiert, ist das eine Eins-zu-Eins-Beziehung, aber so eine Software wird von

4 von 5 25.10.2020, 23:27


Warum Algorithmen oft diskriminieren und unsere Gesellschaft schuld d... https://www.jetzt.de/aufsteigerinnen/diskriminierende-kuenstliche-intelli...

Millionen Menschen genutzt. Dieser Umfang an Diskriminierungspotenzial, den


KIs aufweisen, ist nicht vergleichbar mit dem eines Menschen.

„Wenn unsere Maschinen nicht mehr diskriminieren sollen,


muss sich auch unsere Gesellschaft verändern“
Wie kann man dem entgegenwirken, dass sich Diskriminierungen
einschleichen?

Einschleichen ist das richtige Wort dafür. Wenn man das verhindern möchte, muss
man schon bewusst gegen die Diskriminierungen ansteuern. Wenn beispielsweise
eine Stellenanzeige hauptsächlich von Männern angeklickt wird, dann lernt die KI
das und wird die Anzeige in der Folge seltener Frauen vorschlagen. Wenn die
Stellenanzeige aber wirklich genauso vielen Frauen wie Männern vorgeschlagen
werden soll, muss man das im Vorhinein programmieren.

Um Diskriminierungen entgegenzuwirken, müssten auch die Entwicklerteams


diverser werden. Jungen Frauen wird häufig von IT-Berufen abgeraten und
Menschen mit Migrationshintergrund oder aus Arbeiterfamilien haben generell
weniger Zugang zum akademischen Bereich. Solche Strukturen verhindern die
Diversität in der Branche, die eigentlich so wichtig wäre. Das Reflektieren über eine
mögliche Diskriminierung gehört bisher nicht wirklich zu den Aufgaben eines
Entwicklers. Deswegen wäre es umso wichtiger, mehr Leute in Entwicklerteams zu
haben, die sich mit Diskriminierungen auskennen und mögliche Einflüsse auf die
KI verstehen. Aktuell fragen die Teams hauptsächlich danach, ob und wie die
Maschine funktioniert, aber nicht, ob es denn unsere Gesellschaft voranbringt.

Haben Sie Ideen, wie man die Branche diverser aufstellen kann?

Frauen muss schon viel früher gezeigt werden, wie interessant IT sein kann.
Initiativen wie den „Girlsday“ oder „Girls Gearing Up“ finde ich toll, um Mädchen
die Möglichkeit zu geben, eine berufstätige Frau bei ihrer Arbeit zu begleiten und
einen Einblick zu bekommen. Wenn sich eine junge Frau für einen solchen Beruf
interessiert, sollte sie unbedingt ermutigt werden. Beim Thema Chancengleichheit
für alle Ethnien und migrierte Menschen bin ich ehrlicherweise überfragt. Da gibt
es, denke ich, viele Baustellen, bei denen man ansetzen müsste.

Fakt ist aber: Wenn unsere Maschinen nicht mehr diskriminieren sollen, muss sich
vor allem unsere Gesellschaft verändern. Das Bewusstsein dafür ist leider noch
nicht angekommen. Solange wir das aber nicht verstanden haben, bringen alle
anderen Maßnahmen auch wenig und unsere KIs werden weiter diskriminieren.

5 von 5 25.10.2020, 23:27

Das könnte Ihnen auch gefallen