Beruflich Dokumente
Kultur Dokumente
powered by
slide 1 of 1
Künstliche Intelligenzen (KIs) erleichtern uns in vielen Bereichen des Lebens die
Arbeit: Bei der Jobsuche, beim Übersetzen von Texten, bei der Partner*innensuche
– um nur einige Beispiele zu nennen. Sie sind darauf programmiert, ständig weiter
zu lernen, um sich selbst zu optimieren. So sollen sie beispielsweise Gesichter
möglichst treffsicher erkennen, Werbeanzeigen an die perfekte Zielgruppe senden
oder auch die Kreditwürdigkeit einer Person bestimmen. Während viele der
Nutzer*innen von KIs nicht wirklich wissen, wie das Ganze funktioniert, hat
sich Kenza Ait Si Abbou Lyadini besonders intensiv damit auseinandergesetzt. Sie
arbeitet bereits seit 15 Jahren in der IT-Branche und ist Managerin für Robotik und
künstliche Intelligenz bei der Telekom. Im August 2020 hat sie ihr erstes Buch
„Keine Panik, ist nur Technik“ veröffentlicht. Darin erklärt sie nicht nur, wie KIs
und ihre Algorithmen funktionieren, sondern auch, warum sie manchmal
diskriminieren.
Kenza Ait Si Abbou Lyadini: Künstliche Intelligenzen sind nur so objektiv, wie
sie programmiert wurden. Es ist wichtig zu verstehen, dass KIs kein
Selbstbewusstsein haben und keine bewussten Entscheidungen treffen. Sie sind
nach mathematischen Formeln programmiert, die keine eigene Meinung haben –
genau wie die KI selbst. Sie handelt nur nach dem, was ihr beigebracht und
vorgegeben wurde.
Das kommt von uns Menschen. Wir trainieren die Maschinen und die lernen dann
unsere Realität. Das tun sie anhand der Daten, die wir ihnen zum Lernen geben. Es
ist auch nicht unbedingt der Entwickler, der diskriminiert. Ein großer Teil von
Diskriminierung entsteht durch historische Daten, mit denen die KI in der
Entwicklung gefüttert wird. Diese historischen Daten stammen aus der
Menschheitsgeschichte und wurden in Datenbanken angesammelt. Da
beispielsweise früher kaum Bilder von Schwarzen Menschen gemacht wurden, gibt
es in den historischen Daten viel mehr Bilder von weißen Männern. Lernt eine
Gesichtserkennung durch diese Daten, hat das zur Folge, dass dunkelhäutige
Menschen viel seltener erkannt werden als weiße. Vor einigen Jahren gab es da eine
Untersuchung, die verschiedene Softwares zur Gesichtserkennung verglichen hat.
Diese Untersuchung hat gezeigt, dass weiße Männer zu 99 Prozent erkannt wurden,
während es bei Schwarze Frauen nur 65 Prozent waren. Eine Teilschuld tragen die
Entwickler und vor allem die Hersteller der Software, weil sie bei der Entwicklung
der Technik auch nicht über diesen Aspekt nachgedacht haben. Wenn man was
baut, muss man das ausführlich testen, damit es auch für alle Teile der Gesellschaft
funktioniert.
Auf der anderen Seite wird vielen KIs auch erst nach der Live-Schaltung die
Diskriminierung antrainiert. Denn dann lernen sie ja weiter. Bei jedem Klick und
jedem Nutzerverhalten lernt die KI, ob sie richtig oder falsch gehandelt hat und
optimiert sich selbst. So lernt die KI die Diskriminierung direkt von jedem
einzelnen Nutzer.
Microsoft hat beispielsweise vor einigen Jahren einen Twitter-Bot entwickelt, der
mit den Nutzern schreiben sollte. Einige Twitter-Nutzer haben sich damals
zusammengetan und diesen Bot mit rassistischen, faschistischen und sexistischen
Aussagen konfrontiert. Nach einer Weile hat er gelernt, wie sie kommunizieren und
hat sich daran angepasst. Er hat dann ebenfalls begonnen, diskriminierende
Aussagen zu posten. Microsoft hat den Bot natürlich sofort entfernt.
Also ist unsere Gesellschaft das Problem und die KI spiegelt sie nur
wider?
Ganz genau. KIs können sich keine neuen Diskriminierungen ausdenken, aber das,
was sie von uns gelernt haben, reproduzieren sie. Das große Problem dabei ist, dass
wir die Diskriminierungen nicht nur an die KIs übertragen und sie das wiederholen,
sie vervielfältigen das auch Millionen Male. Wenn ein Mensch einen anderen
diskriminiert, ist das eine Eins-zu-Eins-Beziehung, aber so eine Software wird von
Einschleichen ist das richtige Wort dafür. Wenn man das verhindern möchte, muss
man schon bewusst gegen die Diskriminierungen ansteuern. Wenn beispielsweise
eine Stellenanzeige hauptsächlich von Männern angeklickt wird, dann lernt die KI
das und wird die Anzeige in der Folge seltener Frauen vorschlagen. Wenn die
Stellenanzeige aber wirklich genauso vielen Frauen wie Männern vorgeschlagen
werden soll, muss man das im Vorhinein programmieren.
Haben Sie Ideen, wie man die Branche diverser aufstellen kann?
Frauen muss schon viel früher gezeigt werden, wie interessant IT sein kann.
Initiativen wie den „Girlsday“ oder „Girls Gearing Up“ finde ich toll, um Mädchen
die Möglichkeit zu geben, eine berufstätige Frau bei ihrer Arbeit zu begleiten und
einen Einblick zu bekommen. Wenn sich eine junge Frau für einen solchen Beruf
interessiert, sollte sie unbedingt ermutigt werden. Beim Thema Chancengleichheit
für alle Ethnien und migrierte Menschen bin ich ehrlicherweise überfragt. Da gibt
es, denke ich, viele Baustellen, bei denen man ansetzen müsste.
Fakt ist aber: Wenn unsere Maschinen nicht mehr diskriminieren sollen, muss sich
vor allem unsere Gesellschaft verändern. Das Bewusstsein dafür ist leider noch
nicht angekommen. Solange wir das aber nicht verstanden haben, bringen alle
anderen Maßnahmen auch wenig und unsere KIs werden weiter diskriminieren.