iX 8/2020
S. 62
Titel
Künstliche Intelligenz

Systematischer Gender Bias in KI-Systemen

Unausgewogen und voreingenommen

Ariane Rüdiger

Warum werden bestimmte Gruppen durch KI-Algorithmen benachteiligt? Was tun Wissenschaftler, Firmen und Politik, um dem entgegenzuwirken, und wie stehen die Erfolgsaussichten?

Die Euphorie über die Möglichkeiten der zweiten AI-/ML-Welle ist an vielen Stellen längst verflogen. An ihre Stelle tritt zumindest in Europa langsam das Verständnis, das nicht das technologisch Machbare und die dadurch erzielbaren Renditen oder Rationalisierungspotentiale das Maß aller Dinge sein sollten. Vielmehr fragen Sozialwissenschaftler*innen, Jurist*innen und andere, ob Software mit integrierten AI-Algorithmen mehr Gerechtigkeit oder nur mehr Gewinn bedeutet, wer bevorzugt und benachteiligt wird. Diese Fragen zu beantworten, ist nicht immer einfach.

Britta Schinzel, 2008 emeritierte Professorin für Mathematik und Informatik an der Universität Freiburg, ist eine der Pionier*innen der Erforschung der Wechselwirkung zwischen Informatik und Gesellschaft. Für ihre Verdienste wurde sie zum Fellow der Gesellschaft für Informatik (GI) ernannt. In einem (auf Youtube erhältlichen) Vortrag über Big Data, Data Mining und AI/ML sieht Schinzel mit AI/ML-Algorithmen angereicherte Software als unauflösbare Verzahnung von Daten, Bediener*innen und Algorithmen, die im Lauf der Zeit immer undurchsichtiger wird. Schinzel: „Die Benutzungs-Itera­tionen, das Kombinieren von Algorithmen, das Anreichern mit weiteren Software-Systemen durch Training und mit minierten Daten stellen einen irreversiblen Prozess von wechselweisen, geschlossenen Aktionen dar, der nicht mehr dekonstruierbar ist, weil intransparent, zu komplex, sich zu rasch anreichernd. Man vergisst leicht, dass Menschen ihn initialisiert haben.“

Kommentare lesen (2 Beiträge)