Menü
Technology Review

Diskrimierende Algorithmen: Gruppe will "Algorithmic Bias" bekämpfen

Forscherinnen von Google und Microsoft haben die "AI Now Initiative" gegründet. Sie soll diskriminierender KI auf die Schliche kommen.

Von
vorlesen Drucken Kommentare lesen 155 Beiträge
Gruppe will "Algorithmic Bias" bekämpfen

Auch Computer können Minderheiten unterdrücken. Davon gehen Kate Crawford, Forscherin bei Microsoft, und Meredith Whittaker, Forscherin bei Google, aus, die zusammen mit der amerikanischen Bürgerrechtsorganisation ACLU die neue Lobbygruppe "AI Now Initiative" gegründet haben. Sie soll helfen, sogenannten Algorithmic Bias zu entlarven, berichtet Technology Review in seiner Online-Ausgabe ("Das Problem der diskriminierenden Algorithmen").

Mehr Infos

Diese algorithmische Voreingenommenheit,könnte zu einem schwerwiegenden sozialen Problem werden, meinen die Wissenschaftlerinnen – und das an einem kritischen Punkt in der Entwicklung maschinellen Lernens und Künstlicher Intelligenz. Je mehr Algorithmen wichtige Entscheidungen über das menschliche Leben treffen, desto problematischer könne ein solcher Bias sein – und seine negativen Konsequenzen, insbesondere für ärmere Teile der Bevölkerung sowie Minderheiten. Umgekehrt könnte eine Diskriminierung durch die Maschinen zu einem Aufschrei führen, der die Entwicklung einer unglaublich nützlichen Technik bremst.

Die Leute von AI Now glauben, dass algorithmische Voreingenommenheit schon jetzt in vielen Programmen steckt, die beim Treffen wichtiger finanzieller oder rechtlicher Entscheidungen helfen. Proprietäre Algorithmen werden in den USA und anderswo beispielsweise eingesetzt, ob man einen Kredit erhält, zu einem Vorstellungsgespräch eingeladen wird oder gar wie bei Gefangenen die Aussichten auf ein vorzeitige Haftentlassung sind.

"Wir sind noch ganz am Anfang darin, diesen zu verstehen", sagen die beiden Informatikerinnen. In diesem Jahr hätten sie bereits mehr Systeme mit Problemen entdeckt, "und das waren nur die, die untersucht wurden". Beispiele aus der jüngsten Vergangenheit seien etwa fehlerhafte oder Fakten verdrehende Algorithmen, die Lehrer bewerteten oder Modelle für den Umgang mit natürlicher Sprache, die ein Geschlecht dem anderen vorziehen.

Mehr dazu bei Technology Review Online:

(bsc)

Anzeige
Anzeige