Menü

Algorithmische Entscheidungsfindung: Erster deutscher ADM-Atlas zeigt Diskriminierungspotenzial

Viele Entscheidungen, die unseren Alltag beeinflussen, treffen bereits Algorithmen. AlgorithmWatch will Automated Decision Making (ADM) transparent machen.

vorlesen Drucken Kommentare lesen 34 Beiträge
Algorithmische Entscheidungsfindung: Erster deutscher ADM-Atlas zeigt Diskrimierungspotenzial

(Bild: whiteMocca / Shutterstock.com)

Inhaltsverzeichnis

Unser gesellschaftlicher Alltag ist zunehmend mit kleineren und größeren automatisierten Entscheidungen durchsetzt, bei denen im Hintergrund Algorithmen federführend sind. Für die Betroffenen ist dies oft kaum direkt wahrnehmbar, auch wenn sie die sich daraus ergebenden Konsequenzen spüren. Die gemeinnützige Organisation AlgorithmWatch versucht nun, Licht in das Dunkel zu bringen. Mit Unterstützung der Bertelsmann-Stiftung und Mozilla hat sie dazu den ersten deutschen "Atlas der Automatisierung" veröffentlicht.

Als Beispiel dafür, wie automatisierte Entscheidungen von außen den Alltag von Menschen berühren, führen die Beobachter die Bewohner des Dorfes Wanzer in Sachsen-Anhalt an. Dieses sei bis zur Jahrtausendwende ein beschaulicher Flecken gewesen. Doch dann habe sich die Verbindung zur Bundesstraße, die durch den Ort führt, mehr und mehr mit Lkws gefüllt. Diese seien teils "auf der Route zwischen Osteuropa und Norddeutschland unterwegs".

Dabei sei die Strecke eigentlich keine Route, die sich einem aufdränge bei einem Blick auf die Straßenkarte. Anders sähen dies aber Navigationsgeräte: "Mit der Vorgabe, den kürzesten Weg zu finden oder Mautstrecken oder Staus auf den Hauptverkehrsstraßen zu vermeiden, weisen diese oft auch Nebenstrecken als ideale Verbindungen aus – im Fernverkehr ebenso wie in der Stadt. Die Folge: Wohnstraßen, die dafür verkehrlich nicht ausgerüstet sind, werden zu stark frequentierten Durchgangsrouten."

Ein vollständiges Verzeichnis für entsprechende Prozesse in der ganzen Republik zu erstellen, wäre eine Mammutaufgabe gewesen, schränken die Autoren ein. Sie haben sich daher auf algorithmische Systeme konzentriert, die "Relevanz für gesellschaftliche Teilhabe" entfalten. Sie interessiert vor allem, wie die Technik "den Zugang zu öffentlichen Gütern und Leistungen sowie die Wahrnehmung individueller Rechte beeinträchtigt" oder fördert. Deutlich werde so: "Diskriminierung in diesem Zusammenhang erfahren Menschen beispielsweise aufgrund ihres Alters, Geschlechts oder ihrer sozialen und geographischen Herkunft."

Die Organisation spricht generell von automatisierter Entscheidungsfindung, da ihr der Begriff "Künstliche Intelligenz" (KI) überfrachtet erscheint. Damit will sie auch unterstreichen, dass die Verantwortung für "automated decision-making" (ADM) weiter bei den Menschen liege, "die an der Beauftragung, Entwicklung und Zulassung solcher Systeme beteiligt sind". Zudem kämen in diesem Bereich derzeit neuronale Netze beziehungsweise KI erst selten zum Einsatz. Meist gehe es um mehr oder weniger komplexe Softwareanwendungen, "die anhand von Regelwerken Daten miteinander verrechnen, gewichten und sortieren" sowie dabei eine Auswahl "aus vorgegebenen Entscheidungsmöglichkeiten" träfen.

Neben dem gut 40-seitigen Bericht haben die Verfasser eine Online-Datenbank erstellt, die zu Beginn etwa 150 ADM-Produkte und -technologien, Akteure sowie Regelwerke enthält und fortlaufend erweitert werden soll. Unterteilt ist der Atlas, der einen jüngst veröffentlichten ADM-Bericht für Europa ergänzt und vertieft, nach thematischen Schwerpunkten wie der Arbeitswelt. Dort sei das Diskriminierungspotenzial besonders hoch, warnt die Institution. Dies gelte für die "behördliche Verwaltung von Arbeit und Arbeitslosigkeit" genauso wie für "Bewerbungsprozesse, das innerbetriebliche Personalmanagement und die Leistungskontrolle".

Algorithmengestützte Auswahlverfahren wie das sogenannte Robo-Recruiting durchsuchen Bewerbungsprofile nach bestimmten Qualifikationen und Schlagworten, ist der Analyse zu entnehmen. Bei einer großen Anzahl von Bewerbern könne auf diese Weise eine Vorauswahl getroffen werden. In der Regel seien jedoch im fortgeschrittene Stadium aber Menschen involviert. Das IBM-Produkt "Watson Personality Insights" wertet zur Analyse von Persönlichkeitsmerkmalen persönliche Kommunikation in Social Media oder anderen digitalen Formaten aus.

Abgesehen von Fragen nach der funktionalen Tauglichkeit der eingesetzten Verfahren stellt sich für die Autoren das Problem, dass Bewerber in den seltensten Fällen erführen, dass sie automatisiert bewertet werden. Faktisch könnten Betroffene nur nachträglich unter Berufung auf das Antidiskriminierungsgesetz gegen einen negativen Bescheid vorgehen.