Können Maschinen rassistisch sein?

Intelligente Algorithmen können uns Menschen viele lästige Entscheidungen abnehmen. Doch das kann auch zu drastischen Auswirkungen auf die Betroffenen führen.

Lesezeit: 6 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 4 Beiträge
Von
  • Eva Wolfangel
Inhaltsverzeichnis

Je mehr Margarine US-Bürger essen, umso mehr Menschen lassen sich im US-Staat Maine scheiden. Steigt der Käsekonsum, sterben mehr Menschen daran, dass sie sich in ihrem Bettzeug verheddern. Und parallel zum Erscheinen eines Films mit Nicolas Cage ertrinken verstärkt Menschen nach einem Sturz in einen Pool.

Offensichtlicher Unfug? All diese seltsamen Zusammenhänge, die der Harvard-Student Tyler Vigen auf seiner Internetseite "Spurious Correlations" zusammengetragen hat, sind "statistisch signifikant". Das heißt, die Daten passen so gut zusammen, dass rein statistisch eigentlich kein Zufall möglich ist. Und alle diese Zusammenhänge haben Computer gefunden, schreibt Vigen in seinem gleichnamigen Buch. Die Software nimmt einen Datensatz und vergleicht systematisch, ob sich ein anderer Datensatz mathematisch genauso verhält.

Jeder Mensch sieht auf den ersten Blick, dass es keinen kausalen Zusammenhang zwischen der Scheidungsrate und dem Käseverbrauch gibt. Das kleine Problem ist: Eine Maschine erkennt das nicht. Dennoch fällt sie auf der Basis von Mustern in Daten Entscheidungen. Entscheidungen, die für Menschen existenzielle Auswirkungen haben können – beispielsweise ob sie einen Kredit oder einen Job bekommen oder eine Grenze überqueren dürfen. "Im 21. Jahrhundert haben wir es mit Maschinen zu tun, die handeln. Maschinen, die in Zukunft beispielsweise entscheiden, wer eingestellt oder wer als Terrorist verdächtigt wird", warnt die US-amerikanische Techniksoziologin Zeynep Tufekci von der School of Information and Library Science an der University of North Carolina.

Zumindest die ersten Erfahrungen geben ihr recht. Jenseits von Kaufempfehlungen bei Amazon, bei denen seltsame Korrelationen höchstens nervig sind, gehen derzeit vor allem Anwendungen im Sicherheitsbereich auf das Konto intelligenter Algorithmen: Sie sollen lernen, Verdächtige selbstständig zu erkennen. Verhält sich jemand im Bereich einer Kameraüberwachung anders als die Mehrheit? Ist er irgendwie auffällig? Schon hier zählt die Frage nicht mehr, wieso sich jemand beispielsweise anders bewegt, sondern nur die Tatsache, dass er es tut – und das macht ihn im Zweifel verdächtig. Solche Menschen überprüfen dann Polizisten oder Wachleute. Aus den USA gibt es erste Berichte von Transsexuellen, die von Körperscannern am Flughafen geoutet wurden: Der Algorithmus erkannte "falsche" Geschlechtsteile, beispielsweise einen Penis bei einer Frau – und schlug Alarm.

Nebenbei Transsexuelle zu outen, sei natürlich nicht das Ziel gewesen, verteidigen sich die Verantwortlichen. Aber genau das ist das Problem: Solcherlei selbstlernende Systeme ziehen ihre Schlüsse selbst. Die Kontrolle über sie geht verloren. "Man kann am Ende nicht mehr genau sagen, welche Eigenschaften der Trainingsdaten sich wie im Modell niederschlagen", sagt Tobias Matzner, Philosoph und Informatiker an der Uni Tübingen.

Auch der Informatiker Kavé Salamatian von der Université de Savoie in Annecy sieht ein grundsätzliches methodisches Problem: "Früher hatte man eine These, hat dazu ein Experiment gemacht und die Hypothese entweder bestätigt oder verworfen", sagt er. Heute stehe das Experiment am Anfang: in Form bereits vorhandener Daten. "Aus den Mustern entsteht die These – und wir bekommen erst am Ende raus, was die Frage war." Eine kritische Bewertung der Hypothese entfällt.

Salamatian befürchtet zudem, dass Anwender dieser Sicherheitstechnologien – wie die meisten Menschen – kein Verständnis für Wahrscheinlichkeiten haben: "Es gibt einen riesigen Unterschied zwischen Wahrscheinlichkeit und Realität", sagt er. Berechne ein System etwa, dass jemand zu 99 Prozent ein Mörder ist, sage das zwar nichts darüber aus, ob er tatsächlich einen Menschen umgebracht hat. Dennoch könnte das Ergebnis die Unschuldsvermutung aushebeln – erst recht dann, wenn ein aufgebrachtes Volk einen vermeintlichen Täter jagt.

Derartige Vorverurteilungen sind zugegeben nicht neu, aber maschinelle Entscheidungen verschleiern die Verantwortung. Die Sicherheitsbeamten werden sich immer darauf zurückziehen, dass nicht sie, sondern das System eine Entscheidung getroffen habe. "Wir dürfen unsere Verantwortung nicht abgeben", warnt Salamatian. Sein wichtigster Rat für die Zukunft lautet daher: Stets einen Menschen definieren, der das System überwacht, dafür verantwortlich ist und im Notfall einen "Ausknopf" drücken kann, wenn ihm die Ergebnisse seltsam vorkommen. Nur: "In vielen computerisierten Systemen hat man diesen Knopf heute nicht."

Aber wie kann ein Mensch erkennen, wann der Computer die falsche Abzweigung nimmt? Wer kann in komplexeren Fällen überprüfen, ob die Algorithmen "sinnvolle" Muster erkennen, jenseits zufälliger Zusammenhänge? Überzeugte Anhänger solcher Verfahren fordern in so einem Fall noch mehr Daten, um logische Zusammenhänge von zufälligen zu trennen. Matzner hingegen findet diese Herangehensweise falsch. Schließlich nutzen wir Maschinen, "weil sie eine andere Sicht auf die Welt haben". Es liegt in der Natur der Sache, dass sie auch unsinnige Korrelationen ausspucken. Um das Ergebnis mit der Realität abzugleichen, "muss am Ende der Mensch wieder ins Spiel kommen", fordert Matzner. Nur er weiß um die Stärken und eben auch Schwächen solcher Verfahren und kann sie ausbügeln.

Ein Problem aber bleibt: Die Gründe für maschinelle Entscheidungen werden immer schwerer nachvollziehbar. Am Ende könnten sie sich genau deshalb der gesellschaftlichen Kontrolle entziehen. Die Schwierigkeiten erläutert Eric Horvitz, leitender Forscher bei Microsoft Research, am Beispiel der sozialen Medien: "Maschinelles Lernen erschwert es dem Einzelnen zunehmend zu verstehen, was andere über ihn wissen können auf der Basis jener Dinge, die er bewusst geteilt hat." Studien zeigen, dass mittels Daten aus sozialen Netzwerken depressive Nutzer mit hoher Treffergenauigkeit erkannt werden können. Wenn Algorithmen auf dieser Datenbasis vorhersagen, dass ein Mensch vermutlich eine Depression entwickeln wird, kann ein Arbeitgeber entsprechende Bewerber legal ablehnen. Denn nur akute Krankheiten schützen den Bewerber, keine drohenden. "Die Gesetze sind nicht auf dem Stand der Technologie", moniert Horvitz. Die Politik müsse nacharbeiten: "Auch wenn das eine Herausforderung ist, sind solche Gesetze ein wichtiger Teil der rechtlichen Landschaft der Zukunft. Sie werden helfen, Freiheit, Privatsphäre und das Allgemeinwohl voranzubringen."