Facebook prüft den Rassismus seiner Algorithmen

Das soziale Netzwerk fürchtet, dass seine KI mit vorurteilsbehafteten Inhalten gefüttert wurde. Dazu wurde nun ein Untersuchungsteam berufen.

Lesezeit: 1 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 51 Beiträge

(Bild: Photo by Alex Haney on Unsplash)

Von
  • Will Douglas Heaven

Facebook stellt eine neue interne Gruppe zusammen, die potenziell rassistisch agierenden Algorithmen, die das soziale Netzwerk verwendet, auf den Grund gehen sollen. Auch die Tochter Instagram ist betroffen. Maschinelles Lernen, so der Vorwurf, soll schädliche Effekte haben, weil schon die Inhalte, mit denen die Rechner lernen, vorurteilsbehaftet sind. Implizierter Rassismus und Diskriminierung gegen schwarze Menschen, Lateinamerikaner und Angehörige weiterer Minderheiten seien die Folge.

In den letzten Jahren haben immer mehr Forscher und Aktivisten darauf hingewiesen, dass Systeme künstlicher Intelligenz eine problematische Voreingenommenheit aufweisen, die sich unverhältnismäßig stark negativ auf Minderheiten auswirkt. Facebook nutzt maschinelles Lernen, um die Nutzererfahrung seiner 2,5 Milliarden Nutzer zu bestimmen.

Entsprechend gilt eine derartige interne Beurteilung als längst überfällig, wie das "Wall Street Journal" meldet. Zuvor war bereits demonstriert worden, dass Facebooks Werbealgorithmen nach ethnischer Zugehörigkeit diskriminieren können und es für Werbetreibende lange Zeit möglich war, bestimmte ethnische Gruppen von der Reichweite ihrer Beiträge auszuschließen.

Das Unternehmen steht unter Druck. In der Vergangenheit ist es solchen Vorwürfen stets ausgewichen. Um an dem heutigen Punkt anzukommen, brauchte es einige Jahre schlechter Presse und den Druck von Bürgerrechtsbewegungen, meinen die Aktivisten. Es brauchte einen einmonatigen Werbeboykott, der von Bürgerrechtsbewegungen, darunter Anti-Defamation League, Color of Change und NAACP, organisiert wurde, bis die Untersuchungsgruppe einberufen wurde. Der Aufruf hatte dazu geführt, dass große Werbegeldgeber wie Coca-Cola, Disney, McDonalds und Starbucks ihre Kampagnen ausgesetzt haben.

Facebooks Schritt mag begrüßenswert sein, doch der Weg vom Untersuchungsbeginn bis zur Behebung des tatsächlichen Problems ist lang, insbesondere, weil niemand wirklich weiß, wie das überhaupt möglich ist. In zahlreichen Fällen existieren Vorurteile in Trainingsdaten für maschinelles Lernen und es gibt keinen guten, anerkannten Weg, das zu ändern. Die Daten einfach anzupassen, ist umstritten – es wäre eine Form von algorithmischer "Affirmative Action", was in den USA eine gezielte kompensatorische Vorteilsgewährung von sonst häufig diskriminierten Minderheiten beschreibt.

Soziale Medien haben, das wissen Computerwissenschaftler genauso wie Soziologen, seit Jahren ein Problem mit Rassismus. Vorurteile von Maschinen sind nur eines davon. Wenn Facebook sich nun seine Algorithmen anschaut, sollte das Teil einer umfassenderen Überprüfung werden, fordern die Aktivisten. Dabei müsse auch geklärt werden, ob Facebook weiterhin der White-Supremacy-Bewegung oder Holocaust-Leugnern eine Bühne geben soll.

"Wir werden weiterhin eng mit Facebooks zuständigem KI-Team zusammenarbeiten, um sicherzugehen, dass wir uns potenzielle Benachteiligungen auf unseren jeweiligen Plattformen ansehen", sagt Instagram-Sprecherin Stephanie Otway. "Wir befinden uns noch ganz am Anfang und werden weitere Details dieser Arbeit in den nächsten Monaten bekanntgeben."

(bsc)