Twitter-Analyse: Algorithmus für Bildbeschnitt bevorzugte Frauen und Weiße

Nachdem entdeckt worden war, dass ein Twitter-Algorithmus Schwarze Menschen zu benachteiligen schien, folgte eine Analyse des Konzerns. Das Ergebnis ist nun da.

Lesezeit: 3 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 50 Beiträge

Auch Hunde hat der Algorithmus schon einmal übersehen.

(Bild: Twitter)

Twitters Algorithmus für den automatischen Beschnitt von Fotos behandelt Männer und Frauen sowie Schwarze und Weiße Menschen tatsächlich messbar unterschiedlich. Das hat eine Gruppe von Experten und Expertinnen des Unternehmens im Rahmen einer ausführlichen Analyse bestätigt und erreicht, dass der Einfluss der KI verringert wird.

Bei der Einbindung eines Fotos in einen Tweet kann auf dem Smartphone nun beeinflusst werden, wie es angezeigt wird und in der Timeline gibt es keine Beschränkung mehr auf querformatige Bilder. Menschen sollten diese Funktion selbst in der Hand haben, deshalb habe man die Abhängigkeit von der Technik zurückgefahren.

Die Analyse erfolgte durch das "Team für Ethik, Transparenz und Verantwortlichkeit" sowie einen Mitarbeiter des "Teams zur Erforschung des Inhaltsverständnisses". Dem waren weniger professionelle Experimente auf Twitter vorausgegangen, nachdem im Herbst 2020 ein Nutzer bemerkt hatte, dass der Twitter-Algorithmus Schwarze Menschen zu benachteiligen schien. Der Code war dafür zuständig, in besonders hochkantigen Bildern automatisch den mutmaßlich interessantesten Teil herauszufinden, um einen querformatigen Ausschnitt auswählen zu können. Dabei ignorierte er konsequent die Gesichter Schwarzer Menschen, wenn diese denen von Weißen gegenübergestellt wurden – selbst wenn es sich um einen Ex-US-Präsidenten handelte.

Der ausführlichen Untersuchung zufolge hat der Algorithmus bei der Suche nach dem wichtigsten Element auf einem Foto tatsächlich Frauen deutlich (8 Prozent) gegenüber Männern bevorzugt, die Bevorzugung nach Ethnie war demnach weniger stark ausgeprägt (4 Prozent). Wofür dagegen keine Belege gefunden wurden, war die Einnahme einer "männlichen Perspektive" ("male gaze") durch den Algorithmus. Der bevorzugte also nicht in signifikantem Ausmaß andere Körperteile – beispielsweise nackte Beine oder das Dekolleté – wenn Gesichter zu sehen waren. Zwar seien ungefähr 3 Prozent der Testbilder nicht auf das Gesicht zugeschnitten worden, der Algorithmus habe sich dann aber für von den Körpern unabhängige Aspekte entschieden, also etwa eine Trikotnummer. Details zu ihrem Vorgehen haben die Forschenden in einem wissenschaftlichen Paper ausgeführt.

Nicht nur mit der Studie, sondern auch mit den Konsequenzen hat sich Twitter die Kritik zu Herzen genommen: Nach Abschluss der Arbeit habe man sich bei dem Konzern entschieden, dass die Nutzer und Nutzerinnen selbst einen Bildausschnitt wählen können sollten: Das gehöre nicht in den Aufgabenbereich eines Algorithmus. Die möglichen Vorteile durch den Einsatz der Technik, etwa bezüglich der Geschwindigkeit, würden das Risiko durch die Benachteiligung nicht aufwiegen. Seit wenigen Tagen kann in den Apps für Android und iOS nun ausgewählt werden, wie ein Bild angezeigt werden soll, außerdem gibt es eine Vorschau. Hochformatige Bilder in der Timeline sind nun ebenfalls möglich.

(mho)