Künstliche Intelligenz: Datengrundlage für Bilderkennung klischeebehaftet

Damit Computer Bildinhalte erkennen können, müssen sie vorher ausgiebig an speziellen Trainingsdaten üben. Die umfassen aber keineswegs nur neutrale Bildbeschreibungen, sondern können Stereotypen transportieren und an die Software weitergeben.

Lesezeit: 1 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 40 Beiträge

(Bild: Flickr)

Von
  • Martin Holland

Datenmaterial, das dem Training neuronaler Netze zugrunde liegt, kann rassistische oder sexistische Stereotypen transportieren, die von der Software unter Umständen repliziert werden. Das zumindest legt eine Untersuchung des niederländischen Forschers Emiel van Miltenburg von der Freien Universität Amsterdam nahe. Er hat die per Crowdsourcing beschriftete Bilderdatenbank Flickr30k untersucht, mit der Bilderkennungsprogramme trainiert werden. In den Bilderklärungen fand er stereotype Beschreibungen, die ein bestimmtes Weltbild transportieren, nämlich das eines weißen US-Amerikaners.

Flickr30k umfasst insgesamt 30.000 Bilder aus der bekannten Fotodatenbank. Alle wurden um jeweils fünf Beschreibungen des Bildinhalts ergänzt, die per Crowdsourcing gesammelt wurden. Die Texte stammen von Helfern, die über Amazons Minijob-Plattforme Mechanical Turk angeheuert wurden und nur aus den USA kommen dürfen. Eine bislang ungeprüfte Annahme sei, dass diese Beschreibungen allein auf dem Bildinhalt beruhten, schreibt Miltenberg. Dabei werde aber übersehen, wie stark jeweils persönliche Interpretationen in die Kurztexte einflöße.

In dieses Bild wird auf Flickr30k sehr viel hineininterpretiert.

(Bild: Flickr30k/Emiel van Miltenburg)

Wie Miltenburg ausführt, finden sich beispielsweise unter dem Bild einer Frau und eines Mannes am Arbeitsplatz Erklärungen, deren Inhalt aus dem Bild selbst nicht hervorgehen. So stehe dort, hier werde eine Arbeiterin von ihrem Chef "ernst gemaßregelt". Dabei sei überhaupt nicht klar, wie das Verhältnis der beiden ist. Computerprogramme lernten hier eine stereotype Ansichtsweise, die nahelege, dass die Frau mit größerer Wahrscheinlichkeit die Untergebene ist. Derartige Spekulationen schadeten auch nicht der Treffsicherheit, wie allgemein angenommen werde: Ganz im Gegenteil zögen sie sich so durch derartiges Material, dass eine sich durchziehende Voreingenommenheit entstehe, bestehende Klischees also gegebenenfalls in der Software fortgeführt würden.

Hier hat einer der Beschrifter erkannt, dass dieser Mann "etwas Spaß haben will".

(Bild: Flickr30k/Emiel van Miltenburg)

Ein anderes Problem sei, dass die freiwilligen Beschrifter jene Dinge explizit erwähnen, die von ihrer allgemeinen Erwartung abweichen. So würden weiße Babys einfach nur als Babys bezeichnet, während bei dunkelhäutigen oder asiatisch aussehenden die vermutete Herkunft ergänzt werde. Schwarze Menschen würden außerdem als "afroamerikanisch" bezeichnet, auch wenn nicht klar sei, woher sie stammen. Das Geschlecht wiederum werde vor allem dann erwähnt, wenn die abgebildete Tätigkeit als untypisch für eine Frau beziehungsweise einen Mann angesehen werde. Insgesamt werde damit also das Weltbild weißer Amerikaner transportiert.

Ob derart stereotypische Beschriftungen Auswirkungen auf die Arbeit der damit trainierten neuronalen Netze hat, wurde von Miltenburg nicht untersucht. Im Fall der Bilderkennungssoftware bringt er dennoch die Verwendung mehrsprachiger Beschreibungen in die Diskussion. Darüber könnten allzu einseitige Beschreibungen marginalisiert werden. Andererseits gibt er zu bedenken, dass die Stereotypen den Algorithmen helfen können. Über sie könnten sie erfahren, dass "baseball player" ("Baseballspieler" im Englischen ohne Markierung des Geschlechts) wahrscheinlich einen Mann meint.

Lesen Sie außerdem bei heise online:

In der jüngsten #heiseshow ging es um die Macht der Algorithmen

(mho)