KI: Wie Forscher sie gerechter und offener gestalten wollen

Spracherkennung, Chatbots, Übersetzungen: Künstliche Intelligenz steuert Dienste, die wir alle nutzen. Dabei reproduziert sie Vorurteile und Diskriminierungen.

Lesezeit: 18 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 1 Beitrag
Von
  • Eva Wolfangel
Inhaltsverzeichnis

Es war ein beeindruckendes Experiment, das die Forscher von Nvidia im Dezember 2018 demonstrierten: Ein System des maschinellen Lernens hatte künstliche Bilder von Gesichtern generiert – so realistisch, dass sie für das menschliche Auge nicht als Fälschungen zu erkennen waren. Die Gesichter sehen aus wie von echten Menschen. Gleichzeitig war kein echtes Gesicht dabei, es handelte sich um komplett neu erstellte Bilder.

Das war womöglich der Startpunkt eines Hypes, der seither Wellen schlägt: synthetische Daten. Denn wenn eine KI es schafft, Gesichter zu generieren, ohne dass diese von realen Gesichtern zu unterscheiden sind, lassen sich offensichtlich Daten erstellen, die nichts mit echten Menschen zu tun haben, aber Menschen perfekt repräsentieren. Synthetische Daten haben in der Forschung neue Hoffnungen geweckt, das "alte" Datenproblem maschinellen Lernens endgültig zu lösen.

Denn Systeme maschinellen Lernens weisen einen Bias auf. Diese Verzerrung führt dazu, dass einige dieser Systeme Minderheiten diskriminieren oder für diese schlechter funktionieren. Das wurde immer wieder darauf zurückgeführt, dass die Trainingsdaten, auf deren Basis künstliche Intelligenz sich selbst Zusammenhänge erschließt, nicht repräsentativ sind. So enthalten die klassischen Datensätze für das Training von Bilderkennungsalgorithmen beispielsweise überproportional viele Bilder von weißen Männern. Sprachmodelle werden auf der Basis westlicher Kultur trainiert, Minderheitensprachen sind häufig kaum bis gar nicht abgebildet – entsprechend schlecht funktioniert Spracherkennung für solche Sprachen. Häufig führt das auch zu ungerechten Entscheidungen: Vom Amazon-Algorithmus, der Bewerbungen von Frauen aussortierte über Kreditscoring-Systeme, die ebenfalls Frauen niedrigere Kredite einräumen bis hin zum Gerichts-System, das Richtern vorschlug, Afroamerikaner länger in Haft zu lassen als Weiße.

Immer mehr Wissen. Das digitale Abo für IT und Technik.

  • Zugriff auf alle Inhalte von heise+
  • exklusive Tests, Ratgeber & Hintergründe: unabhängig, kritisch fundiert
  • c't, iX, MIT Technology Review, Mac & i, Make, c't Fotografie direkt im Browser lesen
  • einmal anmelden – auf allen Geräten lesen - monatlich kündbar
  • erster Monat gratis, danach monatlich ab 9,95 €
  • Wöchentlicher Newsletter mit persönlichen Leseempfehlungen des Chefredakteurs
GRATIS-Monat beginnen Jetzt GRATIS-Monat beginnen Mehr Informationen zu heise+