Menü

Gegen die Fallen der KI: Die feministische Alexa kommt

Aktivisten haben Prototypen für androgyne feministische Sprachassistenten entwickelt. Damit wollen sie über KI-Monopole und Vorurteile gegen Frauen aufklären.

Lesezeit: 3 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 382 Beiträge

Charlotte Webb – Mitgründerin des Zirkels Feminist Internet auf der Konferenz "AI Traps" in Berlin,

(Bild: Stefan Krempl)

Von

Sexismus und weithin gepflegte Vorurteile sind eine zunehmende Herausforderung für Entwickler von Anwendungen Künstlicher Intelligenz (KI). Selbst der Unesco ist inzwischen aufgefallen, dass digitale Assistenten oder Chatbots wie Amazons Alexa, Apples Siri, Googles Assistant oder Microsofts Cortana meist weibliche Stimmen zumindest voreingestellt haben und ziemlich unterwürfig sind. Und wenn Verbraucher in den Interaktionen mit den digitalen Helfern ermuntert werden, die ihnen dienenden Objekte als weiblich zu verstehen, unterstützen die Hersteller zugleich die Ansicht, dass Frauen Objekte sind.

Sprachassistenten würden oft als digitale Variante des Einkaufszettels oder der Aufgabenliste in Heim und Küche verwendet, erklärte die Mitgründerin des Zirkels Feminist Internet, Charlotte Webb, am Freitag auf der zweitägigen Konferenz "AI Traps" in Berlin, mit der das Disruption Network Lab gegen Diskriminierung durch KI vorgehen will. Die Verbraucher bevorzugten dafür offenbar weibliche Stimmen, sodass die an möglichst hohen Verkaufszahlen interessierten Produzenten diesem Wunsch nachkämen.

Webb und ihre Mitstreiter haben sich so das Ziel gesetzt, eine "feministische Alexa" und weitere Sprachassistenten zu entwickeln, die vom gesamten Konversationsdesign her über Vorurteile gegen Frauen aufklären. Mit dem Projekt F'xa ist der Prototyp eines solchen Chatbots bereits fertig, fast zehn weitere Modelle unterschiedlichster Couleur haben die Aktivisten im Rahmen eines gemeinsam mit dem Creative Computing-Institut der University of the Arts London durchgeführten Workshops entworfen und Grundgerüste dafür programmiert.

Nach Standards für feministische KI mussten die Macher dabei nicht lange suchen, da die Aktivistinnen und Forscherinnen Josie Young sowie Shaowen Bardzell auf diesem Feld schon Vorlagen produziert hatten. Demnach geht es auf einer übergeordneten Ebene etwa darum, Nutzern algorithmische Entscheidungsfindungen der Software bewusst zu machen, pluralistische Ansichten und die Selbstreflexion zu stärken, systemische Zusammenhänge aufzuzeigen und eine echte Teilhabe schon im Designprozess zu erlauben.

Doch wie könnte eine feministische Konversation mit einer angemessenen Stimme konkret aussehen, wie wird das Gerät gegenüber dem Nutzer in diesem Sinne präsentiert? F'xa etwa "sagt niemals 'Ich'", brachte Webb ein Beispiel. Ein einschlägiger Bot sollte nicht zu menschlich wirken, um die Nutzer davon abzuhalten, zu intensive Gefühle zu dem KI-System aufzubauen. Bei den Baumstrukturen für die Antworten auf zu erwartende Fragen sei dann jedes Detail wichtig, um sexistische Nuancen weitestgehend auszuschließen.

B(o)(o) gehört mit zu den schon ausgearbeiteten Assistenten, dessen Motto es ist, nichts für tabu zu erklären. Ausgerichtet ist dieser auf Teenager, die ihre Identität während der Pubertät weiter ausformen. Gefragt gewesen sei ein "sicherer Raum für alle als peinlich empfundenen Fragen" etwa über sexuelle oder emotionale Normen, berichtete Webb. Das System höre vor allem zu und gebe manchmal in umgangssprachlichen, keinem Geschlecht eindeutig zurechenbaren Ton Tipps und betreibe vor allem Sexualaufklärung. So würden etwa Jungs beruhigt, die erstmals Haarwuchs an Beinen oder unter den Achseln feststellen, dass sie damit nicht zu einem Pelzmonster würden.

Am besten sei es, menschliche Assoziationen in Bezug auf die Sprachassistenten weitgehend zu vermeiden, erläuterte die Feministin. Viel hänge im weiteren davon ab, wer überhaupt zu welchem Zeitpunkt sprechen dürfe und welche Passagen einer Unterhaltung aufgegriffen würden. Um tiefer in diese Designentscheidungen einzusteigen, führe der Zusammenschluss mittlerweile auch Workshops mit einer früheren Amazon-Programmiererin durch, um spezielle feministische Zusatzfunktionen ("Skills") für Alexa selbst zu bauen und in Umlauf zu bringen.

Dieser Schritt habe zunächst zu internen Diskussionen geführt, ob man überhaupt eine solche Plattform eines "Monopolisten" nutzen solle, räumte Webb ein. Auch dies verstoße streng genommen bereits gegen die feministische Linie, da der E-Commerce-Riese etwa auf Gratisleistungen von Nutzern setze und fragliche interne Arbeitsverhältnisse habe. Man sei aber übereingekommen, dass es besser sei, dieses System mit eigenen Anwendungen zu unterwandern und dessen Strukturen offen zu problematisieren, als sich ganz davon fernzuhalten.

Generell umriss die Hauptrednerin der Konferenz die Grundzüge feministischer KI als ein System, in das jenseits der prinzipiellen Offenheit und Geschlechterlosigkeit nicht von vornherein ideologische oder politische Zwecke einkodiert werden dürften. Unterschiede müssten dabei anerkannt und die Zugehörigkeitsgefühle vorweggenommen werden, die Nutzer zu der Technik entwickeln könnten. Wichtig sei es auch, "feministische", vorurteilsfreie Daten in die Modelle einzubringen und Algorithmen mit einem Gespür für Diversität mit einem diversen Team zu entwickeln. Diskriminierungen jeglicher Art müssten unterbleiben.

Die Technologieforscherin Maya Indira Ganesh schätzte zumindest die kurzfristigen Erfolgsaussichten eines feministisch geprägten Systemwandels bei Künstlicher Intelligenz skeptisch ein. Es bräuchte sehr lange, um bessere Trainingssets für KI-Algorithmen zu produzieren, gab sie zu bedenken. Zumindest Firmen würden darauf nicht warten oder hinarbeiten, da sie im Kapitalismus rasch weiter Produkte verkaufen müssten. Um aus Vorurteilen herauszukommen, gebe es keine vorgefertigte Lösung.

Schier "jeder" gebe sich zwar inzwischen ethische Regeln für Künstliche Intelligenz, verwies Ganesh etwa auf die EU, das Weltwirtschaftsforum oder China. In der Praxis werde in der Regel aber weiter "unethisch" gearbeitet. Google habe den eigens einberufenen Ethikrat sogar kurzfristig wieder auflösen müssen, nachdem publik geworden sei, dass ein Rassist dort eine führende Position innehaben sollte. Interner Druck von Mitarbeitern sei immer hilfreich, um Auswüchse wie den Einsatz von KI für militärische Systeme zu verhindern. Auch Standardisierungsbemühungen oder der Austausch auf Konferenzen unter Einschluss von Humanwissenschaftlern könnten mittelfristig einen Weg ebnen für Taxonomien gegen die Voreingenommenheit von Algorithmen, die sich aus den unterschiedlichsten, auch gesellschaftlichen Quellen nähre. (bme)