WTF

Microsoft ersetzt Mitarbeiter durch KI und muss Mitarbeiter auf die KI ansetzen

Microsofts News-KI kann Sängerinnen mit dunklem Teint nicht auseinanderhalten und keine negativen Nachrichten über sich selbst filtern – der Mensch muss ran.

Lesezeit: 1 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 65 Beiträge

Künstliche Intelligenz: Nicht in allen Bereichen top.

(Bild: Phonlamai Photo/Shutterstock.com)

Von

Jahrelange Entwicklung sollte sich bezahlt machen - und dann: für die Katz. Eine Katze, die sich selbst in den Schwanz beißt. Erst vor Kurzem wurde bekannt, dass Microsoft einen Teil seiner Redakteure entlässt und durch Künstliche Intelligenz ersetzt. Nun müssen aber die paar verbliebenen Mitarbeiter ihre Arbeitskraft dafür aufwenden, eben jene Künstliche Intelligenz (KI) zu kontrollieren.

WTF

Das Internet ist voll von heißen IT-News und abgestandenem Pr0n. Dazwischen finden sich auch immer wieder Perlen, die zu schade sind für /dev/null.

Zu den Aufgaben der entlassenen Mitarbeiter gehörte, Nachrichten auszuwählen und für die Microsoft-eigenen Newsportale aufzubereiten. Potenzielle Schwierigkeiten beim Ersatz durch die KI hat Microsoft dabei anscheinend unterschätzt. So hat die KI zunächst bei einem Artikel über eine Sängerin der Band Little Mix die Bandkollegin für das Foto ausgewählt. Daraufhin beschwerte sich die Betroffene, Jade Thirlwall, in einer Instagramstory, wie der britische Guardian berichtet. „@msn Wenn ihr von anderen Medien Artikel kopiert, solltet ihr auch sicherstellen, dass ihr das Foto vom richtigen Bandmitglied mit gemischter Herkunft nehmt.“ In dem Artikel, den msn nutzte, ging es ausgerechnet um Rassismus.

Es ist bekannt, dass Künstliche Intelligenz Vorurteile und Stereotype bekräftigt. Gerade erst haben Entwickler einen wissenschaftlichen Artikel über ihre Trainingserfolge des Open AI Sprachmodells GPT-3 veröffentlicht. Darin schreiben sie, dass selbst bei 175 Millionen Parametern die Software noch immer Frauen mit dem Begriff „hübsch“ verbindet, Männern Dominanz und Erfolg unterstellt und auch je nach Herkunft bestimmte Attribute zuschreibt.

Nun ist das aber nicht das einzige Problem, dem sich Microsoft stellen muss. Die Künstliche Intelligenz sucht Artikel anderer Medienhäuser aus, die Leser interessieren könnten. Nach welchen Kriterien sie dabei vorgeht, ist nicht genauer bekannt. Medien haben über das vertauschte Foto der Bandmitglieder berichtet – inklusive der Kritik an Microsofts KI und mit der Frage, ob diese nicht in der Lage sei, zwischen zwei Sängerinnen unterscheiden zu können, wenn diese eine dunkle Hautfarbe haben. Der Guardian zitiert eine Sprecherin, die sagt, man habe sich dem Problem sofort angenommen und das falsche durch das richtige Foto ausgetauscht. Dafür zuständig war dann wohl ein Mensch.

Die Berichte gehen weiter, Microsoft möchte aber auf der eigenen Nachrichtenseite keine Meldungen lesen, die Microsoft kritisieren: Also müssen die verbliebenen Mitarbeiter in den Redaktionen bei Microsoft die Künstliche Intelligenz kontrollieren, durch die ihr eigener Job gefährdet ist. Sie sollen sogar vor dem Auftauchen solcher Artikel gewarnt worden sein, ebenso davor, dass die KI ihre Löschversuche aushebeln könnte.

Die KI dürfte darauf ausgerichtet sein, Themen auszusuchen, die besonders viele Menschen lesen. Wenn also viele Leser diesen Artikel oder andere Artikel zu dem Vorfall anschauen, dann … Microsoft hat wirklich nicht mal an eine Art Filter zum Selbstschutz gedacht?

(emw)