Menü

Suchmaschine: Microsoft Bing empfiehlt Bilder von sexuellem Kindesmissbrauch

Obwohl Microsoft die Filtertechnik PhotoDNA entwickelt hat, gibt es bei Bing Probleme mit der Anzeige und Vorschlägen von strafbarem Material.

Von
vorlesen Drucken Kommentare lesen 126 Beiträge
Microsoft-Logo

(Bild: dpa, Britta Pedersen)

Auch eine seit Jahren erprobte und im Internet von vielen großen Plattformen eingesetzte Filtertechnik wie Microsoft PhotoDNA hat ihre Schwächen. Das musste der US-Softwarekonzern gerade am eigenen Leib erfahren: Eine jetzt veröffentlichte Analyse des israelischen Start-ups AntiToxin kommt zu dem Ergebnis, dass Microsofts Suchmaschine Bing nicht nur Bilder zu sexuellem Kindesmissbrauch anzeigte, sondern bei bestimmten Eingaben sogar als Alternative vorschlug.

Laut der Untersuchung führte die Eingabe von kinderpornografischen Suchbegriffen wie "Porn Kids", "Porn CP" ("Child Pornography") oder "nude family kids" zur strafbaren Darstellung von Material rund um sexuellen Kindesmissbrauch in der Bing-Bildersuche. Als die Forscher nach der bei Teenagern populären Videochat-App "Omegle Kids" suchten, fand sich unter den automatischen alternativen Vorschlägen der Begriff "Omegle Kids Girls 13". Wer der Empfehlung folgte, stieß wiederum auf eine Fülle von Missbrauchsaufnahmen. Bing zeigte zudem noch mehr vergleichbares Material über die Funktion zur Suche nach ähnlichen Bildern an.

Voll daneben ging auch eine Suche nach “Omegle for 12 years old”, da Bing hier zusätzlich "Kids On Omegle Showing" ins Spiel brachte, was wiederum zu illegalen Inhalten führte. Den Test führte die Firma zwischen Ende Dezember und 7. Januar in der Desktop-Variante der Suchmaschine durch, wobei die Einstellungsmöglichkeit "Safe Search" nicht aktiviert war. Ein vergleichbares Experiment bei Google führte den Experten zufolge zu keinem derart desaströsen Ergebnis.

Die kleine Studie hat das Online-Magazin TechCrunch in Auftrag gegeben. Es hatte zuvor einen Hinweis auf die ominösen Suchergebnisse bei Bing erhalten in Zusammenhang mit einem Bericht über den Austausch von sexuellem Missbrauchsmaterial über Gruppen im Messenger-Dienst WhatsApp, der zu Facebook gehört. Der Online-Dienst warnt davor, das Experiment selbst zu wiederholen, da man sich damit strafbar machen könne und AntiToxin die Versuche nur unter Einbezug von Rechtsexperten als Forschungsaufgabe durchgeführt habe.

TechCrunch konfrontierte Microsoft mit einer vollständigen Liste der Suchanfragen, die Ärger bereiteten. "Diese Ergebnisse waren klar inakzeptabel nach unseren Standards und Grundsätzen", bedankte sich Jordi Ribas, der bei den Redmondern für Bing und Produkte rund um Künstliche Intelligenz (KI) zuständig ist, für den Hinweis. Man habe die kritischen Bilder sofort entfernt und Maßnahmen getroffen, um ähnliche Rechtsverletzungen künftig zu verhindern.

Nach eigenen Angaben hat Microsoft ein Team von Computerspezialisten damit beauftragt, die Probleme bei Bing zu beheben. Wie viele Mitarbeiter die Ergebnisse der eingesetzten automatisierten Filtertechnik PhotoDNA überprüfen, wollte das Unternehmen aber nicht offenbaren. Dem Magazin zufolge ist AntiToxin auch nach dem Hinweis noch auf einschlägige Suchbegriffe gestoßen, die nach wie vor zu rechtswidrigen Inhalten führten. Völlig erledigt scheinen die Schwierigkeiten also noch nicht zu sein.

Mehr Infos

Microsoft entwickelte PhotoDNA bereits vor über zehn Jahren gemeinsam mit dem Dartmouth College und überließ sie 2009 dem US-amerikanischen National Center for Missing and Exploited Children (NCMEC). Das Programm dient dazu, entdeckte Aufnahmen von sexuellem Missbrauch an das Hilfszentrum zu senden. Zugleich kann über die Software verdächtiges Material mit der NCMEC-Datenbank abgeglichen und so als Missbrauchsdarstellung identifiziert werden. Auf diese Weise soll verhindert werden, dass entsprechende Aufnahmen weiterverbreitet werden. Neben Facebook verwendet unter anderem auch Twitter das Filtersystem. (tiw)

Anzeige
Anzeige