Menü

Microsofts Artemis soll Kinder vor Missbrauch in Chats schützen

Eine erweiterte Xbox-Filterfunktion von Microsoft soll helfen, Kindesmissbrauch in Chats aufzudecken. Auch andere Unternehmen können Artemis nutzen.

Lesezeit: 1 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 36 Beiträge

(Bild: Syda Productions / shutterstock.com)

Von

Microsoft bietet Internet-Unternehmen jetzt eine Technik, die Kindesmissbrauch in Chats erkennen soll. Das sogenannte Project Artemis, das auf der Filterfunktion des Xbox-Chats beruht, erkennt spezifische Wörter und Redewendungen und schickt verdächtige Nachrichten an einen menschlichen Content-Moderator. Wenn dieser einen potentiell illegalen Inhalt erkennt, leitet er die Nachricht an die Polizei weiter.

Die Software ist auf Basis von Microsoft-Technik in Zusammenarbeit mit der Nonprofit-Organisation Thorn entstanden und richtet sich an Anbieter von Online-Chat-Diensten. Thorn setzt sich gegen sexuellen Missbrauch im Netz ein und übernimmt seit dem 10. Januar 2020 die Lizenzierung und Anpassung von Artemis an die jeweiligen Anforderungen der Unternehmen. Die Software ist kostenlos.

Wie die New York Times berichtet, werden Spiele und Online-Chats häufig für Kindesmissbrauch genutzt. Die jungen Nutzer sind demnach häufig mit der Situation überfordert und wissen nicht, wie sie sich verhalten sollen. Aus Scham würden sie ihren Eltern meistens nichts erzählen. 2017 ist ein Mann zu einer 15-jährigen Haftstrafe verurteilt wurden, nachdem er Kindern im Xbox Live Chat mit Mord und Vergewaltigung gedroht hatte.

Unklar ist bislang jedoch, ob Artemis auch bei Chats mit Ende-zu-Ende-Verschlüsselung funktioniert und wie man die Content-Moderatoren vor posttraumatischen Belastungsstörungen durch die Nachrichten schützen kann. Zudem ist das Tool zur Zeit nur auf Englisch erhältlich. Als Grundlage für Artemis diente Microsoft die Filterfunktion des Xbox Live-Chats. Mit dieser können Xbox-Nutzer unter anderem Kraftausdrücke in Nachrichten ausblenden. (kim)