zurück zum Artikel

YouTube löscht über acht Millionen problematische Videos

YouTube

(Bild: dpa, Britta Pedersen)

YouTube hat seine Bemühungen verstärkt, die Plattform von Inhalten zu befreien, die gegen interne Richtlinien verstoßen. Im letzten Quartal 2017 konnten mehr als acht Millionen Videos mit Unterstützung einer Künstlichen Intelligenz gelöscht werden.

Das Videoportal YouTube hat bekannt gegeben, 8.284.039 Videos im vierten Quartal 2017 gelöscht zu haben, die gegen die internen Richtlinien verstoßen haben sollen. Das geht aus YouTubes ersten Community Guidelines Enforcement Report [1] für die Monate Oktober bis Dezember 2017 hervor.

Rund 80 Prozent der beanstandeten Videos konnten demnach automatisch über intelligente Algorithmen und durch den Abgleich mit einer Datenbank gelöscht werden. 75,9 Prozent der entfernten Videos konnten gelöscht werden, noch bevor sie ein YouTube-Nutzer ansehen konnte.

Neben der automatischen Erkennung problematischer Videos durch eine Künstliche Intelligenz (KI) setzt YouTube auf eigene Mitarbeiter, Mitglieder des Trusted-Flagger-Programms [2] und normale YouTube-Nutzer, die Videos markieren, die potenziell gegen die Richtlinien verstoßen.

Von den insgesamt 8.284.039 gelöschten Videos wurden dem Report zufolge 6.685.731 automatisch durch Algorithmen markiert. Die auf künstliche Intelligenz basierende Software analysiert, ob die Videos beispielsweise Gewaltdarstellungen oder sexuellen Content enthalten und versieht sie mit einem Marker, sodass die Videos gelöscht werden können.

Nach Angaben von YouTube ist das KI-Erkennungssystem mit zwei Millionen Videos trainiert worden, die vorher von menschlichen Mitarbeitern begutachtet wurden. Zusätzlich erfolgt über die Software ein Abgleich mit einer intern geführten Datenbank mit bereits abgelehnten Clips, um zu verhindern, dass bereits beanstandete Videos erneut auf die Plattform hochgeladen werden. Den Fortschritt illustrierte YouTube mit Videos mit extremistischen Inhalten, die weniger als zehn Mal angesehen wurden, bevor es gelang, sie zu löschen: Anfang 2017 lag der Anteil bei acht Prozent, nun ist es mehr als die Hälfte.

1.131.962 der gelöschten Videos wurden von Trusted Flaggers gemeldet, die eine YouTube-Schulung durchlaufen haben und regelmäßig Videos auf mögliche Verletzungen der Richtlinien begutachten und melden. Ein Tool hilft ihnen dabei, mehrere Videos gleichzeitig zu melden. 402.335 der gelöschten Clips wurden von normalen YouTube-Nutzern markiert, 63.938 von Nichtregierungsorganisationen, 73 von staatlichen Behörden, so der YouTube-Report weiter.

Bei den von Personen gemeldeten Videos ging es im beobachteten Zeitraum in 30,1 Prozent der Fälle um sexuell freizügige Inhalte, 26,4 Prozent der Meldungen verwiesen auf Clips mit Spam oder falschen Angaben. Auf Hassreden und ähnlicher Missbrauch entfielen 15,6 Prozent. Terror-Propaganda war der Grund für rund 491.000 Meldungen, was 1,6 Prozent entspricht.

In Zukunft soll der YouTube Community Guidlines Enforcement Report mit Statistiken zur Löschung von Videos regelmäßig erscheinen. Der zu Google gehörenden Videoplattform und anderen sozialen Netzwerken wie beispielsweise Facebook war vorgeworfen worden, unter anderem extremistischen Inhalte würden nicht schnell genug entfernt [3].

Facebook hat ebenfalls reagiert und im ersten Quartal 2018 rund 1,9 Millionen extremistischer Beiträge auf seiner Plattform gelöscht oder mit Warnhinweisen versehen [4]. (olb [5])


URL dieses Artikels:
http://www.heise.de/-4030292

Links in diesem Artikel:
[1] https://transparencyreport.google.com/youtube-policy/overview
[2] https://support.google.com/youtube/answer/7554338?ref_topic=7124235
[3] https://www.heise.de/meldung/Britische-Wahlkaempfer-boykottieren-YouTube-3736912.html
[4] https://www.heise.de/meldung/Facebook-loescht-fast-zwei-Millionen-extremistische-Beitraege-4030274.html
[5] mailto:olb@heise.de