Menü

Videospiele: YouTube ändert Richtlinien zu Gewaltdarstellungen

YouTube ändert seine Richtlinie bezüglich der Gewaltdarstellungen in Videospielen. Inhalte werden gegebenenfalls nicht mehr altersbeschränkt.

Lesezeit: 1 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 43 Beiträge

(Bild: MariaX/Shutterstock.com)

Von

Gewaltdarstellungen in Videospielen sind nicht real. Videos, die "simulierte Gewalt" beinhalten, behandelt YouTube deshalb ab sofort nicht mehr so streng. Damit fallen gegebenenfalls Altersbeschränkungen für Zuschauer weg. Bisher mussten sich Nutzer teilweise anmelden, um zu beweisen, dass sie mindestens 18 Jahre alt sind – erst dann konnten sie manche Videos sehen. YouTube erklärt allerdings, Inhalte mit Gewaltdarstellungen "können" genehmigt statt beschränkt werden. Die Plattform hält die Richtlinie mit dieser Aussage recht vage.

So heißt es in dem entsprechenden Blogbeitrag von YouTube, es gäbe zwar weniger Beschränkungen für Gewaltdarstellungen in Videospielen, trotzdem stehe der Schutz des Publikums vor "echter Gewalt" im Vordergrund. Zudem bleibe es bei einem Zugang mit Altersbeschränkungen, wenn in den Videos Gewalt und Bilder von Blut im Vordergrund stehen. Als Beispiel nennt YouTube Videos, die sich auf die dargestellte Gewalt in Videospielen fokussieren.

YouTube erklärt auch, dass von der neuen Regel nicht die Richtlinien für Werbung betroffen seien. Diese gelten separat und besagen, Videos mit Gewaltdarstellungen aus Videospielen dürfen monetarisiert werden. Videos, die Gewalt, Blut oder Verletzungen ohne Kontext präsentieren, sind hingegen von Werbung und damit den Einnahmen ausgeschlossen.

Die Videoplattform steht häufig in der Kritik für ihren Umgang mit Inhalten – etwa mit generellen Gewaltdarstellungen, beim Löschen von Videos mit Fake-News oder Hassreden, aber auch im Bereich des Kinderschutzes. Auf der einen Seite gibt es Vorwürfe, YouTube lösche nicht ausreichend, auf der anderen Seite hagelt es Kritik, weil Inhalte fälschlicherweise von der Monetarisierung ausgeschlossen werden.

Kürzlich testeten YouTuber Schlagworte und deren Auswirkungen. Dabei zeigte sich, dass Inhalte, die der LGBTQI-Bewegung zuzuordnen sind, diskriminiert wurden – laut YouTube sei das ein Versehen gewesen. Für solche Fälle hat die Google-Tochter extra eine Beschwerdestelle zur manuellen Überprüfung eingerichtet.

Wegen der Kritik, nicht ausreichend gegen Hassreden zu kämpfen, änderte YouTube die dazugehörige Richtlinie. Im daraufhin veröffentlichten Transparenzbericht heißt es, man habe deutlich mehr Videos gelöscht. Die Zuordnungen zu den Löschkriterien sind in dem Bericht allerdings etwas schwammig. (emw)