"Hate Speech" auf sozialen Plattformen und was dagegen hilft

Trends & News | Interview

c't sprach mit Johannes Baldauf, Leiter des Projekts no-nazi.net, sowie dem Strafrichter und Netzexperten Ulf Buermeyer über die Ursachen der fremdenfeindlichen Hetze auf Facebook und potenzielle Lösungsansätze.

c't sprach mit Johannes Baldauf, Leiter des Projekts no-nazi.net, sowie dem Strafrichter und Netzexperten Ulf Buermeyer über die Ursachen der fremdenfeindlichen Hetze auf Facebook und über potenzielle Lösungsansätze.

c't: Sozialen Plattformen – insbesondere Facebook – wird vorgeworfen, als Katalysator für rechte Gewalt zu wirken, weil sie rassistische Hassrede nicht wirksam eindämmen. Einmal angenommen, es gäbe kein Facebook und wir stünden derzeit exakt vor derselben Entwicklung der Flüchtlingszahlen. Wäre die Anzahl rechter Gewalttaten im laufenden Jahr 2015 genauso hoch ausgefallen?

Ulf Buermeyer: Das weiß ich nicht. Fest steht: Facebook hat eine fatale Wirkung. Die Plattform erweckt den Eindruck, es gäbe in Deutschland ganz viele ausländerfeindliche Menschen, obwohl das ja bei weitem nicht der Fall ist. Denen, die sich in ihrer vom Facebook-Algorithmus erzeugten Filterblase bewegen, kommt es so vor, als sei es in Ordnung, Faschist zu sein oder rassistisch zu denken. Facebook erzeugt bei ihnen die Illusion, einer schweigenden Mehrheit anzugehören. Das halte ich für ganz gefährlich.

Johannes Baldauf

Johannes Baldauf

Johannes Baldauf beschäftigt sich seit 2008 mit Rechtsextremismus, Antisemitismus und Verschwörungstheorien im Internet. Für die Amadeu Antonio Stiftung referiert er über Erscheinungsformen von Neonazis und wirkungsvolle Gegenstrategien in sozialen Netzwerken und leitet das Projekt no-nazi.net.

Johannes Baldauf: Wir haben uns mal angeschaut, zu welchen Regionen es auf Facebook "Nein-zum-Heim"-Seiten gibt (insgesamt mindestens 65, Anm.d.Red). Darüber haben wir eine Karte gelegt, auf der verzeichnet ist, wo in diesem Jahr Anschläge auf Flüchtlingswohnheime stattgefunden haben. Es war auffällig, dass die Facebook-Aktivität nicht zwingend korreliert mit Gewalt auf der Straße. Es gab viele Anschläge an Orten, bei denen sich auf Facebook bezüglich "Hate Speech" nicht viel tut.

Ich stimme Ihnen zu: Es gibt den Filterblaseneffekt. Aber hier die Linie zu realen Gewalttaten zu ziehen, halte ich für gewagt. Da überschätzt man den Einfluss sozialer Medien ein wenig. Nehmen wir Pegida: Die sind populär auf Facebook, aber meiner Meinung nach nicht wegen Facebook. Rassismus und Menschenverachtung sind schlicht in manchen Gegenden wieder salonfähig geworden, da kommt kaum Widerspruch, und zwar außerhalb des Internets, das eher eine untergeordnete Rolle spielt.

Ulf Buermeyer

Ulf Buermeyer

Dr. Ulf Buermeyer ist Richter am Landgericht Berlin und derzeit Beisitzer einer Schwurgerichtskammer. 2013/2014 absolvierte er im Rahmen eines Sabbaticals das LL.M.-Programm der Columbia Law School in New York City. Daneben ist er Redakteur der Zeitschrift für höchstrichterliche Rechtsprechung im Strafrecht (HRRS) und Fellow des Centre for Internet and Human Rights (CIHR) an der Europa-Universität Viadrina (Frankfurt/Oder).

Buermeyer: Es mag ja sein, dass Sie die von Ihnen angesprochene Korrelation nicht herstellen konnten. Aber es geht meiner Ansicht nach gar nicht um diesen ganz unmittelbaren Zusammenhang, sondern darum, dass das Gefühl vermittelt wird, ganz viele zu sein. Der "Lügenpresse"-Vorwurf etwa stützt sich doch genau darauf: Was die Presse berichtet, soll angeblich nicht die Mehrheitsmeinung der Bevölkerung widerspiegeln. Und hier liegt die Verantwortung von Facebook. Legen Sie sich doch mal ein Fake-Profil an und liken sie die Beiträge von "besorgen Bürgern" – irgendwann werden Ihnen nur noch rechtslastige Postings angezeigt. Und genau das sorgt doch dafür, dass sich Ausländerfeinde irgendwann regelrecht als Freiheitskämpfer fühlen, wenn sie ein Flüchtlingswohnheim anzünden.

Baldauf: Naja, ich glaube nicht, dass Facebook hier die Hauptverantwortung trägt. Das Problem "Hate Speech" und reale rechte Gewalt setzt sich aus vielen Teilen zusammen. Manchmal habe ich bei der Berichterstattung zu diesem Thema das Gefühl, "Hate Speech" wird jetzt zum Anlass genommen, die prinzipielle Ablehnung dem Konzern gegenüber mal richtig auszubreiten.

c't: Wir beobachten derzeit, dass Facebook massiv genutzt wird, um falsche Gerüchte zu streuen, die sich meist auf kriminelle Aktionen von Flüchtlingen beziehen. Herr Baldauf, fällt das unter "Hate Speech"?

Baldauf: Ich würde sagen, ja. Inwieweit das juristisch relevant ist, vermag ich nicht zu sagen.

Buermeyer: "Hate Speech" ist ohnehin ein völlig unjuristischer Begriff, der einen diffusen Symptomkomplex beschreibt. Wenn so ein Gerücht sehr zugespitzt und noch dazu rassistisch aufgeladen ist, kann es schon volksverhetzend und damit strafrechtlich relevant sein.

c't: "Sechs Asylanten haben am letzten Freitagabend eine blonde Frau in der Tiefgarage am Marktplatz vergewaltigt!" Strafbar oder nicht?

Buermeyer: Das falsche Faktum zu verbreiten wäre als solches wäre wohl noch nicht strafbar, ist aber auf jeden Fall hart an der Grenze, denn auch verleumderische Äußerungen können den Tatbestand der Volksverhetzung erfüllen. Ändern würde sich das eventuell, wenn einzelne Personen benannt werden würden. Aber auch dann käme es noch auf den Kontext an. Bei einem Nachsatz wie "Die sollten wir mal aufmischen" wäre der Fall aber wohl ziemlich klar.

c't: Auch Web-Foren und Blogs mit freigeschalteter Kommentarfunktion können schnell zum Anlaufpunkt für rassistische Hetze werden. Was empfehlen Sie Betreibern, wenn sie auf möglicherweise strafrechtlich relevante Beiträge hingewiesen werden?

Buermeyer: Wenn ein Hinweis kommt, sollte man auch in Zweifelsfällen lieber den Inhalt erst einmal sperren. Ehrlich gesagt: Wenn ich in unserer unsicheren Rechtslage ein Forum betreiben würde, dann nur moderiert, alles andere wäre mir zu gefährlich.

Baldauf: Ich muss auf Facebook zurückkommen: Nehmen wir mal an, das Unternehmen würde jetzt vollkommen kooperativ im Sinne des deutschen Rechtssystems agieren, würde die Beiträge löschen und zur Anzeige bringen. Würde das nicht daran scheitern, dass die deutschen Strafverfolgungsbehörden damit völlig überfordert wären? Meine Erfahrung mit Strafanzeigen wegen volksverhetzenden Beiträgen ist: Es ist ein Glücksspiel, ob die Anzeige bei jemandem ankommt, der überhaupt versteht worum es geht. Ich bin schon von Polizisten aufgefordert worden, Videos auszudrucken. Was ich meine: Facebook ist das eine, aber die Probleme bei den Strafverfolgern sollten genauso intensiv diskutiert werden.

Buermeyer: Es ist tatsächlich leider auch vom Zufall abhängig, ob eine Strafanzeige Erfolg hat. Wichtig ist auf jeden Fall, den Vorwurf gut zu dokumentieren. Dazu gehören Screenshots, aber auch der Kontext. Der Verdächtige wird vielleicht behaupten, sein Account sei gehackt worden oder er habe alles ironisch gemeint. Hilfreich ist es also, den ganzen Diskussionsstrang zu sichern, aber auch das Profil des Users und möglichst andere rechtslastige Diskussionen von anderen Tagen, um solchen Ausreden zu begegnen.

Aber auch unabhängig von der Frage einer Verurteilung im Einzelfall ist jede Strafanzeige in meinen Augen wichtig, denn nach wie vor gibt es bei den Strafverfolgungsbehörden eine große Zurückhaltung, das Faschismus-Problem in Deutschland ernst zu nehmen. Wenn man sich mit Initiativen für Opfer rechter Gewalt unterhält, erfährt man das aus erster Hand.

Baldauf: Aber an wen wendet man sich am Besten? Es gibt nun mal keine Staatsanwaltschaft für "Hate Speech" im Internet. Ein zweites Problem: Was ist eigentlich ein angemessener Bearbeitungszeitraum für die Prüfung von gemeldeten Beiträgen? Ich weiß, dass Zivilgerichte da schon mal drei Wochen ansetzen.

Buermeyer: Für Strafanzeigen ist jede Polizeidienststelle und jede Staatsanwaltschaft zuständig. Ich würde mich an die Staatsanwaltschaft vor Ort wenden, die den Fall gegebenenfalls an die zuständige Stelle weiterleiten wird.

Eine Frist von drei Wochen für die Prüfung durch den Plattform-Betreiber erscheint mir auch viel zu lang. Die Inhalte erscheinen nun mal sofort und verschwinden in der Regel nach wenigen Tagen ohnehin wieder im Rauschen.

c't: Hängt die juristisch vertretbare Länge einer Löschfrist nicht auch von der Schwere des vermuteten Delikts ab? Ein konkreter Aufruf zur Gewalt wird doch sicher anders behandelt als eine vergleichsweise harmlose Beleidigung?

Buermeyer: Es gibt kein Gesetz, das derlei Fristen festlegt. Das regelt die Rechtsprechung durch Gerichte. Richter würden die Dringlichkeit einer Löschung im Einzelfall beurteilen. Aber ich würde generell berücksichtigen, dass es hier um Internet-Plattformen geht, die von Unternehmen mit einer enormen technischen Kompetenz gesteuert werden: Facebook ist in der Lage, einen Ranking-Mechanismus zu entwickeln, der mir Inhalte in meine Timeline spült, die ich sehr wahrscheinlich interessant finde. Wieso sollte der Konzern also nicht in der Lage sein, ein Up-Down-Voting einzuführen? Man könnte doch Nutzern gestatten, Beiträge als vermutet rechtswidrig zu markieren, damit sie erstmal verschwinden, bis ein Review-Team drüber gesehen und sie für "in Ordnung" befunden hat? Warum müssen denn alle Inhalte erstmal drinbleiben?

Baldauf: Das wäre doch technisch überhaupt nicht handzuhaben! Allein in Deutschland gibt es mehr als 26 Millionen Facebook-Profile, weltweit mehr als eine Milliarde. Bestimmte Dinge lassen sich mit Algorithmen machen. Was Facebook sicher nicht tun sollte: Algorithmen entscheiden zu lassen, ob in einem Text "Dangerous Speech", "Hate Speech" oder "Toxic Behaviour" enthalten ist – weil das immer sehr vom Kontext abhängig ist.

Buermeyer: Ich meine das anders: Bislang bietet Facebook seinen Mitgliedern keine Möglichkeit, Beiträge als dezidiert strafrechtlich relevant zu kennzeichnen. In einem ersten Schritt halte ich es für legitim, von Facebook zu verlangen, eine solche Möglichkeit einzurichten. Im zweiten Schritt muss man sich dann überlegen, welche Konsequenzen eine solche Markierung haben würde. Wieso sollte ein Algorithmus nicht die Anzahl und Qualität solcher Markierungen pro Facebook-User über die Zeit auswerten und auf dieser Basis Entscheidungen darüber treffen können, wie ernst eine Markierung zu nehmen ist? Und warum sollte ein solcher selbstlernender Algorithmus nicht Missbrauch eines solchen Votings erkennen und unterbinden können?

Momentan ist es völlig egal, von wie vielen Menschen ein Facebook-Beitrag als ein Verstoß gegen die Regeln oder gar das geltende Recht gemeldet wird: Das Posting bleibt online, bis irgendwann irgendein Facebook-Reviewer Zeit findet, sich das anzusehen. Das ist doch die falsche Default-Einstellung! Wir reden hier von Sorgfaltsanforderungen an den Plattform-Betreiber.

Baldauf: Ich glaube nicht, dass ein solches Voting-System klappen würde. Wir kennen sowas ja beispielsweise von der Social-News-Plattform reddit oder vom Massive-Multiplayer-Spiel "League of Legends", wo Nutzer, die "toxisch" sind, über einen Ranking-Mechanismus nach und nach von der Community entfernt werden. Facebook funktioniert so aber nicht. Wenn Sie sich ansehen, was da zum Beispiel im Bereich Maskulinismus passiert: Männer versuchen im Schwarm, gut vernetzte Feministinnen von sozialen Plattformen zu verdrängen. Da würde ein Voting-Mechanismus zum Missbrauch geradezu einladen. Ich denke, deshalb lässt Facebook die Finger von so etwas Herr Buermeyer, auch wenn es aus Ihrer juristischen Perspektive vielleicht sinnvoll wäre. Die Nutzer sind weder alle nett zueinander, noch sind sie mit Ihrer Expertise gesegnet, um die strafrechtliche Relevanz von Inhalten korrekt einordnen zu können.

Es ist bei Facebook auch unseren Beobachtungen zufolge tatsächlich egal, ob zu einem Beitrag eine oder hundert Meldungen eingegangen sind. Aber auch, wenn nur eine Person meldet, muss das mit Sorgfalt behandelt werden. Es kann genau die eine kleine richtige Stimme sein, die gegen viele Falsche spricht. Massenmeldungen helfen offenbar nicht, und das ist gut so. Denn ich wünsche mir keine Herrschaft der Lauten auf Facebook. Da sind wir wieder genau da, worüber wir uns beklagen: Es sind gar nicht so sonderlich viele "Hate Speaker" auf Facebook, aber es sind die Lautesten.

Ich denke, das Problem liegt woanders: die Mitarbeiter, die über Sperren von Beiträgen entscheiden, sind nicht fit genug – sie können den deutschen Kontext etwa bei volksverhetzenden Postings nicht adaptieren. Wenn Facebook hier besser wird, löst sich ganz viel von selbst.

c't: Daran anknüpfend: Viel diskutiert ist derzeit, dass Facebook viele eindeutig volksverhetzende Beiträge auch dann nicht löscht, wenn sie gemeldet wurden. Auf eine Strafanzeige hin laufen deshalb sogar Ermittlungen des Landeskriminalamts Hamburg gegen Facebook-Manager. Herr Buermeyer, Sie haben jüngst fast ein Jahr an der Columbia University School of Law in New York City verbracht und dort sicher mehr als nur kurze Einblicke in das US-amerikanische Verständnis von Meinungsfreiheit erlangen können. Können Sie erklären, warum sich Facebook da so schwer tut?

Buermeyer: Ganz einfach: Der Straftatbestand der Volksverhetzung, wie wir ihn definieren, ist mit den US-amerikanischen Vorstellungen von "Free Speech" völlig unvereinbar. Das US-Verfassungsrecht geht immer noch vom etwas romantischen Bild des "Townhall-Meetings" aus: Jeder darf soviel Sinn oder Unsinn sagen, wie er will, und am Ende wird sich die überzeugendste Meinung schon irgendwie ausmendeln – das freie Kräftespiel eben. Vor diesem Hintergrund wäre ein Volksverhetzungs-Vorwurf völlig illegitim. Bestimmte Äußerungen aus dem öffentlichen Diskurs zu entfernen, setzt eine Gesellschaft nach dieser Denkweise dem Risiko aus, einer „Tyrannei“, also einem Diktator, nicht mehr genug Kritik entgegensetzen zu können. Deshalb nimmt man auch die absurdeste Meinung lieber in Kauf.

c't: Wenn also auf der US-Plattform von Facebook jemand fordern würde, alle mexikanischen Migranten nach Guantanamo zu verfrachten und Waterboarding zu unterziehen, wäre das okay?

Buermeyer: Klar! Die Antwort wäre: "Das ist ja völliger Quatsch, aber natürlich muss er das sagen dürfen, es gibt ja genügend Leute, die dagegen halten werden. Gefährlicher als dieser Unsinn wäre eine Regierung, die bestimmen kann, was gesagt werden darf und was nicht."

Baldauf: Aber wie passt denn dazu, dass Facebook sehr rigide beim Entfernen von Nacktheit auf der Plattform agiert?

Buermeyer: Das hat nichts mit Meinungsfreiheit zu tun, sondern mit Sittenstrenge, insbesondere mit dem Schutz von Kindern.

Baldauf: Ich finde aber, hier zeigt sich, dass Facebook schon eine eigene Haltung hat. Der Fehler ist doch, global gültige Regeln aufzustellen. Europa tickt anders als Asien und das wiederum anders als die USA. Wenn Facebook darauf mehr Rücksicht nehmen würde, hätten wir die rechtliche Debatte vielleicht nicht in dieser Schärfe.

Buermeyer: Das sehe ich genauso. Ich denke, Facebook will die rechtliche Fragmentierung der Plattform verhindern, weil das Arbeit machen und Geld kosten würde. Aber auf lange Sicht hin wird der Konzern nicht umhinkommen, es gibt nun mal sehr unterschiedliche Rechtsordnungen. Er sollte sich zumindest den angegebenen Wohnort des Nutzers ansehen und auf dieser Basis lokale Anpassungen vornehmen. Wenn ich dann meine, ich muss mir Dinge anschauen können, die in Deutschland unzulässig sind, kann ich ja als Wohnort San Francisco einstellen.

c't: Immerhin ist Facebook ja jetzt der Freiwilligen Selbstkontrolle Multimedia als Vollmitglied beigetreten, um sich dort juristische Expertise zu den nationalen Gegebenheiten in Deutschland anzueignen.

Buermeyer: Ja, ein erster Schritt gegen das bisherige Credo "Das ist zu kompliziert, deshalb geht das nicht." Um das aber mal von Facebook zu lösen: Was ist denn mit den tausenden anderen Plattform-Betreibern? Man muss klar sagen: Die deutsche Rechtsordnung hat das Modell Plattform-Betreiber bisher nicht verarbeitet. Im Rechtsrahmen des Telemediengesetzes sind Zugangsanbieter, Hosting-Provider und Inhaltsproduzenten vorgesehen. Der Plattform-Betreiber stellt einerseits eigene Inhalte ins Netz, ist andererseits aber auch mehr als ein Hoster, weil er User-generierte Inhalte zum Teil seines eigenen Angebots macht. Weder unser Telemediengesetz noch die E-Commerce-Richtlinie der EU, auf der das deutsche Gesetz basiert, kennen diese Kategorie. Wie kann nun etwas reguliert werden, das nicht recht definiert ist? Die Rechtsprechung ist da im Fluss, und entwickelt sich, sagen wir mal, nicht immer ganz systematisch.

c't: Dem Phänomen "Hate Speech" ist also rechtlich nur begrenzt beizukommen. Was kann man als Einzelner dann tun?

Baldauf: Wenn der Hassrede auf Facebook genügend Widerstand anderer Nutzer entgegengestellt wäre ...

c't: ... dann würden sich die Hass-Redner tatsächlich zurückziehen, meinen Sie?

Baldauf: Bei Facebook nicht immer, aber oft. Wir beobachten, dass die ganz harten Rechtsextremisten auf alternative Plattformen wie Vkontakte ausweichen, weil es auf Facebook zu viel Gegenwind gibt. "Hate Speech" ist aber etwas, was nicht klar dem rechtsextremen Spektrum zuzuordnen ist. Dagegen wird noch nicht laut genug der Mund aufgemacht. Ich glaube schon, dass es einen Stimmungswechsel auch bei den Hassrednern geben kann, wenn die Gegenrede stärker würde.

c't: Ist es nicht ermüdend, gegen "Hate Speech" anzureden, wenn man oft auf Ignoranz trifft und oft nicht das Gefühl hat, einen Stimmungswechsel beim Gegenüber bewirken zu können?

Baldauf: Naja, man kann die Person ja auch einfach aus der Kontaktliste entfernen, dann ist Ruhe. Aber die Frage ist doch: Was wollen wir eigentlich auf einer Plattform wie Facebook? Klar, sich vernetzen, Infos erhalten, aber vor allem doch mitbekommen, was die Leute tun, mit denen man vielleicht sonst nicht so viel Kontakt hat. Nun kann man im Netz mit den begrenzten Kommunikationsmöglichkeiten eben die verbale Auseinandersetzung annehmen oder nicht. Ich plädiere für letzteres, obwohl es tatsächlich ermüdend sein kann.

c't: Nun gibt es ja Projekte wie das Tumblr-Blog "Perlen aus Freital", die rassistische Hasskommentare auf Facebook inklusive Screenshot und Profilnamen wie an einem öffentlichen Pranger zeigen. Auch eine legitime Maßnahme gegen "Hate Speech"?

Buermeyer: Das ist rechtlich normalerweise in Ordnung, denn es handelt sich ja um wahre Tatsachenbehauptungen. Wer meint, derlei radikale Meinungen vertreten zu müssen, muss eben auch zu den Folgen stehen, auch zu denen für das eigene Ansehen.

c't: Auf "Perlen aus Freital" wird falls möglich der Arbeitgeber des Beitragsschreibers aus öffentlichen Quellen ermittelt, in Verbindung mit der Aufforderung, diesen zu informieren. Kritiker sehen hier die Schwelle zur Denunzianten-Plattform überschritten. Hier werde Druck erzeugt, keine abweichenden Meinungen mehr öffentlich zu äußern.

Buermeyer: Wenn man Meinungen vertritt, die menschenverachtend sind, ist es doch klar, das man sich damit Druck aussetzen kann. Ich finde es okay, wenn derlei Meinungen nicht toleriert werden, und dass diejenigen, die sie äußern, zu spüren bekommen, dass die breite Mehrheit der Bevölkerung kein Verständnis hat für diesen Wahnsinn. Für die Arbeitgeber ist es doch eine relevante Information zu erfahren, dass sie Faschisten unter ihren Mitarbeitern haben. Sie wollen ja vielleicht auch für ausländische Mitbürger unter ihren Kunden attraktiv sein.

Baldauf: Ich verstehe das grundsätzliche Bedürfnis nach Konsequenzen für öffentliche Hassrede. Wenn weder der Plattformbetreiber noch eine Behörde sanktioniert, hofft man damit, dass der Arbeitgeber die Rolle des Bestrafers übernimmt. Aber ist es hilfreich, mit solchen Aktionen dafür zu sorgen, dass Leuten, die ein ideologisch geschlossenes rechtes Weltbild haben, im schlimmsten Fall die Existenzgrundlage entzogen wird? Wir sehen das sehr kritisch und halten es nicht für ein empfehlenswertes Mittel, um "Hate Speech" einzudämmen. (hob)

Kommentare

Infos zum Artikel

20Kommentare
Kommentare lesen (20 Beiträge)
  1. Avatar
  2. Avatar
  3. Avatar
Anzeige

Anzeige

Anzeige