Rassisten in der Filterblase

„Hate Speech“ auf sozialen Plattformen und was dagegen hilft

Trends & News | Interview

c’t sprach mit Johannes Baldauf, Leiter des Projekts no-nazi.net, sowie dem Strafrichter und Netzexperten Ulf Buermeyer über die Ursachen der fremdenfeindlichen Hetze auf Facebook und potenzielle Lösungsansätze.

Ulf Buermeyer: Das weiß ich nicht. Fest steht: Facebook hat eine fatale Wirkung. Die Plattform erweckt den Eindruck, es gäbe in Deutschland ganz viele ausländerfeindliche Menschen, obwohl das ja bei Weitem nicht der Fall ist. Denen, die sich in ihrer vom Facebook-Algorithmus erzeugten Filterblase bewegen, kommt es so vor, als sei es in Ordnung, Faschist zu sein oder rassistisch zu denken. Facebook erzeugt bei ihnen die Illusion, einer schweigenden Mehrheit anzugehören. Das halte ich für ganz gefährlich.

Johannes Baldauf: Wir haben uns mal angeschaut, zu welchen Regionen es auf Facebook „Nein-zum-Heim“-Seiten gibt (insgesamt mindestens 65, Anm. d. Red). Darüber haben wir eine Karte gelegt, auf der verzeichnet ist, wo in diesem Jahr Anschläge auf Flüchtlingswohnheime stattgefunden haben. Es war auffällig, dass die Facebook-Aktivität nicht zwingend korreliert mit Gewalt auf der Straße. Es gab viele Anschläge an Orten, bei denen sich auf Facebook bezüglich „Hate Speech“ nicht viel tut. Ich stimme Ihnen zu: Es gibt den Filterblaseneffekt. Aber hier die Linie zu realen Gewalttaten zu ziehen halte ich für gewagt. Da überschätzt man den Einfluss sozialer Medien ein wenig.

Buermeyer: Es mag ja sein, dass Sie die von Ihnen angesprochene Korrelation nicht herstellen konnten. Aber es geht meiner Ansicht nach gar nicht um diesen ganz unmittelbaren Zusammenhang, sondern darum, dass das Gefühl vermittelt wird, ganz viele zu sein. Der „Lügenpresse“-Vorwurf etwa stützt sich doch genau darauf: Was die Presse berichtet, soll angeblich nicht die Mehrheitsmeinung der Bevölkerung widerspiegeln. Und hier liegt die Verantwortung von Facebook. Legen Sie sich doch mal ein Fake-Profil an und liken sie die Beiträge von „besorgten Bürgern“ – irgendwann werden Ihnen nur noch rechtslastige Postings angezeigt. Und genau das sorgt doch dafür, dass sich Ausländerfeinde irgendwann regelrecht als Freiheitskämpfer fühlen, wenn sie ein Flüchtlingswohnheim anzünden.

Baldauf: Ich würde sagen, ja. Inwieweit das juristisch relevant ist, vermag ich nicht zu sagen.

„Ausländerfeinde fühlen sich auf Facebook wie Freiheitskämpfer.“

Ulf Buermeyer

Buermeyer: „Hate Speech“ ist ohnehin ein völlig unjuristischer Begriff, der einen diffusen Symptomkomplex beschreibt. Wenn so ein Gerücht sehr zugespitzt und noch dazu rassistisch aufgeladen ist, kann es schon volksverhetzend und damit strafrechtlich relevant sein.

Buermeyer: Das falsche Faktum zu verbreiten wäre als solches wohl noch nicht strafbar, ist aber auf jeden Fall hart an der Grenze, denn auch verleumderische Äußerungen können den Tatbestand der Volksverhetzung erfüllen. Ändern würde sich das eventuell, wenn einzelne Personen benannt werden würden. Aber auch dann käme es noch auf den Kontext an. Bei einem Nachsatz wie „Die sollten wir mal aufmischen“ wäre der Fall aber wohl ziemlich klar.

Buermeyer: Wenn ein Hinweis kommt, sollte man auch in Zweifelsfällen lieber den Inhalt erst mal sperren. Ehrlich gesagt: Wenn ich in unserer unsicheren Rechtslage ein Forum betreiben würde, dann nur moderiert, alles andere wäre mir zu gefährlich.

Noch mal zurück zu Facebook: Ich würde generell berücksichtigen, dass es hier um Internet-Plattformen geht, die von Unternehmen mit einer enormen technischen Kompetenz gesteuert werden: Facebook ist in der Lage, einen Ranking-Mechanismus zu entwickeln, der mir Inhalte in meine Timeline spült, die ich sehr wahrscheinlich interessant finde. Wieso sollte der Konzern also nicht in der Lage sein, ein Up-Down-Voting einzuführen? Man könnte doch Nutzern gestatten, Beiträge als vermutet rechtswidrig zu markieren, damit sie erst mal verschwinden, bis ein Review-Team drüber gesehen und sie für „in Ordnung“ befunden hat? Warum müssen denn alle Inhalte erst mal drinbleiben?

Baldauf: Das wäre doch technisch überhaupt nicht handzuhaben! Allein in Deutschland gibt es mehr als 26 Millionen Facebook-Profile, weltweit mehr als eine Milliarde. Bestimmte Dinge lassen sich mit Algorithmen machen. Was Facebook sicher nicht tun sollte: Algorithmen entscheiden zu lassen, ob in einem Text „Dangerous Speech“, „Hate Speech“ oder „Toxic Behaviour“ enthalten ist – weil das immer sehr vom Kontext abhängig ist.

Buermeyer: Ich meine das anders: Bislang bietet Facebook seinen Mitgliedern keine Möglichkeit, Beiträge als dezidiert strafrechtlich relevant zu kennzeichnen. In einem ersten Schritt halte ich es für legitim, von Facebook zu verlangen, eine solche Möglichkeit einzurichten. Im zweiten Schritt muss man sich dann überlegen, welche Konsequenzen eine solche Markierung haben würde. Wieso sollte ein Algorithmus nicht die Anzahl und Qualität solcher Markierungen pro Facebook-Nutzer über die Zeit auswerten und auf dieser Basis Entscheidungen darüber treffen können, wie ernst seine Markierung zu nehmen ist? Und warum sollte ein solcher selbstlernender Algorithmus nicht Missbrauch eines solchen Votings erkennen und unterbinden können?

Baldauf: Ich glaube nicht, dass ein solches Voting-System klappen würde. Wir kennen so was ja beispielsweise von der Social-News-Plattform reddit oder vom Massive-Multiplayer-Spiel „League of Legends“, wo Nutzer, die „toxisch“ sind, über einen Ranking-Mechanismus nach und nach von der Community entfernt werden. Facebook funktioniert so aber nicht. Wenn Sie sich ansehen, was da zum Beispiel im Bereich Maskulinismus passiert: Männer versuchen im Schwarm, gut vernetzte Feministinnen von sozialen Plattformen zu verdrängen. Da würde ein Voting-Mechanismus zum Missbrauch geradezu einladen. Ich denke, deshalb lässt Facebook die Finger von so etwas, Herr Buermeyer, auch wenn es aus Ihrer juristischen Perspektive vielleicht sinnvoll wäre. Die Nutzer sind weder alle nett zueinander noch sind sie mit Ihrer Expertise gesegnet, um die strafrechtliche Relevanz von Inhalten korrekt einordnen zu können.

Buermeyer: Ganz einfach: Der Straftatbestand der Volksverhetzung, wie wir ihn definieren, ist mit den US-amerikanischen Vorstellungen von „Free Speech“ völlig unvereinbar. Das US-Verfassungsrecht geht immer noch vom etwas romantischen Bild des „Townhall-Meetings“ aus: Jeder darf so viel Sinn oder Unsinn sagen, wie er will, und am Ende wird sich die überzeugendste Meinung schon irgendwie ausmendeln – das freie Kräftespiel eben. Vor diesem Hintergrund wäre ein Volksverhetzungs-Vorwurf völlig illegitim. Bestimmte Äußerungen aus dem öffentlichen Diskurs zu entfernen setzt eine Gesellschaft nach dieser Denkweise dem Risiko einer „Tyrannei“ aus, also einem Diktator nicht mehr genug Kritik entgegensetzen zu können. Deshalb nimmt man auch die absurdeste Meinung lieber in Kauf.

Buermeyer: Klar! Die Antwort wäre: „Das ist ja völliger Quatsch, aber natürlich muss er das sagen dürfen, es gibt ja genügend Leute, die dagegenhalten werden. Gefährlicher als dieser Unsinn wäre eine Regierung, die bestimmen kann, was gesagt werden darf und was nicht.“

Baldauf: Aber wie passt denn dazu, dass Facebook sehr rigide beim Entfernen von Nacktheit auf der Plattform agiert?

Buermeyer: Das hat nichts mit Meinungsfreiheit zu tun, sondern mit Sittenstrenge, insbesondere mit dem Schutz von Kindern.

Baldauf: Ich finde aber, hier zeigt sich, dass Facebook schon eine eigene Haltung hat. Der Fehler ist doch, global gültige Regeln aufzustellen. Europa tickt anders als Asien und das wiederum anders als die USA. Wenn Facebook darauf mehr Rücksicht nehmen würde, hätten wir die rechtliche Debatte vielleicht nicht in dieser Schärfe.

Buermeyer: Das sehe ich genauso. Ich denke, Facebook will die rechtliche Fragmentierung der Plattform verhindern, weil das Arbeit machen und Geld kosten würde. Aber auf lange Sicht hin wird der Konzern nicht umhinkommen, es gibt nun mal sehr unterschiedliche Rechtsordnungen. Er sollte sich zumindest den angegebenen Wohnort des Nutzers ansehen und auf dieser Basis lokale Anpassungen vornehmen.

Baldauf: Wenn der Hassrede auf Facebook genügend Widerstand anderer Nutzer entgegengestellt wäre …

Baldauf: Bei Facebook nicht immer, aber oft. Wir beobachten, dass die ganz harten Rechtsextremisten auf alternative Plattformen wie Vkontakte ausweichen, weil es auf Facebook zu viel Gegenwind gibt. „Hate Speech“ ist aber etwas, was nicht klar dem rechtsextremen Spektrum zuzuordnen ist. Dagegen wird noch nicht laut genug der Mund aufgemacht.

Buermeyer: Das ist rechtlich normalerweise in Ordnung, denn es handelt sich ja um wahre Tatsachenbehauptungen. Wer meint, derlei radikale Meinungen vertreten zu müssen, muss eben auch zu den Folgen stehen, auch zu denen für das eigene Ansehen.

Buermeyer: Wenn man Meinungen vertritt, die menschenverachtend sind, ist es doch klar, das man sich damit Druck aussetzen kann. Ich finde es okay, wenn derlei Meinungen nicht toleriert werden, und dass diejenigen, die sie äußern, zu spüren bekommen, dass die breite Mehrheit der Bevölkerung kein Verständnis hat für diesen Wahnsinn. Für die Arbeitgeber ist es doch eine relevante Information zu erfahren, dass sie Faschisten unter ihren Mitarbeitern haben. Sie wollen ja vielleicht auch für ausländische Mitbürger unter ihren Kunden attraktiv sein.

Baldauf: Ich verstehe das grundsätzliche Bedürfnis nach Konsequenzen für öffentliche Hassrede. Wenn weder der Plattformbetreiber noch eine Behörde sanktioniert, hofft man damit, dass der Arbeitgeber die Rolle des Bestrafers übernimmt. Aber ist es hilfreich, mit solchen Aktionen dafür zu sorgen, dass Leuten, die ein ideologisch geschlossenes rechtes Weltbild haben, im schlimmsten Fall die Existenzgrundlage entzogen wird? Wir sehen das sehr kritisch und halten es nicht für ein empfehlenswertes Mittel, um „Hate Speech“ einzudämmen. (hob@ct.de)

Ulf Buermeyer und Johannes Baldauf

Dr. Ulf Buermeyer (links) ist Richter am Landgericht Berlin und derzeit Beisitzer einer Schwurgerichtskammer. 2013/2014 absolvierte er im Rahmen eines Sabbaticals das LL.M-Programm der Columbia Law School in New York City. Daneben ist er Redakteur der Zeitschrift für höchstrichterliche Rechtsprechung im Strafrecht (HRRS) und Fellow des Centre for Internet and Human Rights (CIHR) an der Europa-Universität Viadrina (Frankfurt/Oder).

Johannes Baldauf beschäftigt sich seit 2008 mit Rechtsextremismus, Antisemitismus und Verschwörungstheorien im Internet. Für die Amadeu-Antonio-Stiftung referiert er über Erscheinungsformen von Neonazis und wirkungsvolle Gegenstrategien in sozialen Netzwerken und leitet seit 2014 das Projekt no-nazi.net.

Artikel kostenlos herunterladen

Infos zum Artikel

0Kommentare
Kommentieren
Kommentar verfassen
Anzeige
Anzeige