Hetze auf Facebook

Der schwierige Umgang mit „Hate Speech“ im Web

Wissen | Recht

Die Hetze gegen Flüchtlinge stellt eine – auch juristische – Herausforderung für Facebook und jeden anderen Betreiber von Web-Angeboten dar, in denen Nutzer mitreden dürfen. Was ist im Einzelfall wichtiger: Das Grundrecht auf Meinungsfreiheit oder der Schutz von wehrlosen Minderheiten? Facebook positioniert sich nur langsam.

Kevin R. aus Zwickau sammelte mit seiner Fotomontage viele „Likes“ auf Facebook ein. Er hatte ein Foto von Adolf Hitler und einen KZ-Krematoriumsofen in den typischen Media-Markt-Flyer kopiert, garniert mit dem Text: „Der Führer empfiehlt – Die Judenheizung von Germania 399 Euro“. Das war sein Beitrag zur Verschärfung der Situation von Flüchtlingen aufgrund des nahenden Winters. Am 25. November erging ein strafrechtliches Urteil gegen Kevin R. – wegen Volksverhetzung. Der bereits vorbestrafte 20-Jährige erhielt eine neunmonatige Freiheitsstrafe ohne Bewährung.

Diese Verurteilung stellt aber eher die Ausnahme dar. Fremdenfeindliche Beiträge, Aufrufe zur Gewalt und rassistische Fotomontagen finden sich massenweise auf Facebook. Sie werden dort oft wochenlang geteilt, ohne dass das Unternehmen einschreitet. Das Problemfeld „Hate Speech“ hat die soziale Plattform in diesem Jahr überrollt. Erst allmählich positioniert sich Facebook in Deutschland eindeutig dazu und sucht Wege, der insbesondere gegen Flüchtlinge gerichteten Hasskommentare Herr zu werden.

Was die Diskussion um den richtigen Weg erschwert: In der öffentlichen Debatte spricht man meist von „Hate Speech“ (im deutschen „Hassrede“ genannt), ohne dass geklärt wird, was genau dieser Begriff eigentlich umfasst. Er lässt sich juristisch nicht einordnen. Anatol Stefanowitsch, Professor für Sprachwissenschaft an der Freien Universität Berlin, hat den Begriff für die lesenswerte Broschüre „Geh sterben!“ der Amadeu-Antonio-Stiftung [1] zu greifen versucht:

„Hassrede (Hate Speech) ist kein sprachwissenschaftlicher, sondern ein politischer Begriff mit mehr oder weniger starken Bezügen zu juristischen Tatbeständen. In Deutschland ist der juristische Bezugspunkt der Tatbestand der Volksverhetzung.“ Und weiter: „Hassrede unterscheidet sich vom alltagssprachlichen Begriff der Beleidigung dadurch, dass letztere dann gegeben ist, wenn jemand als Individuum verunglimpft oder herabgewürdigt wird, also nicht als Mitglied einer Gruppe oder über seine Zugehörigkeit zu dieser Gruppe.“

Grenzen der Meinungsfreiheit

In Deutschland gilt wie in den USA – dem Stammland von Facebook – grundsätzlich die verfassungsrechtlich geschützte Meinungsfreiheit. Allerdings sind diesem Grundrecht hierzulande engere Grenzen gesetzt als jenseits des Atlantiks. Wenn die Meinungsäußerung bestimmte Rechte anderer verletzt oder den öffentlichen Frieden stören kann, darf sie zivil- oder strafrechtlich von einem Gericht unterdrückt werden.

Bei Hassrede geht es um verbale oder grafisch dargestellte Attacken gegen genannte Personengruppen. Wann hier das Strafrecht greift, ist nicht immer leicht zu erkennen. Die wichtigsten strafrechtlich relevanten Delikte sind Beleidigung, Verleumdung, üble Nachrede, Nötigung, Bedrohung sowie die öffentliche Aufforderung zu Straftaten. Empfehlungen dazu, wie Plattform-Betreiber und Betroffene die Delikte erkennen und damit umgehen sollten, hat c’t zuletzt in Ausgabe 10/15 gegeben [2].

Unter die Hassrede fallen gängigen Definitionen zufolge aber auch volksverhetzende Äußerungen, die momentan in der Flüchtlingsdebatte besonders oft zu lesen und zu sehen sind. Gerade mit der Volksverhetzung tun sich Facebook und andere amerikanische Unternehmen in Deutschland schwer, weil die US-Rechtsordnung dieses Delikt nicht kennt (siehe Interview auf S. 138). Auch deutsche Betreiber von Meinungsplattformen – seien es nun Massenmedien, Foren-Admins oder Blogger mit freigeschalteter Kommentarfunktion – sind mit der strafrechtlichen Bewertung von Beiträgen bisweilen überfordert.

Volksverhetzung

Entgegen landläufiger Meinung gibt es den Straftatbestand der Volksverhetzung in Deutschland nicht erst seit Ende des zweiten Weltkriegs. Der dafür relevante Paragraf 130 stand bereits 1871 in der Urfassung des Strafgesetzbuchs (StGB). Seit den 60er Jahren wurden aber sowohl das Gesetz als auch die Rechtsprechung dazu immer weiter verschärft. Der Strafrahmen reicht von einer geringen Geldstrafe bis zu drei Jahren Haft.

Formal geht es in dem Paragrafen um die Wahrung des „öffentlichen Friedens“, also darum, dass alle Bürgerinnen und Bürger frei von Furcht zusammenleben können. Wer zum Hass gegen Teile der Bevölkerung aufstachelt, zur Gewalt gegen sie auffordert, diese Teile der Bevölkerung beschimpft, böswillig verächtlich macht oder verleumdet, gefährdet gemäß Paragraf 130 StGB eben diesen öffentlichen Frieden.

Was aber sind „Teile der Bevölkerung“? Es handelt sich um alle in Deutschland lebenden Personengruppen, die „äußere oder innere Merkmale“ gemeinsam haben. Dies können Volkszugehörigkeit, Hautfarbe oder Religion sein, aber auch politische Ansichten oder der Beruf. Aus Gerichtsurteilen lässt sich ableiten, was das konkret heißt. Es ging in solchen Fällen beispielsweise bereits um Punker, Behinderte, Soldaten der Bundeswehr, Schwaben, Katholiken, Gastarbeiter, dunkelhäutige Menschen und Asylbewerber.

Die Flüchtlinge in Deutschland bilden eine solche Personengruppe. Wenn also jemand „Die Flüchtlinge sind betrügerische Asylschmarotzer“ auf Facebook absondert, dürfte das volksverhetzend und damit strafrechtlich relevant sein. Der bloße Spruch „Ausländer raus!“ dagegen ist von der Meinungsfreiheit gedeckt und nicht volksverhetzend, entschied das Bundesverfassungsgericht 2010 [3].

Selten ergingen so viele erstinstanzliche Urteile wegen volksverhetzenden Beiträgen im Web wie im laufenden Jahr 2015. Zuletzt sprach das Amtsgericht Kitzingen eine mehr als zweijährige Haftstrafe gegen einen 31-jährigen notorischen Hetzer aus. Von April bis November 2014 habe er auf Facebook Hass-Parolen veröffentlicht und zu Gewalt und Mord aufgerufen, erklärte ein Sprecher der Staatsanwaltschaft Würzburg. Unter anderem habe er geschrieben, man solle Bundeskanzlerin Angela Merkel (CDU) und ihre Helfer „an die Wand stellen und standrechtlich erschießen wegen Verrat am deutschen Volk“.

Wer haftet

Strafbar kann sich jeder machen, der als Täter oder Teilnehmer handelt. Für Facebook als Plattformbetreiber kommt etwa bei volksverhetzenden Beiträgen von Nutzern eine Beihilfe in Frage. Dies gilt aber erst dann, wenn Facebook konkrete Kenntnis von dem strafrechtlich relevanten Inhalt hat. Ist das der Fall, muss der Beitrag unverzüglich von der Plattform verschwinden.

Und genau dieses Problem haben alle Betreiber von Plattformen für Nutzer-generierte Inhalte. Ein Beispiel: In einem unmoderierten Forum zu einer eigentlich ganz anderen Thematik gerät die Diskussion außer Kontrolle. Einige Nutzer schaukeln sich zu rassistischen und volksverhetzenden Kommentaren über den Flüchtlingszustrom hoch. Sobald der Administrator das mitbekommt, sollte er kurzfristig einschreiten und die strafrechtlich relevanten Beiträge – auch die Grenzfälle – entfernen.

Sonst könnte ihm Ärger mit Polizei und Staatsanwaltschaft ins Haus stehen. Wenn er sich nicht kooperativ zeigt und beispielsweise die Herausgabe von Daten zu den verdächtigten Nutzern verweigert, könnte ihm eine Hausdurchsuchung drohen, wobei der BGH hier hohe Hürden gesetzt hat. Falls er sich weigert, die betreffenden Postings zu sperren, kann er sich sogar selbst strafbar machen.

Hassrede-Transporteur Facebook

Im Großen steht derzeit auch Facebook als maßgeblicher Transporteur von Hassrede in Deutschland vor dieser Situation. Auf der Plattform kann man Beiträge melden, die man als „Hassrede“ erkennt. Ein hunderte Mitarbeiter großes Team sichtet diese Meldungen dann angeblich und sperrt sie gegebenenfalls. Doch richtet es sich dabei nicht nach deutschen Gesetzen, sondern den eigenen „Gemeinschaftsstandards“.

Zum Thema Hassrede heißt es da: „Facebook entfernt sämtliche Hassbotschaften, das heißt Inhalte, die Personen aufgrund der folgenden Eigenschaften direkt angreifen: Rasse, Ethnizität, nationale Herkunft, religiöse Zugehörigkeit, sexuelle Orientierung, Geschlecht bzw. geschlechtliche Identität oder schwere Behinderungen oder Krankheiten.“ An den Passus „direkt angreifen“ hat man bisher gemäß des US-amerikanischen Free-Speech-Dogma sehr hohe Anforderungen gestellt.

Sowohl Bundesjustizminister Heiko Maas als auch später Bundeskanzlerin Angela Merkel drängten Facebook kürzlich dazu, volksverhetzende Beiträge rigider zu sperren. Der Würzburger Rechtsanwalt Chan-jo Jun stellte im September öffentlichkeitswirksam Strafanzeige gegen Manager von Facebook wegen Beihilfe zur Volksverhetzung. Dem Konzern erklärte er die Gründe trocken in juristischem Deutsch.

Die Strafbarkeit entstehe, weil „Sie durch den satzungsgemäßen Zweck Ihrer Gesellschaft den Betrieb des sozialen Netzwerkes Facebook finanziell fördern, obwohl Ihnen bekannt wird, dass über Facebook strafbare Inhalte transportiert werden, die trotz Beschwerden und inhaltlicher Prüfung mit Wissen des Konzerns fortgesetzt verbreitet werden. Dieses Wissen wird sich mit diesem Schreiben für die genannten Einzelfälle auf Ihr Unternehmen erstrecken und damit vom Gehilfenvorsatz gem. Paragraf 27 StGB Ihrer Mitarbeiter und Organe für die Zukunft umfasst sein.“

Jun hatte Facebook zuvor 31 seiner Einschätzung nach volksverhetzende Beiträge gemeldet – die Liste liegt c’t vor. Einige davon sind bis heute online. Die Staatsanwaltschaft Hamburg hat daraufhin im Oktober tatsächlich Ermittlungen wegen Behilfe zur Volksverhetzung gegen Martin Ott, den deutschen Nordeuropa-Chef des Konzerns, eingeleitet. Man habe eine Prüfung des Landeskriminalamts Hamburg veranlasst. „Es wird ermittelt, welche Inhalte wie lange online gestanden haben“, teilte eine Sprecherin der Staatsanwaltschaft mit.

Facebook hat unterdessen auf die Entwicklungen reagiert. Ende November kündigte das Unternehmen einen härteren Kurs gegen „Hate Speech“ in Deutschland an. In Zukunft würden bereits „Androhungen von physischer Gewalt als glaubhafte Drohungen eingeschätzt und entfernt“. Bisher seien bei der Abwägung, ob ein Eintrag entfernt wird, mehrere Faktoren berücksichtigt worden, zum Beispiel, wie realistisch es erscheine, dass eine Drohung umgesetzt werde.

Seit Ende September 2015 ist Facebook Deutschland außerdem volles Mitglied der Freiwilligen Selbstkontrolle Multimedia (FSM). Nach Angaben der FSM teilen seit Dezember 2015 Juristen der FSM-Beschwerdestelle ihre Erfahrungen bei der Inhaltebewertung mit Mitarbeitern des Facebook Community Operations Team und schulen das Team im Umgang mit kontroversen Inhalten. Doch anders als die meisten FSM-Mitglieder will sich Facebook nicht dem FSM-Regime unterwerfen: Das Beschwerde-Management selbst bleibt beim Unternehmen, der FSM kommt lediglich eine Beraterfunktion zu. Die eigenen Standards rangieren eben höher als deutsche Befindlichkeiten. (hob@ct.de)

Literatur
  1. [1] Broschüre „Geh sterben! – Umgang mit Hate Speech und Kommentaren im Internet“ www.amadeu-antonio-stiftung.de/w/files/pdfs/hatespeech.pdf
  2. [2] Philipp Karius, Joerg Heidrich, Kritisiert, Grenzen der Meinungsäußerung, c’t 10/15, S. 148
  3. [3] Beschluss des BvG vom 04. Februar 2010, 1 BvR 369/04, 1 BvR 370/04, 1 BvR 371/04

Artikel kostenlos herunterladen

Kommentare

Kommentare lesen (36 Beiträge)

Anzeige