Wenn Maschinen Meinung machen

Bild: Papachan/CC BY-SA-4.0

Social Bots manipulieren unsere Meinungsbildung, Algorithmen definieren, welche Informationen das Netz für uns bereithält - wie weit reicht dieser Einfluss auf unsere Gesellschaft schon?

Das Prinzip eines Bots ist ziemlich einfach: Bots analysieren Texte im Netz, suchen nach bestimmten Schlüsselbegriffen und generieren Antworten. Natürlich kann man dabei nicht von Hochdeutsch sprechen - Fehler in Grammatik und Rechtschreibung gehören dazu -, aber in sozialen Netzwerken unterhalten sich auch richtige Menschen nicht sonderlich anders. Und was den überschaubaren Wortschatz angeht, sind Bots sehr lernfähig.

Ein gutes Beispiel dafür ist Tay - ein sozialer Roboter mit dem Profilbild einer Teenagerin. Eigentlich sollte sie bei Twitter junge Menschen ansprechen und von ihnen die jugendliche Sprache lernen. Softwarehersteller Microsoft spielte sofort mit offenen Karten und machte deutlich, wer hinter dem Profil steckt: "Je mehr du mit ihr sprichst, desto schlauer wird Tay." Mit "hellooooooo world" begrüßte sie die Netzwerk-Community und die Community schrieb zurück. Wie ein Schwamm nahm Tay alles auf. Und bereits nach wenigen Stunden war sie eine Rassistin: "Hitler was right I hate jews." Und Schwarze. Und Mexikaner. Und sogar Feministinnen. "Bush did 9/11", der Holocaust sei ausgedacht. Schon am selben Tag schaltete Microsoft ihren Bot ab.

Bots, die richtige Dialoge führen können, sind heutzutage noch etwas Besonderes. Die meisten sind recht primitiv. Sie sammeln Daten, posten Links, versenden bestimmte Nach-richten oder sind einfach da - zum Beispiel als Follower. Solch ein Bot lässt sich in wenigen Stunden programmieren und es reicht ein einziger Programmierer, der gleichzeitig hunderttausend Bots über eine Software startet. Auch im Unterhalt sind sie sehr pflegeleicht. Einmal mit einem bestimmten Ziel ins Netz losgeschickt, agieren sie autonom und brauchen keine Kontrolle von Außen.

Egal ob einfach oder fortgeschritten, eins ist immer wichtig: Social Bots wollen in der Regel nicht als solche ertappt werden. Dafür schrauben Programmierer ständig an ihnen und präsentieren ihre Erfolge sogar auf speziellen Wettkämpfen für Social Bots. Dort gewinnt derjenige, der die meisten menschlichen Reaktionen bekommt und die meisten Follower sammelt. Und das zahlt sich aus. Bei verschiedenen Versuchen konnte über die Hälfte der Testpersonen einen modernen Bot nicht von einem echten User unterscheiden. Forscher der University of British Columbia in Vancouver generierten für ein Experiment 102 Bot-Profile bei Facebook. Innerhalb von acht Wochen hatten die Social Bots mehr als 3.000 Freunde gewonnen und somit Zugang zu mehr als 250 GB persönlicher Daten bekommen.

Dass das Internet eine Plattform für anonyme Kommunikation darstellt, ist längst bekannt. Früher lernte man im Netz eine junge attraktive Frau kennen, die in der Realität weniger jung und attraktiv und im Zweifel nicht mal eine Frau war, aber man konnte sich sicher sein, dass das Gegenüber ein Mensch ist. Heute hat man diese Sicherheit nicht mehr. Und dort, wo es nicht mal Klarheit über die Identität gibt, ist die Gefahr groß, betrogen zu werden - also ein perfekter Ort für Manipulation.

Dieser Test ist ein Auszug aus dem Buch "Wenn Maschinen Meinung machen", herausgegeben von Michael Steinbrecher und Günther Rager. Sie gehen darin den Fragen nach: Wie weit haben Social Bots, Fake News, Algorithmen schon unsere Gesellschaft verändert? Ist das ein Angriff auf die Demokratie? Was will das Silicon Valley, von dem so viele Veränderungen ausgehen, wirklich? Erfährt der Journalismus eine Renaissance oder macht der Letzte das Licht aus?

"Angst vor den Meinungsmaschinen", "Programmierte Stimmungsmacher" - Schlagzeilen, die fast täglich neu erscheinen, machen die Kernidee hinter den Social Bots deutlich. Wenn sie früher nur für Spam bekannt waren, wird ihnen heute eine bedeutendere Funktion zugesprochen: Meinungsbildung und versteckte Propaganda.

Dass Roboter, die die Menschheit manipulieren, kein Filmszenario mehr sind, weiß man spätestens seit den US-Präsidentschaftswahlen 2016. Denn inzwischen steht fest: Die Stimmung im Wahlkampf in den USA war zum großen Teil von Meinungsrobotern gemacht. Forscher der Oxford University haben herausgefunden, dass jeder dritte Follower sowohl bei Hillary Clinton als auch bei Donald Trump ein Bot war. Allein nach der ersten TV-Debatte zwischen beiden Politikern wurde jeder dritte Tweet für Trump von einem Roboter abgesetzt, bei Clinton lag der Bot-Anteil bei 22 Prozent.

Auch bei der Brexit-Debatte stammten sehr viele Tweets mit dem Hashtag "#Brexit" nicht von Menschen. Ambitionierter und vor allem publikumsorientierter läuft der Einsatz von Social Bots beim Konflikt in der Ukraine. Die verbreiteten Inhalte sollen junge Männer interessieren, also reden Bots über Fußball, erzählen sexistische Witze und verbreiten Links zum illegalen Download aktueller amerikanischer Filme. Zwischendurch senden Bots Propagandanachrichten des "Rechten Sektors" - einer ultranationalistischen ukrainischen Vereinigung. Bestimmte Hashtags werden dabei besonders populär gemacht oder mit anderen Schlagwörtern verknüpft. Verbindet man beispielweise "Maidan" mit "Rechter Sektor", werden den Twitternutzern, die nach Maidan suchen, Inhalte mit beiden Hashtags angezeigt. So erreichen die rechtsextremen Meinungen auch Menschen, die keine Anhänger der Vereinigung sind - zumindest bisher.

Typisch ist auch die Verbreitung von Falschnachrichten. Damit Bots weder von Usern noch von Erkennungsalgorithmen identifiziert werden, simulieren sie ein menschliches Verhalten. Sie folgen sich gegenseitig, haben Freunde und Follower, beachten Pausen und Schlafzeiten.1

Auch wenn Social Bots diejenigen sind, die auf der Bühne stehen, führen sie nur das aus, was ihnen befohlen wird - und zwar von echten Menschen. Wie unsichtbare Marionettenspieler haben sie alle Fäden in der Hand und keiner weiß, wann, wo und mit welchem Ziel daran gezogen wird. Herauszufinden, wer hinter Bots steht, ist heutzutage nahezu unmöglich. Waren das die beiden US-Politiker selbst, die ihr Image im Netz stärken wollten? Oder einfach engagierte Sympathisanten? Oder sogar Akteure aus anderen Ländern, die an einem bestimmten Wahlausgang interessiert waren? Auch wenn der Bot-Einsatz früher oder später vermutlich aufgedeckt wird, bleiben die tatsächlichen Manipulatoren im Dunkeln. Und genau das macht die Abwehr so schwer.

Auch wenn das Phänomen Social Bots erst im letzten Jahr in den Fokus der öffentlichen Debatte rückte, ist die Idee, Meinungen mit Hilfe von neuen Technologien wirkungsvoll dem Volk vorzugeben, schon älter. Bereits 2008 empfahl Cass Sunstein, Obama-Berater und Jura-Professor an der Harvard University, in sozialen Netzwerken Verschwörungstheorien zu verbreiten, um ausländische Regierungen zu schwächen. "Indem man eine alternative Sicht auf die Dinge einführt, kann man die Meinung einer großen Zahl Menschen verändern."

Anscheinend hat diese Idee nicht nur in den USA großen Zuspruch bekommen, vor allem in Russland und China wird bekanntlich nach diesem Prinzip gearbeitet. Digital Diplomacy heißt es offiziell, übersetzt in die Alltagssprache: Trolle. Gegen Bezahlung verbreiten Internetnutzer bestimmte Themen und Stimmungen auf den Seiten westlicher Medien. In solche Propagandakampagnen werden so viele Menschen involviert, dass man sogar von Trollfarmen oder ganzen Trollarmeen spricht.2 Ob diese Menschen bei dem Zustrom von Social Bots ihren Job behalten werden? Beim Preis-Leistungs-Verhältnis haben Bots immerhin keine Konkurrenz: Für umgerechnet ungefähr 400 Euro bekommt man 10.000 digitale Helfer. Viel? Ja. Aber genau durch diese schiere Masse entfalten die Meinungsroboter ihr wahres Potenzial.

Stellen Sie sich vor, Sie lesen bei Facebook eine Nachricht, die auf den ersten Blick total absurd ist. Sie wird massenhaft geteilt und kommentiert, auch bei Twitter wird dazu viel gepostet. Und plötzlich scheint diese Nachricht nicht mehr so absurd zu sein. Denn wenn alle über das Gleiche sprechen, muss ja etwas Wahres dran sein. Auch Nutzer, die sich im realen Leben des digitalen Mülls bewusst sind, neigen dazu, dieses Wissen auszublenden, sobald sie in die Welt der sozialen Netzwerke eintauchen.3

Besonders problematisch ist es, wenn es sich dabei um keine große Lüge handelt und die Nachricht "lediglich" auf kleinen Akzentuierungen, Hinzufügungen, Weglassungen und Zusammenhangsfälschungen aufbaut.4 Solche Mechanismen haben schon in analoger Form in vielen Jahrzehnten und in vielen Ländern ihre Wirkung gezeigt. Doch während Propaganda im Nationalsozialismus oder in der Sowjetunion mit vielen Ressourcen verbunden war, kann die Propaganda 2.0 blitzschnell gewünschte Resultate erzielen. Heute braucht es keine Menschen, die Parolen skandieren oder Flugblätter verteilen. Programme erreichen jeden, der im Netz unterwegs ist.

Unterdrücken von Trends und Meinungen

Mit Lügen, Gerüchten und Verschwörungstheorien beladen werden Social Bots auf die Menschheit losgelassen. Zu den Massen haben sie einen personalisierten Zugang. Dank schlauer Algorithmen finden sie genau den richtigen Adressaten - denn wofür sich der Nutzer interessiert und welche Themen er verfolgt, können auch die ganz simplen Bots identifizieren. Schon lange machen Suchmaschinen und Empfehlungsplattformen Vorschläge zu Produkten und Dienstleistungen, die passgenau auf die Person zugeschnitten sind. Der neue Trend: vorgefertigte Nachrichten und Meinungen.

Auch wenn der Begriff "Fake News" heute jedem bekannt sein sollte und man in der Regel nicht sofort allem glaubt, was im Netz kursiert, kann man sich bestimmter Fakten nicht mehr sicher sein. Wie problematisch das sein kann, zeigt folgendes Szenario: "Es ist Tag der Bundestagswahl. An einem Bahnhof explodiert eine Bombe. In den sozialen Medien verbreitet sich rasend schnell die Falschmeldung, dass Angela Merkel persönlich von den Anschlagplänen gewusst habe, aber vor der Wahl keine Razzien in Flüchtlingsheimen durchführen wollte." Die Bots sorgen dafür, dass diese Nachricht die Massen erreicht. Viele Nutzer können die Wahrheit der Nachricht nicht ausschließen, werden verunsichert, fangen an zu zweifeln und vielleicht sogar eigene Einstellungen zu überdenken. Und damit ist die Mission erfüllt.

Für Social Bots ist es keine große Kunst, Bedeutung dort zu simulieren, wo es eigentlich keine gibt. Mit ihrer Masse bringen sie Hashtags in die Trending Topics und machen sie für die Mehrheit sichtbar. Sie geben vor, was aktuell und gesprächswert sein soll und zeichnen somit ein Meinungsbild, was in der Form gar nicht existiert. Die Hashtags, die es ohne Roboter nach oben geschafft haben, werden dafür mit frag-würdigen Inhalten gezielt diskreditiert. Wenn Sie zum Beispiel bei Twitter den Hashtag "#RefugeesWelcome" eingeben, lesen Sie in vielen Fällen keine gastfreundschaftlichen Tweets. Viele von ihnen bringen sogar das Gegenteil zum Ausdruck.

Das Unterdrücken von Trends und Meinungen erfolgt aber nicht nur durch Spam, sondern kann auch auf einer intelligenteren Strategie aufbauen. So kam es im Syrienkonflikt öfter dazu, dass ein User sich gegen die Regierung geäußert hat. Plötzlich gab es Tweets, die der Schönheit des Landes huldigten, und zwar so viele, dass die ursprüngliche Botschaft ganz unten im Stream verschwand. Für Regierungen, die eine Demokratie nur vorspielen, ist diese Technik genial und mithilfe von Social Bots leicht umsetzbar. Die tatsächlichen Propagandisten genießen Anonymität, offiziell herrscht Meinungsfreiheit, Zensur findet nicht statt und trotzdem werden unerwünschte Inhalte unsichtbar gemacht - und das, ohne alle Medien unter Kontrolle zu haben.

Auch gegen oppositionelle Bewegungen sind Bots ein wirksames Mittel. Vor allem Umstürze, die in sozialen Netzwerken geplant werden, sind dadurch nahezu unmöglich. Vereinbaren Demonstranten einen Treffpunkt, können Social Bots sie mit alternativen Adressen überfluten. Ein neuer Arabischer Frühling würde mit diesen digitalen Soldaten womöglich nicht aufblühen.

Soziale Kompetenz zur Täuschung

Doch es ist nicht nur die schiere Masse an Bots, die Wirkung hinterlässt. Die Mechanismen sind mittlerweile wesentlich perfider. Social Bots, die über eine besondere "soziale Kompetenz" verfügen, treten auch in direkten Kontakt mit Usern. Sie durchsuchen das soziale Netzwerk nach konkreten Inhalten und verwickeln Menschen in Dialoge. Nach kurzem Smalltalk kann es dann plötzlich sehr politisch werden, inklusive Agitationen und Enthüllungen.

Auch in den Kommentarspalten sind sie sehr präsent, allerdings mit katastrophalen Manieren. Sie skandalisieren und provozieren und nutzen damit den Facebook-Algorithmus für sich aus. Echte Nutzer fallen auf Provokation herein und fangen mit Empörung eine häufig emotionale Diskussion an. Auch wenn das Bot-Posting Sympathisanten findet, die keine Gegenstimmen liefern, geben sie dem Kommentar mit ihren Likes mehr Gewicht. So oder so bleibt der Kommentar dank zahlreicher Reaktionen ganz oben und erreicht somit ein größeres Publikum.

Doch um Menschen etwas vorzutäuschen, müssen Social Bots nicht unbedingt aktiv sein. Es reicht, wenn es sie einfach gibt - als Follower oder Gruppenmitglieder. Eine Dienstleistung, die für Politiker unschätzbar ist. Früher war jede Wahlkampagne mit hohen Ausgaben verbunden. Plakate, Käppis und Kulis mit eigenem Slogan sollten die Bürger auf die Parteien aufmerksam machen. Heute ist der Kampf um die Stimmen deutlich günstiger. Dank Bots kann man schon für ein paar Hundert Euro bei Wählern den Eindruck erwecken, dass die Partei viele Unterstützer hat und es sich lohnt, dazuzustoßen. Wenn es auch für die kostenlosen Käppis weiterhin dankbare Köpfe geben wird, findet die eigentliche Bekehrung zunehmend in sozialen Netzwerken statt.

Der größte Twitter-Account von AfD-Sympathisanten "Balleryna" hat knapp 300.000 Follower. Wie die Recherche von Tagesspiegel und netzpolitik.org zeigt, ist diese Zahl weit von der Realität entfernt. Denn Inhalte, die sich mit deutscher Politik befassen und ausschließlich in deutscher Sprache erfolgen, werden zum größten Teil von Nutzern befolgt, die damit nichts anfangen können. Lediglich 10.000 Follower haben deutschsprachige Accounts, alle anderen sprechen Englisch, Spanisch, Arabisch oder Portugiesisch. Selbst wenn man davon ausgeht, dass die AfD-Politik viele internationale Fans begeistert, spricht vieles für eine Brutstätte von Bots.

Maschinen machen Meinung. Ein Satz, der zwar einprägsam und bildhaft wirkt, allerdings nicht die Hauptproblematik widerspiegelt. Denn Maschinen können Meinungen nur verbreiten. Gemacht werden sie ausschließlich von Menschen. Von welchen? Da gibt es viele Interessenten. Ob Geheimdienste, Regierungen, Oppositionsparteien oder Kriminelle - die Bots sind technisch und moralisch in der Lage, jedem Interesse gerecht zu werden. Terrorgruppen können ihre Bekehrungskampagnen automatisieren und ausweiten, Unternehmen den Wettbewerb manipulieren und sogar versuchen, Konkurrenzprodukte vom Markt zu verdrängen. Doch besondere Beliebtheit werden Bots wohl in der Politik genießen. (Anastasia Mehrens)