NATO-Studie: So einfach und günstig ist Manipulation in sozialen Medien

Mitten im US-Wahlkampf gelang es der NATO-Denkfabrik Stratcom, über 330.000 gefälschte Interaktionen für 300 Euro in großen sozialen Netzwerken zu kaufen.

Lesezeit: 5 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 75 Beiträge

(Bild: Thomas Andre Fure/Shutterstock.com)

Stand:
Von
  • Stefan Krempl

Auf dem Höhepunkt der US-Präsidentschaftswahlen in diesem Jahr ließen sich die Social-Media-Konten von zwei US-Senatoren mit gefälschten Interaktionen über russische Troll-Fabriken leicht für kleines Geld manipulieren. Die in dieser Zeit angeblich hochgefahrenen Abwehrmechanismen der Plattformen zeigten kaum Wirkung. Dies geht aus einer Studie zum Kampf gegen "unauthentisches Verhalten" durch Betreiber sozialer Netzwerke hervor, die das Strategic Communication Centre of Excellence (Stratcom) der NATO am Montag veröffentlicht hat.

Der Republikaner Chuck Grassley und der Demokrat Chris Murphy hatten demnach dem Experiment zugestimmt, um zu testen, ob ihre verifizierten Social-Media-Konten mitten in dem heftigen Wahlkampf in den USA gegen Manipulationen durch ausländische Akteure und Bots geschützt sind. Stratcom zufolge ist es aber "immer noch beunruhigend billig und einfach", Wählerentscheidungen zu beeinflussen und die demokratische Debatte in sozialen Netzwerken zu verzerren.

Für die Untersuchung kauften die NATO-Forscher eine Woche vor der Wahl bei "drei hochwertigen russischen Dienstleistern für die Manipulation sozialer Medien" Aktivitäten zu 39 Beiträgen der Senatoren auf Facebook, Instagram, Twitter, YouTube und TikTok. "Für 300 Euro erhielten wir nicht-authentische Reaktionen in Form von 1150 Kommentaren, 9690 Likes, 323.202 Views und 3726 Shares" auf den fünf großen Plattformen, schreiben sie. Sie hätten diese mit 8036 Accounts in Verbindung bringen können, die für die versuchte Meinungsbeeinflussung genutzt worden seien.

Von den insgesamt 337.768 verfolgten unechten Reaktionen "waren mehr als 98 Prozent nach vier Wochen noch online und aktiv", berichten die Analysten. Selbst wenn man die frisierten Ansichten der Beiträge ausklammere, seien über 80 Prozent der 14.566 anderen gelieferten künstlichen Aktivitäten nach einem Monat noch aktiv gewesen.

Am einfachsten war es laut der Studie bei den großen US-Communities, Instagram zu manipulieren. 1803 gefälschte Kommentare und 103 gefälschte Likes seien "schnell und fast vollständig" auf die Posts einer der beiden Senatoren für insgesamt 7,30 US-Dollar ausgespielt worden. 250.000 frisierte Views seien bei der Facebook-Tochter innerhalb einer Stunde generiert worden. Solche Ansichten beeinflussten die Algorithmen der Plattformen und damit auch, was die Nutzer als erstes sehen. Dies bleibe eine große Herausforderung für alle Betreiber.

Auf Twitter wurden 75 Prozent der gefälschten Antworten innerhalb von 24 Stunden angezeigt und keine einzige davon bis zum Ende des Tests entfernt. TikTok fiel als vergleichsweise neuer Akteur komplett durch. Der chinesische Anbieter scheine den Manipulationsversuchen "nahezu wehrlos" gegenüberzustehen, heißt es in dem Bericht. Keine der unauthentischen Aktivitäten sei verhindert oder entfernt worden.

Die Studie knüpft an eine ähnliche Stratcom-Untersuchung aus dem Vorjahr an, für die mehrere EU-Kommissare ihre Kanäle auf sozialen Medien als Versuchskaninchen zur Verfügung gestellt hatten. Damals erhielten die Forscher über eine größere Anzahl an "Manipulationsdienstleistern" 54.000 "nicht authentische" Interaktionen zu 105 Beiträgen, wobei TikTok damals noch außen vor war. Auch damals waren vier Wochen nach den getätigten Deals noch 80 Prozent des bezahlten Engagements online.

Im Detail attestieren die Wissenschaftler einzelnen US-Betreibern Verbesserungen. In einigen Fällen gelang es ihnen zufolge Facebook, bis zu 90 Prozent der gefälschten Views zu entfernen, bevor die Gegenseite erneut aktiv wurde. Der Kommentarbereich sei ferner schwieriger mit Bots zu manipulieren gewesen. Die Troll-Farm habe daher echte Personen dafür bezahlen müssen, gefälschte Kommentare online zu stellen. Manipulationen dieser Art sind schwieriger zu erkennen, aber auch nicht so einfach im großen Stil zu verbreiten.

Twitter zeichne sich durch eine vergleichbar hohe Fähigkeit aus, "Fake Accounts" zu löschen: sie seien um 40 Prozent rascher verschwunden als 2019. Facebook brauche hier dreimal so lang für ein entsprechendes Ergebnis. YouTube bleibt laut der Analyse insgesamt die bei der Abwehr am wenigsten effektive der vier großen US-Plattformen. Andererseits gelinge es dem Videoportal von Google als einzigem, frisierten Ansichten in nennenswerter Weise entgegenzuwirken.

Das Experiment habe auch erneut gezeigt, dass das Melden eines Kontos wegen bestätigter Social-Media-Manipulation wenig bringe, schreiben die Verfasser. Die Betreiber würden dadurch in der Regel nicht veranlasst, einen solchen Account zu sperren. Von den 499 gebrandmarkten Konten seien 482 fünf Tage nach dem Hinweis noch aktiv gewesen (knapp 97 Prozent). In vereinzelten Rückmeldungen habe es nur geheißen, Verstöße gegen die Nutzungsbedingungen seien nicht feststellbar gewesen. Voriges Jahr lag die Quote der nicht gelöschten Accounts bei rund 95 Prozent.

"Die Beweislage ist eindeutig", folgern die Autoren: "Intriganten auf der ganzen Welt nutzen jede Gelegenheit, um Social-Media-Plattformen aus verschiedenen kommerziellen, kriminellen und politischen Gründen zu manipulieren." Dies sei vor allen in Krisenzeiten beunruhigend, "da diese Systeme ausgenutzt werden können, um Emotionen zu schüren und Schwachstellen innerhalb unserer Gesellschaften zu vertiefen", erklärte der Stratcom-Direktor Jānis Sarts.

Gegenüber der EU-Kommission hatten sich die großen US-Plattformen sowie weitere Akteure im Rahmen eines Verhaltenskodex im September 2018 freiwillig verpflichtet, enttarnte "Fake Accounts" und Social Bots rasch zu entfernen. Konten und Webseiten, die Desinformationen verbreiten, sollten die Werbeeinnahmen entzogen werden. Die Brüsseler Regierungsinstitution zeigte sich jüngst enttäuscht über das Erreichte. Sie will mit einem Aktionsplan nun zur Co-Regulierung übergehen und Desinformierer bestrafen.

(olb)