Menü

Datenforscher: Wir kriegen eine Politik, die zum Algorithmus von Facebook passt

Ein Facebook-Vertreter rief nach staatlichen Regeln dafür, was als politische Werbung gefasst und in welchem Umfang Microtargeting erlaubt werden soll.

vorlesen Drucken Kommentare lesen 44 Beiträge

(Bild: dpa, Dominic Lipinski/PA Wire)

Simon Hegelich, Professor für politische Datenwissenschaft an der Hochschule für Politik München, hat die bisherigen Schritte Facebooks im Kampf gegen Desinformation in Wahlkämpfen als gut, aber unzureichend bezeichnet. Dass der Betreiber des sozialen Netzwerk nun etwa eine Anzeigenbibliothek mit Informationen über Auftraggeber veröffentliche, sei eine "Rettungsaktion" nach der Cambridge-Analytica-Affäre gewesen, "um aus der Schusslinie zu kommen", erklärte er am Montag auf der re:publica in Berlin.

Möglich ist es laut Hegelich damit immerhin, sich über die zugehörige Schnittstelle anzeigen zu lassen, welche Parteien aktuell Wahlwerbung in Deutschland zeigten. Während seines Vortrags waren dies 7311 Banner, von denen die meisten die CDU schaltete. Auch relevante Hashtags und Webadressen könnten ausgelesen werden. Im Vergleich zu den USA laufe diese Form von Wahlkampf im Netz derzeit auf "sehr, sehr, sehr, sehr niedrigem Niveau" ab.

Facebooks Maßnahmen seien gut aber unzureichend, sagte Simon Hegelich, Professor für Politische Datenwissenschaft an der Hochschule für Politik München.

(Bild: Stefan Krempl)

Für gezieltes Microtargeting, das auf besondere Vorlieben der Nutzer anspringt, gebe es hierzulande zudem "relativ wenig Hinweise", führte der Datenforscher aus. Anzeigen würden zwar auf große demografische Kategorien zugeschnitten, also etwa auf Männer oder Frauen und eventuell noch das Bildungsniveau. Es würden aber nicht gezielt Leute angesprochen, die Coca-Cola und nicht Pepsi kauften. Insgesamt hebe das öffentliche Bannerarchiv die Hemmschwelle, "wenn ich manipulieren möchte".

Facebook machte aber keine Angaben, als was sie politische Werbung überhaupt einschätzten, beklagte Hegelich. Zu erkennen sei auch allenfalls per Reverse Engineering, "welches Targeting genau ausgewählt wird". Dazu kämen grobe Fehler in dem Archiv: dort werde etwa eine unpolitische Anzeige für ein Batman-T-Shirt als eine einschlägige Werbekampagne mit größter Reichweite und hohen Ausgaben" dargestellt. Informationen über die Häufigkeit solcher Falschbeurteilungen gebe es nicht.

Interessanter ist für den Wissenschaftler noch, "was die Parteien mit normalen Posts machen". Die AfD komme hier mit 53 Prozent auf die meisten Aktivitäten aller hiesigen Parteien. Dies liege an sehr vielen pauschalen Likes für alle eigenen geteilten Meldungen, sodass diese wie "toller Inhalt" wirkten. Dazu komme ein Kausaleffekt, dass die Rechtsaußenpartei stärker gewählt werde, wenn die traditionellen Medien mehr über sie und ihr Online-Treiben berichteten. Es wäre daher besser, wenn diese nicht auf jede Aufmerksamkeitswelle aufsprängen.

Angesichts der zusätzlichen Wechselwirkung, wonach Politiker generell verstärkt auf "Likes und Klicks abfahren", warnte Hegelich, dass diese danach auch ihre Linien ausrichteten: "Wir kriegen eine Politik, die zum Algorithmus von Facebook passt." Wünschenswert wäre daher auch auf dieser Ebene des maschinellen Lernens mehr Transparenz. Die Plattform sollte so etwa ihren Datensatz veröffentlichen, aus dem das System "Wahlwerbung" auszumachen lerne.

Untersuchungen, ob Desinformationskampagnen einen Effekt haben, gibt es dem Forscher zufolge bislang nicht. Wer dies etwa im Fall des Brexit-Votums behaupte, mache derlei Initiativen erfolgreicher, als sie womöglich seien. Ziel sei es dabei meist nicht, einen bestimmten Kandidaten nach vorn zu bringen, sondern "das Vertrauen in demokratische Institutionen zu beschädigen".

Semjon Rems (li.) von Facebook wünscht sich Unterstützung bei der Einstufung von Wahlwerbung. Anja Zimmer (re.), Direktorin des mabb, fordert mehr Regulierung.

(Bild: Stefan Krempl)

"Wir wollen nicht, dass man sich Meinungen erkaufen kann", plädierte Direktorin der Medienanstalt Berlin-Brandenburg (mabb) für eine schärfere gesetzliche Regulierung sozialer Medien. Sie zeigte sich skeptisch, ob da "ein bisschen Transparenz" ausreiche. Es müsse "direkt bei einer Anzeige in Echtzeit live" zu sehen sein, "wer was wo". Für die Algorithmen könne sie sich eine Vorgabe vorstellen, dass diese hochwertige journalistische Beiträge stärker nach vorne bringen. Zudem sollte die Politik auch an den ganzen von Facebook erhobenen "persönlichen Datenpunkten" ansetzen. In Richtung der Kalifornier fragte die Behördenchefin: "Warum sammeln Sie den ganzen Kram überhaupt?"

Ganz im Sinne des Gründers Mark Zuckerbergs betonte Semjon Rens, der bei Facebook Deutschland für die Regierungsbeziehungen zuständig ist, dass sich das Unternehmen Unterstützung von der Politik wünsche, welche Themen es als politische Werbung oder Kommunikation einstufen solle: "Wir sind da in Vorleistung gegangen ohne regulatorischen Rahmen." Auch fürs Microtargeting wären Regeln nicht nur aus Datenschutzgründen, sondern auch aus politischer und ethischer Perspektive hilfreich. Nötig sei zudem ein "Gentlemen's Agreement der Parteien, keine 'False Flag'-Missionen durchzuführen".

Geleitet wird Facebook laut Rens von dem Ziel, Netzwerke zu identifizieren und herunterzunehmen, die oft keine illegalen, sondern polarisierende Inhalte verbreiteten. Dafür habe die Firma neben den üblichen Sicherheitsteams für die Europawahl ein "Election Operation Center" in Dublin eingerichtet, um die nationalen Ressourcen für die 28 Mitgliedsstaaten dort zu bündeln. Die Macher dieser "toxischen" Zusammenschlüsse "kennen genau die Themen, die weh tun", ergänzte Tabea Wilke von Botswatch Technologies, die "irreguläres Verhalten" vor allem auf Twitter aufzuspüren versucht: "Wir müssen aber auch aufpassen, dass wir das Internet nicht kaputt regulieren." (olb)