zurück zum Artikel

Missing Link: Mit wenigen Klicks zur Weltherrschaft - über effiziente Algorithmen und Fake News

Welt, Globus, Fraktal, Algorithmus

(Bild: Garik Barseghyan, gemeinfrei)

Nimrod Talmon, Informatiker von der Ben Gurion University, über die Möglichkeiten der Meinungsmanipulation in sozialen Netzwerken.

Auf seiner Homepage an der israelischen Ben Gurion University in Be‘er Scheva beschreibt Nimrod Talmon sein Forschungsinteresse mit den Worten: "Ich möchte herausfinden, ob es effiziente Algorithmen gibt, die einer Gesellschaft von Menschen oder Robotern helfen können, zu guten, gemeinsamen Entscheidungen zu kommen, die allen nützen."

Der Informatiker, der am Department of Industrial Engineering & Management lehrt und forscht, stellte auf der letzten KI-Konferenz IJCAI einen Algorithmus vor [1], der die Verbreitung von Fake News in sozialen Netzwerken optimieren soll. Das hat uns neugierig gemacht und wir haben ihm einige Fragen dazu gestellt.

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

mehr anzeigen

Herr Talmon, bei der KI-Konferenz IJCAI in Stockholm haben Sie Ihren Vortrag über Möglichkeiten zur Beeinflussung von Wahlen durch Fake News mit den Worten geendet: "Bei wenigen Kandidaten ist die Weltherrschaft leicht zu erreichen." Das war sicherlich zum Teil scherzhaft gemeint, aber eben nur zum Teil. Wie besorgt müssen wir sein über Bot-Attacken auf unsere politischen Systeme?

Nimrod Talmon: In unserer Studie ging es um die Frage, wie sich der Effekt solcher Falschmeldungen maximieren lässt. Welchen Mitgliedern eines sozialen Netzwerks müssen Sie die Fake News zusenden, um den gewünschten Meinungswandel zu erreichen? Es gibt keinen effizienten Algorithmus, der dieses Problem allgemein löst. In besonderen Fällen wird es aber lösbar, zum Beispiel bei einer kleinen Anzahl von Kandidaten, wie sie bei politischen Wahlen in der Regel gegeben ist. Als Ausgangspunkt nehmen wir an, dass für die Verbreitung der Fake News ein bestimmtes Budget zur Verfügung steht. Das heißt aber auch, dass es umso mehr Möglichkeiten gibt, dieses Budget zu verwenden, je mehr Wähler es gibt. Wir behandeln daher auch Fälle, bei denen die Wähler in Gruppen eingeteilt werden, um den Rechenaufwand zu minimieren.

Nimrod Talmon von der Ben Gurion University in Be‘er Scheva: "Wir müssen den kritischen Umgang mit den Informationen, die wir [im Internet] finden, erst noch lernen."

Nimrod Talmon von der Ben Gurion University in Be‘er Scheva: "Wir müssen den kritischen Umgang mit den Informationen, die wir [im Internet] finden, erst noch lernen."

Wie identifizieren Sie die Ziele Ihrer Kampagne? Woher wissen Sie, wem Sie wann welche Falschmeldung zusenden müssen?

Talmon: Diese Frage liegt ein wenig außerhalb unserer Forschung. Für unsere Studie sind wir zunächst einmal davon ausgegangen, dass es darum geht, verschiedene Wählertypen zu identifizieren und gezielt anzusprechen. Das ist ähnlich wie bei einer Werbekampagne, die eine bestimmte Gruppe auf Facebook erreichen soll, etwa junge Männer im Alter zwischen 22 und 25 Jahren, die in einer bestimmten Region leben.

Sind die mathematischen Methoden, die Sie verwenden, demnach verwandt mit den Empfehlungssystemen, die Internetnutzern aufgrund zuvor erhobener Kommunikationsdaten personalisierte Werbung präsentieren?

Talmon: Ich denke, am Ende geht es um eine Kombination der Methoden. Empfehlungssysteme können in der Tat helfen, die aussichtsreichsten Ziele Ihrer Kampagne zu identifizieren. Aber dann stellt sich immer noch die Frage, wie Sie Ihr begrenztes Budget auf diese Ziele aufteilen müssen, um die optimale Wirkung zu erzielen. In unserer Studie gehen wir davon aus, dass Sie wissen, wie eine bestimmte Information auf einen bestimmten Wählertyp wirken wird. Aber wo platzieren Sie diese Information, damit sie sich möglichst schnell im Netzwerk verbreitet?

Geht es also darum, die einflussreichsten Personen im Netzwerk zu finden?

Talmon: Wenn Sie ein Budget der Größe eins haben, also nur eine Fake News versenden können, ist es relativ einfach. Sie bilden das Netzwerk als Graphen ab, in dem jeder Knoten eine Person darstellt und die Kanten die Verbindungen zwischen den Personen. Das Ziel Ihrer Kampagne wird dann die Person mit den meisten Verbindungen sein, die sich gewissermaßen im Zentrum des Netzwerks befindet. Aber sobald Sie das Budget auf mehrere Personen verteilen, wird das Problem sehr komplex. Bereits bei zwei Sendungen besteht die effektivste Lösung unter Umständen nicht mehr darin, die beiden Personen mit den meisten Verbindungen zu identifizieren. Zwei andere, die jeweils weniger mit anderen verbunden sind, können so im Netzwerk positioniert sein, dass über sie die Nachricht schneller verbreitet würde. Bei einem größeren Budget ist rasch der Punkt erreicht, an dem sich das Problem mit einem vertretbaren Aufwand an Rechenzeit nicht mehr lösen lässt. Diese Schwierigkeit umgehen wir, indem wir mit Wählertypen arbeiten statt mit einzelnen Wählern.

Sie haben sich in anderen Studien auch mit der Frage beschäftigt, durch welche Wahlverfahren sich der Wille der Wähler am besten repräsentieren lässt. Wie sind diese verschiedenen Forschungen miteinander verbunden? Ist das so etwas wie die helle und die dunkle Seite der Macht?

Talmon: Generell interessieren mich Entscheidungsprozesse und ihre Verbindung mit strukturellen Beziehungen, etwa in Netzwerken. Ich erforsche diese Wechselwirkung zwischen Regeln und Struktur und würde dabei nicht zwischen einer guten und bösen Seite unterscheiden.

Die Verbreitung von Nachrichten in einem Netzwerk folgt in Ihrem Modell einer sehr simplen Regel: Die einzelnen Personen passen ihre Meinung demnach der Mehrheitsmeinung in ihrer unmittelbaren Nachbarschaft an. Das erscheint mir sehr weit entfernt von der sozialen Realität.

Talmon: Dieses stark vereinfachte Modell ist der Ausgangspunkt unserer Überlegungen. Wir zeigen aber auch, wie unser Verfahren auch auf komplexere Modelle übertragen werden kann. Eine grundsätzliche Annahme besteht darin, dass die Mitglieder eines Netzwerks regelmäßig Informationen von ihren näheren und ferneren Freunden im Netzwerk erhalten, diese verarbeiten und dabei ihre eigene Haltung verändern. Was wir in dem Modell noch nicht berücksichtigen können, sind unterschiedliche Wahrscheinlichkeiten, mit denen ein solcher Meinungswechsel erfolgt. Dadurch wird der Effekt der Fake News auf das Netzwerk natürlich erheblich schwieriger zu berechnen. Gegenwärtig arbeiten wir gerade an einer Studie, die unser Modell in dieser Richtung weiter entwickeln soll. Möglicherweise können wir dann keine optimale Lösung mehr finden, sondern nur noch eine nahezu optimale. Es könnte auch darauf hinauslaufen, das Budget der jeweiligen Aufgabe anzupassen. So mag es zum Beispiel für eine Million Dollar keine Lösung geben, wohl aber für zwei Millionen. Davon abgesehen ist die Modellierung der sozialen Realität natürlich eine offene Forschungsfrage.

Fake News: "Irrsinnige Geschwindigkeit" des Online-Nachrichtengeschäfts beklagt

In gewisser Weise lassen sich soziale Medien ja selbst als Modelle der Gesellschaft begreifen.

Talmon: Gemeinsam mit Robert Bredereck von der Oxford University forsche ich in dieser Richtung. Es ist von außen aber schwierig, diese Netzwerke zu erfassen. Bei Facebook lässt sich die Struktur noch recht gut erkennen, indem man sich anschaut, wer mit wem befreundet ist. Es ist aber sehr viel schwieriger einzuschätzen, wie diese Knoten im Netzwerk sich gegenseitig beeinflussen. Solche Daten sind üblicherweise nicht frei zugänglich. Ebenso wenig wissen wir, ob jemand, der auf Facebook Donald Trump einen "Like"-Button anheftet, bei der Wahl später wirklich für ihn stimmt.

Fake News sind an sich nichts Neues. Die Möglichkeit, sie automatisiert und sehr schnell übers Internet zu verbreiten, erfordert aber auf der anderen Seite Methoden, sie möglichst ebenso schnell zu erkennen. Dieses Wettrüsten belastet die Online-Kommunikation mit großem Misstrauen. Sehen Sie einen Weg, wie wir wieder zu einer vertrauensvolleren Kommunikation, auch zwischen Menschen und Bots, kommen können?

Talmon: Das ist zum einen eine Frage der Zeit. Die Kommunikation übers Internet ist für uns als Gesellschaft noch relativ neu. Wir müssen den kritischen Umgang mit den Informationen, die wir dort finden, erst noch lernen. Das kann durchaus schnell gehen. Zum anderen könnte das Vertrauen gesteigert werden, wenn es in der digitalen Kommunikation nachprüfbare Identitäten gäbe. Ein Polizist auf der Straße muss sich ausweisen können, ebenso wie jede andere Person. Sobald wir ähnlich anerkannte Zertifikate auch im Internet haben, für Menschen ebenso wie für Bots, wird der Informationsaustausch davon profitieren. (jk [3])


URL dieses Artikels:
http://www.heise.de/-4250939

Links in diesem Artikel:
[1] https://www.heise.de/meldung/Kuenstliche-Intelligenz-Digitale-Dichtung-und-Meinungsmanipulation-4111415.html
[2] https://www.heise.de/thema/Missing-Link
[3] mailto:jk@ct.de