Wahrheit und Fake: Auf der Suche nach dem Lügendetektor

Digitale Techniken haben die Verbreitung von gezielten Falschmeldungen zu einem Problem gemacht. Kann Technik auch zur Lösung beitragen?

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 27 Beiträge

(Bild: PHOTOCREO Michal Bednarek / shutterstock.com)

Von

Katrin Hartwig (TU Darmstadt) machte den Auftakt, als sie bei der Konferenz Wahrheit und Fake im postfaktisch-digitalen Zeitalter in der Gedenkstätte Berlin-Hohenschönhausen zunächst Ergebnisse einer repräsentativen Umfrage zum Thema Fake News referierte. Es sei das erste Mal gewesen, dass Bürger in Deutschland dazu befragt wurden, sagte sie.

Mehr als 80 Prozent der Teilnehmer hätten Fake News demnach als gefährlich eingestuft, 24 Prozent als lästig. Mit 48 Prozent hat fast jeder zweite schon Falschmeldungen wahrgenommen, aber nur 7 Prozent haben Fake News mit anderen geteilt. 2 Prozent gaben zu, selbst welche erstellt zu haben. Diese Zahlen seien niedriger als bei entsprechenden Umfragen in den USA, sagte Hartwig auf der Fake-News-Konferenz. Das könne aber auch daran liegen, dass die Scheu, ein solches Verhalten zuzugeben, hier größer sei.

Als Hilfsmittel für den Umgang mit Nachrichten im Internet haben die Darmstädter Forscher das Plugin TrustyTweet entwickelt. Es reagiert auf bestimmte Indikatoren, die bei einem gegebenen Text den Verdacht nähren können, dass es sich um eine Falschmeldung handelt. Dazu zählen unter anderem die fortlaufende Großschreibung, übermäßige Zeichensetzung oder falsche Zeichensetzung am Satzende. In einem eigenen Fenster gibt das Plugin dann entsprechende Warnhinweise, überlässt aber dem Nutzer die Entscheidung, wie mit der Nachricht zu verfahren ist. In einer Studie mit 16 Teilnehmern bewerteten 13 das Werkzeug als hilfreich.

Allerdings seien die Studienteilnehmer an der Universität rekrutiert worden, gab Hartwig zu bedenken. Die dürften für den Umgang mit Fake News ohnehin schon sensibilisiert sein. Untersuchungen deuteten darauf hin, dass weniger als ein Prozent der Nutzer für die Verbreitung von 80 Prozent der gefälschten Nachrichten verantwortlich seien. Wie man die erreichen könne, sei eine offene Frage, so Hartwig.

Zudem dürften mit diesen Analysemethoden nur vergleichsweise stümperhaft gefertigte Fälschungen identifiziert werden. Das gilt in abgeschwächter Form auch für die Verfahren, die am Fraunhofer Institut für Kommunikation, Informationsverarbeitung und Ergonomie (FKIE) entwickelt werden. Wie Albert Pritzkau berichtete, beruhen die ebenfalls zum Teil auf der Analyse der Sprache. Ungewöhnliche Ausdrucksformen wie "die aktuelle Bundeskanzlerin" in einem als deutsches Presseerzeugnis gestalteten Text deuteten demnach auf einen ausländischen Ursprung. Hinzu komme aber die Analyse der Metadaten. Kontinuierliches Sendeverhalten unabhängig von Tageszeiten sei etwa ein Zeichen für Bots, ebenso Zusammenhänge zwischen zwei Knoten in einem Netzwerk, die immer kurz nacheinander sendeten. Auf diese Weise seien etwa die Proteste gegen das Lied "Oma ist eine Umweltsau" klar als gesteuerte Kampagnen zu erkennen gewesen.

Es ist aber zu erwarten, dass die Urheber solcher Kampagnen ebenfalls daraus lernen und ihre Methoden verfeinern werden. Technik wird das Problem der Fake News daher nicht lösen können, sondern wird zu einem Instrument im Wettrüsten der Meinungsmacher. Um in diesem Hin und Her nicht unterzugehen, braucht es letztlich Medienkompetenz und Kritikfähigkeit bei den Nutzern – zu denen die FKIE-Forschungen und Instrumente wie TrustyTweet beitragen können.

Unabhängig davon hat die Berliner Konferenz mit ihrem inspirierenden interdisziplinären Ansatz den starken Eindruck hinterlassen, dass "alternative Fakten" und "Fake News" nicht mit einem US-Präsidenten gekommen sind und wieder gehen werden, sondern im Zusammenhang mit größeren Verwerfungen zu sehen sind, in deren Folge sich Wissenschaft und Wissen allgemein werden neu legitimieren und verorten müssen. (olb)