Menü

Googles Problem mit Fake-Facts in Direktantworten

Harry S. Truman war im Ku-Klux-Klan, Obama plant einen Umsturz – weil sich Google für seine Schnellantworten fragwürdiger Quellen bedient, liefert der Suchdienst mitunter falsche Antworten.

von
vorlesen Drucken Kommentare lesen 24 Beiträge
Google hat ein Fake-Facts-Problem

Die zum Teil abstrusen Inhalte erscheinen abgesetzt von den normalen Suchergebnissen als Direktantworten.

Nicht nur Facebook hat ein Problem mit falschen Wahrheiten, sondern auch Google. Fragt man beispielsweise die US-Version der Suchmaschine nach "presidents in the KKK", dann liefert sie eine Liste mit vier Präsidenten, die angeblich Mitglieder des Ku-Klux-Klans waren. Auf "is obama planning a coup" lieferte die Suchmaschine amerikanischen Medien zufolge noch am Wochenende eine wirre Verschwörungstheorie, nach der der ehemalige Präsident gemeinsam mit den Chinesen einen Putsch planen könnte. Mittlerweile zeigt es News zu den alternativen Fakten an.

Diese "Fakten" liefert Google nicht als normale Treffer, sondern als eigene Direktantworten. Auch der digitale Assistent in Google Home liefert solche alternativen Fakten als Antwort. Fragt man ihn, ob Republikaner Nazis sind, gibt er eine ziemlich deutliche Antwort – siehe den Tweet unten.

Bei seinen Direktantworten nennt Google die Quelle und verlinkt sie auch. Anwender hätten also die Möglichkeit, die Quellen auf ihre Glaubwürdigkeit zu prüfen. Auch Google Home sagt, woher es seine Informationen hat. Aber viele Benutzer dürften den Google-Antworten einfach glauben: Die Direktantworten sind in den meisten Fällen korrekt und verlässlich, daran dürften sich viele Nutzer gewöhnt haben.


Die falschen Informationen entstehen, weil bei Google ein Automatismus die Direktantworten bestückt. Offenbar gibt es keine menschliche Intervention, die die Quellen und die Informationen auf Glaubwürdigkeit abklopft. Das entspricht auch der Antwort, die Google dem Magazin The Outline gegeben hat, das Google zu den Fake Facts befragt hat.

Dass automatisch erzeugte Antworten zu Fehlern führen, ist nichts grundlegend Neues. Bereits 2015 zum Beispiel "beleidigte" Siri die Kanzlerin. Offenbar hatte jemand den Wikipedia-Eintrag von Angela Merkel manipuliert und Siri auf die Informationen zugegriffen. (jo)

Anzeige
Zur Startseite
Anzeige