Facebook: Immer mehr Interna beschreiben verheerende Unternehmensführung

Frances Haugen und andere Whistleblower gewähren einen Blick hinter die Kulissen von Facebook. Eine Zusammenfassung und ein Ausblick.

Lesezeit: 12 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 178 Beiträge
Daumen nach unten neben Facebook-Logo

(Bild: Sue Seecof CC BY 2.0)

Von
  • Jo Bager
Inhaltsverzeichnis

Die Whistleblowerin Frances Haugen hat Tausende Seiten interner Dokumente von Facebook öffentlich gemacht. Diese Facebook Files haben es in sich. Sie beweisen, so Haugen, dass das Unternehmen "die Öffentlichkeit wiederholt darüber in die Irre geführt hat, was die eigene Forschung über Sicherheit für Kinder offenlegt, über die Wirksamkeit seiner künstlichen Intelligenz und über seine Rolle bei der Verbreitung spaltender und extremistischer Mitteilungen."

Haugen hatte 2018 bei Facebook angeheuert. Ab 2019 arbeitete sie als leitende Produktmanagerin im Team "Civic Misinformation". Dessen Aufgabe war es, Falschinformationen und Hetze entgegenzutreten. Haugen glaubte nach eigener Aussage aber bald nicht mehr daran, dass ihr Team etwas bewirken könne. Sie entschied sich, als Whistleblowerin die Allgemeinheit über die Missstände bei Facebook zu informieren. Im Mai 2021 verließ sie das Unternehmen mit großen Mengen Material, das sie seitdem verschiedenen Medien zugänglich gemacht hat.

Mehr von c't Magazin Mehr von c't Magazin

Zusätzlich hat sie acht Beschwerden bei der US-amerikanischen Börsenaufsicht SEC eingereicht. Sie ist der Ansicht, dass Facebook in öffentlichen Erklärungen das Ausmaß von und sein Wissen um schwerwiegende Probleme mit Produkten gegenüber den Anlegern mutwillig falsch dargestellt und damit gegen Wertpapiergesetze verstoßen hat. Außerdem war Haugen vor dem US-Senat und dem britischen Parlament geladen, um den Politikern in den beiden Ländern ihre Sicht der Probleme bei Facebook darzulegen.

Einige der Anschuldigungen aus den Facebook Files knapp zusammengefasst:

  • Nicht für alle der knapp drei Milliarden Nutzer von Facebooks Plattformen gelten die gleichen Regeln, obwohl Facebook-Chef Mark Zuckerberg das immer wieder behauptete, sogar unter Eid vor dem US-Senat. Facebook habe ein System namens XCheck geschaffen, das knapp sechs Millionen Nutzer, vor allem Prominente, von der Anwendung der Inhalteregeln ausnahm. Dadurch hätten sie sich Fehltritte erlauben können, die bei gewöhnlichen Mitgliedern sanktioniert worden wären.
  • Die Inhalte, die Jugendliche auf Instagram sehen, sind eine Gefahr für ihr Selbstwertgefühl, können Depressionen auslösen oder sogar Suizidgedanken hervorrufen. So gehe es einem Drittel der Mädchen, die sich unwohl in ihrem Körper fühlen, schlechter, wenn sie Instagram nutzen. Das ist nur eine von vielen Zahlen aus internen Studien zu den negativen Effekten auf Jugendliche.
  • Facebook hat sich zum Ziel gesetzt, mehr jüngere Kinder an sich zu binden. "Warum sollten wir uns um Tweens kümmern?", zitiert das Wall Street Journal ein Dokument aus dem Jahr 2020, das auch gleich die Antwort gibt: "Sie sind eine wertvolle, aber ungenutzte Zielgruppe". Als "Tweens" bezeichnet man im Englischen Kinder ungefähr im Alter von 10 bis 13 Jahren. Mit dem Messenger Kids betreibt Facebook bereits ein erstes Produkt für unter 13-Jährige. Für Instagram sollte ein ähnliches Produkt folgen. Nach Kritik liegt das Projekt aber derzeit auf Eis.
  • Facebooks Newsfeed-Algorithmen bevorzugen Posts, die negative Emotionen wie Empörung und Sensationsgier erzeugen. Das Wall Street Journal berichtet detailliert über eine Änderung des Newsfeed-Algorithmus im Jahr 2018, die dazu führen sollte, die Bindungen zwischen den Nutzern zu stärken und Interaktionen zwischen Freunden und Familie zu fördern. Facebook sollte ein friedlicherer Ort werden – zugleich sollten die Maßnahmen die Interaktionsraten in die Höhe treiben. Als sich zeigte, dass die Änderungen zwar zu mehr Interaktion, aber auch zu mehr Empörung führten, wehrte sich Mark Zuckerberg persönlich gegen einige vorgeschlagene Korrekturen. Er befürchtete, dass diese die Interaktion der Menschen auf Facebook wieder reduzieren würden.
  • Beim sogenannten Engagement Based Ranking entscheiden Algorithmen auf Basis von Kommentaren, Likes und Weiterverbreitungen, wer bei Facebook und Instagram was vorgesetzt bekommt. Das Problem: Facebook legt die Algorithmen nicht offen, sie werden von keiner unabhängigen Stelle kontrolliert: "Nur Facebook weiß, wie es den Newsfeed für Sie personalisiert." Das sei für einen so mächtigen und extrem profitablen Konzern nicht länger zu dulden.
  • Facebooks KI hilft kaum, schädliche Inhalte zu erkennen. "Wir werden vermutlich niemals ein Modell haben, das auch nur die Mehrheit der Integritätsverletzungen erkennt, vor allem in sensiblen Bereichen", zitiert die Süddeutsche Zeitung einen Facebook-Forscher in einem Memo aus 2019. Er spreche von einer Erkennungsrate von zwei Prozent, eine andere interne Studie nennt drei bis fünf Prozent.
  • Es gibt zu wenige Moderatoren für schädliche Inhalte, vor allem in der nicht englischsprachigen Welt. So würden für viele Länder, in denen Arabisch gesprochen wird, Moderatoren fehlen.

Frances Haugen äußert bei ihrer Anhörung im US Senat schwere Vorwürfe gegen über Facebook.

(Bild: Alex Brandon – AP – dpa)

Facebook wehrt sich vehement gegen diese und weitere Vorwürfe. Mark Zuckerberg schrieb in einem Blog-Post, sein Unternehmen stelle Profit nicht über Sicherheit und Wohlbefinden. Beispielsweise habe sein Netzwerk die Newsfeeds so geändert, dass weniger virale Videos und mehr Inhalte von Freunden und Familie gezeigt würden. Das habe Facebook eingeführt, obwohl dem Unternehmen klar gewesen sei, dass die Menschen dann weniger Zeit im Netzwerk verbringen würden.

Facebook gibt an, dass es zur Fake-News-Bekämpfung 15.000 Moderatoren für mehr als 70 Sprachen der Welt beschäftigte, auch für Arabisch in Jemen, Libyen, Saudi-Arabien und Irak. Laut Guy Rosen, "VP of Integrity", hat Facebook die Rate der angezeigten Hassmails innerhalb der letzten drei Quartale um 50 Prozent gesenkt. Bei nur 0,05 % der angesehenen Inhalte handele es sich um Hassrede.

Frances Haugen ist nicht die erste Facebook-Whistleblowerin. Schon im Jahr 2020 hat Sophie Zhang systematische Probleme und zweifelhafte Entscheidungen bei Facebook angeprangert. Zhang hatte seit 2018 als Data Scientist im sogenannten Site Integrity Fake Engagement Team gearbeitet. Ihre Aufgabe war es, Bot-Accounts zu bekämpfen.

Sie meldete viele verdächtige Bot-Netzwerke in mehr als zwanzig Ländern. Bei einem Netzwerk, das den honduranischen Präsidenten Juan Orlando Hernández unterstützte, dauerte es mehr als ein Jahr, bis Facebook schließlich die betroffenen Profile löschte. In vielen anderen Fällen unternahm Facebook nichts, weil die Netzwerke nicht die wechselnden Kriterien von Facebook erfüllten, um für Sperrungen priorisiert zu werden, so Zhang. Ganz generell beschreibt sie die Entscheidungsprozesse als unüberlegt und planlos. 2020 wurde sie von Facebook entlassen.

Im April 2021 war der Onlineplattform Buzzfeed eine interne Untersuchung darüber zugespielt worden, welche Rolle Facebooks beim Angriff auf das US-Kapitol am 6. Januar gespielt hat. Obwohl sich das Unternehmen monatelang auf eine mögliche Delegitimierung der Wahl durch Trump und seine Anhänger vorbereitet hatte, hieß es laut Buzzfeed in dem Bericht, dass diese Bemühungen von einem mächtigen Netzwerk koordinierter Konten ausmanövriert würden.

Hätte Facebook wirksamer gegen die "Stop the Steal"-Bewegung der Trump-Anhänger vorgehen können? Die Non-Profit-Organisation Media Matters of America weist darauf hin, dass Facebook nicht einmal auf eigene Schutzmechanismen hätte zurückgreifen müssen, um zu erkennen, dass es sich um eine konzertierte Aktion zur Delegitimierung der Wahl handelt. Zahlreiche Medien hätten schon im November darauf hingewiesen, wie der Slogan benutzt wurde, um in Facebook-Gruppen massenhaft Falschinformationen zu verbreiten.

Mit Messenger Kids betreibt Facebook bereits ein Produkt für unter 13-Jährige.

Im Rahmen der Veröffentlichungen rund um die Facebook Files sind weitere Whistleblower an Medien herangetreten, die über Missstände berichten – wenngleich bis dato anonym. So wirft ein ehemaliger Mitarbeiter dem Unternehmen in einer Beschwerde bei der US-Börsenaufsicht ebenfalls vor, Profit über Integrität zu stellen.

Er hat einem Bericht der Washington Post zufolge für Facebooks "Integrity"-Team gearbeitet, das Nutzer der Plattformen vor schädlichen und illegalen Inhalten schützen soll. Ihm zufolge haben Facebooks Führungskräfte diese Bemühungen wiederholt unterlaufen, um das Wachstum der Plattform nicht zu gefährden oder die US-Regierung unter Donald Trump nicht zu verärgern. So habe es unter anderem eine "Weiße Liste" mit Medien gegeben, die von Facebooks internen Prüfverfahren ausgenommen wurden. Auf dieser Liste soll auch das rechtskonservative Portal Breitbart News gestanden haben, das Steve Bannon geleitet hat, bevor er Trumps Berater wurde.

In einem anderen Bericht über einen recht aktuellen Fall beruft sich die Washington Post auf drei nicht genannte Insider. Im Vorfeld des Nationalkongresses der in Vietnam regierenden Kommunistischen Partei habe Mark Zuckerberg persönlich veranlasst, dass die Zensur regierungskritischer Beiträge deutlich verschärft wurde. Das Unternehmen, das sonst die Fahne der Meinungsfreiheit hochhalte, habe sich aus Gründen des Profits zum Helfershelfer der vietnamesischen Zensur gemacht.

Die Veröffentlichungen sind nicht nur ein PR-GAU für Facebook, sondern gewähren einen Blick hinter die Kulissen, gegen den sich der Konzern bisher immer mit allen Mitteln gewehrt hat. Unter anderem hat er zwei Forschungsvorhaben blockiert, die sich mit dem Einfluss der Plattform auseinandergesetzt haben.

Im August sperrte Facebook alle Konten, Apps, Seiten und Zugänge, die mit dem Projekt AdObserver der New York University (NYU) zu tun hatten. Mit dem Projekt wollten Wissenschaftler herausfinden, wer wann welche politischen Anzeigen in dem sozialen Netzwerk sieht.

Facebook begründet die Blockade damit, dass im Rahmen des Projekts zu viele Daten abfließen würden, was gegen Facebooks Richtlinien verstoße. Das erscheint vorgeschoben, denn beim AdObserver-Projekt flossen keine Daten von Nutzern ab, die sich damit nicht explizit einverstanden erklärt haben: Das Projekt stützte sich auf die Freiwilligkeit der teilnehmenden Facebook-Nutzer, die für die Freigabe ihrer Daten eigens eine Browser-Erweiterung installieren mussten. Facebook behauptete auch, dass die Sperre Teil eines von der US-Handelsbehörde FTC auferlegten Datenschutzprogramms sei. Dafür wurde Mark Zuckerberg in einem offenen Brief der SEC gerüffelt: Tatsächlich sei das AdObserver-Projekt ganz im Sinne des Datenschutzprogramms.

Die deutsche Organisation AlgorithmWatch musste ein ähnliches Projekt auf Facebooks Plattform Instagram beenden. AlgorithmWatch wollte untersuchen, wie der Algorithmus von Instagram Bilder und Videos priorisiert. Nachdem Facebook im August 2021 "formelle Schritte" angedroht hatte, hat AlgorithmWatch sein Projekt beendet.

Haugen forderte bei ihrer Anhörung vor dem US-Parlament mehr Transparenz von Facebook: "Facebooks Verhaltensmuster ist Verstecken hinter Mauern und Agieren im Schatten. Und sie haben viel zu viel Macht in unserer Gesellschaft, um in dieser Weise operieren zu dürfen", mahnte sie. Verantwortlich sei Mark Zuckerberg, als CEO, Vorsitzender des Verwaltungsrates und Eigentümer von etwa 55 Prozent aller Stimmrechte.

Haugen hält Facebooks Probleme für lösbar. "Ein sichereres, angenehmeres soziales Netzwerk, das die freie Rede respektiert, ist möglich." Die Auswahl der Inhalte auf Basis der Interaktionen müsse enden. Besser sei ein umgekehrt chronologischer Feed, bei dem die Nutzer selbst entscheiden, wem sie folgen und wessen Postings sie sehen möchten, mit moderatem Spamfilter.

Auf der Entwickler-Hauskonferenz Connect stellte Mark Zuckerberg den neuen Konzernnamen vor.

Andere Ideen gehen in eine ähnliche Richtung, wenngleich nicht ganz so weit. So schlägt Casey Newton, der den einflussreichen Social-Media-Newsletter The Platformer herausgibt, vor, dass Facebook seine Ergebnisse routinemäßig veröffentlichen und seine Daten überprüfen lassen sollte. Das würde es qualifizierten Forschern erheblich erleichtern, die Plattform unabhängig zu untersuchen.

Mark Zuckerberg selbst fordert mehr Regulierung für sein Unternehmen. Soziale Probleme anzugehen sei nicht allein Sache von Privatunternehmen, schrieb der Facebook-Chef in einem Post. Deshalb habe er wiederholt von der Politik neue Regeln für den Umgang mit politischen Wahlen, schädlichen Inhalten, Datenschutz und Wettbewerb gefordert.

Es sieht ganz so aus, als würde sein Wunsch in der Europäischen Union bald erfüllt. Die EU arbeitet derzeit an zwei Vorhaben, mit denen sie große Internetkonzerne stärker an die Leine legen will: den Digital Markets Act und den Digital Services Act. Eigentlich wollte der Binnenmarktausschuss des EU-Parlaments über die Entwürfe am 8. November abstimmen. Das wurde vertagt: Man hat Frances Haugen eingeladen, um zu hören, was sie zu sagen hat.

Der Facebook-Konzern will derweil nicht mehr Facebook heißen, sondern benennt sich zu Meta um. Die Marke Facebook sei ikonisch, sagte Mark Zuckerberg anlässlich der Entwickler-Hauskonferenz Connect. Sie stünde aber nicht mehr für alles, was Facebook mache. Das Unternehmen baut am sogenannten Metaversum, einem kollektiven Raum, in dem die reale und virtuelle Welt verschmelzen. Die neue Dachmarke Meta soll die "alten" Apps und den neuen Geschäftszweig vereinen. Zuckerbergs Keynote endete mit den Worten: "Die Zukunft liegt jenseits dessen, was wir uns vorstellen können." Angesichts der Enthüllungen klingt das wie eine Drohung. (jo)