Facebook & Co.: Das Dreieck des Wandels

Bild: Gerd Altmann / Pixabay (Public Domain)

Was macht meine Daten so attraktiv für Soziale Netzwerke - und was hat das mit der Entstehung der sogenannten Echokammern zu tun? Ich recherchiere dazu und stehe vor einer ungeahnt komplexen Entscheidung: Bleiben oder gehen?

Ich plane keinen Sturm auf den Reichstag. Auch Drogendeals vereinbare ich nicht über WhatsApp oder plane andere illegale Dinge über Facebook. Kurz: Ich bin weder Terrorist noch Straftäterin oder Gefahr. Wieso aber ist alles, was ich online suche, poste und schreibe trotzdem so spannend und wertvoll für eine eingehende Analyse und Speicherung? Datenschützer:innen sind sich seit Jahren einig: Nichts ist wertvoller und wird höher gehandelt als das, was wir jeden Tag suchen und klicken. Doch wen interessiert das eigentlich und was genau bedeutet es?

Daten, Daten, Daten!

Ich tippe die Nummer von Prof. Dr. Christof Paar, Leiter des neu gegründeten Max-Planck-Instituts für Sicherheit und Privatsphäre, in mein Android-Handy und hake nach. Antwort: "Unternehmen wie Google und Facebook wissen unheimlich viel über uns und das ist unfassbar viel wert. Wir leben in einem kapitalistischen System und in diesem ist dieses Wissen von ungemein hohem Wert. Je zielgerichteter die Auftraggeber und Werbetreibenden an ihre Zielgruppe kommen, desto besser für sie."

Durch den Einsatz Künstlicher Intelligenz und damit intelligenten, selbstständig agierenden Algorithmen, die auf Machine Learning beruhen, würden die Beeinflussungsmöglichkeiten enorm verstärkt sowie auch subtiler, erklärt Prof. Dr. Paar. Das Ziel sei zudem nicht nur die Analyse der Daten und eine daraus resultierende Verhaltensvorhersage, sondern auch eine gezielte Steuerung des Verhaltens der Nutzer:innen und ihrer Gefühle.

Wer traurig ist, kauft mehr

Paar führt aus: "Ergibt die individuelle Analyse des Online-Verhaltens eines Nutzers, dass er gewisse Produkte eher kauft, wenn er traurig ist, dann kann man das natürlich steuern und herbeiführen mit Anzeigen von Posts, die erwiesener Weise eher zu einer trüben Stimmung beim Nutzer führen. Es geht aber noch weiter und zwar in die Richtung der Gefühlserkennung. Es wird gerade immer mehr versucht, auch über Sprachanalyse und den Gesichtsausdruck zu erkennen, wie sich ein Nutzer fühlt. So kann man zielgerichteter Werbung schalten. Das ist alles sehr interessant für den Überwachungskapitalismus."

Nur: Treffe ich die Entscheidung, was ich letztendlich kaufe oder tue, nicht immer noch selbst? Und ist es nicht auch schön, Dinge angezeigt zu bekommen, die einen interessieren? Ständig finde ich neue spannende Artikel rund um Emanzipation und Nachhaltigkeit in meinen Feeds. Kann das schlecht sein?

"Was mich persönlich verstört, ist die Tatsache, dass, wenn wir beide bei Amazon oder Google oder Facebook etwas suchen, unterschiedliche Ergebnisse angezeigt bekommen. Wenn Sie und ich aus demselben Fenster schauen, sehen wir denselben Parkplatz und das gleiche Wohngebiet, aber in der digitalen Welt ist das etwas ganz anderes. Dort herrscht die Anpassung der digitalen Realität an die Nutzer. Das wirft die Frage auf: Was ist Realität?", so Paar.

Individualisierte Realitäten

Realität wird für jeden Einzelnen von uns konstruiert, basierend auf der Analyse unseres gesamten Onlineverhaltens. Dass das zu gefährlichen Echokammern und Radikalisierungsprozessen führen kann, wurde nicht nur am Beispiel QAnon und dem Sturm aufs Kapitol in den USA, sondern wird auch anhand der "Querdenker"-Bewegung in Deutschland offensichtlich. Jeder sieht nur noch das, was ihn sowieso schon interessiert und was seinem Meinungsbild entspricht. Wie entscheidet der Algorithmus, der mein Online-Leben bestimmt, was mir angezeigt wird und was nicht?

Eine Product-Designerin bei Facebook erklärt es mir so: "Was das 'engagement' angeht, kann man sagen, dass User länger online bleiben und aktiv sind, wenn sie Inhalte sehen, die ihrem Meinungsbild entsprechen und denen sie zustimmen. Das führt natürlich zu den oft besprochenen Filterblasen und Echokammern und das ist dann ein gesellschaftliches Problem, aber es werden kleine Dinge versucht, das Problem langsam anzugehen, denke ich." Zentral sei hierbei eine neue Ausrichtung der Unternehmensphilosophie in den vergangenen Jahren, erzählt die Facebook-Mitarbeiterin, die sicherheitshalber lieber anonym bleiben will, weiter. Von "time spent", also dem Ziel, dass User:innen so viel Zeit wie möglich auf Facebook verbringen, hin zu "meaningful social interaction". Das oberste Ziel sei es nun, Nutzer:innen anzuregen, sich mit anderen auszutauschen und aktiv zu werden - im Messenger, durch Kommentare auf Posts oder Likes und Shares.

Black Box Social Media

Die Beiträge, die mir angezeigt werden, sollen mich also zur Handlung anregen. Was wiederum bedeutet, dass ich länger in der jeweiligen App online bin und somit mehr Zeit ist, mir Anzeigen und für mich bestimmte Beiträge zuzuspielen. Doch was sind das für Beiträge? Wem wurde die Analyse meines Verhaltens angeboten auf dem Markt? Nur Firmen, die mir etwas verkaufen wollen, das ich tendenziell gut finde, oder noch anderen Parteien? All das sind Fragen, auf die ich keine Antwort erhalte, weder von meinem Kontakt bei Facebook noch vom Unternehmen selbst.

Bas van Abel, Gründer der nachhaltigeren Open-Source-Smartphone-Alternative "Fairphone", sieht genau hier die große Gefahr von Monopolen des Markts wie Facebook, Google, Apple und Amazon: "Das sind alles private Unternehmen und wenn User den Nutzungsbedingungen zustimmen, oft ohne diese zu lesen oder ganz zu verstehen, dann akzeptieren sie, nicht zu wissen, was mit ihren Daten passieren wird. Ebenso wie bei anderen Märkten, wie beispielsweise dem Lebensmittelmarkt, sind hier Regeln und Gesetze nötig. Regierungen haben eine Verantwortung ihren Bürgern gegenüber, ein Marktsystem zu ermöglichen und zu regulieren, das sicher und gut für die Verbraucher ist."

Van Abel wünscht sich mehr Macht für Nutzer:innen Sozialer Netzwerke und die Möglichkeit, "unter den Deckel" schauen zu können. Doch genau diese Transparenz für Verbraucher:innen ist das Gegenteil dessen, wonach die Monopole der Tech-Branche derzeit streben.

Würden sie offenlegen, wie genau ihr Algorithmus funktioniert und welche Werbepartner Einfluss und Einsicht in die Analyse unserer Daten haben, wären sie eventuell in Erklärungsnot. In der im September 2020 erschienenen Netflix-Dokumentation "The Social Dilemma" ("Das Problem mit den Sozialen Medien") erzählen Programmierer:innen und Entscheider:innen der ersten Stunde von Google, Facebook und anderen Sozialen Netzwerken, welcher Mechanismus hinter allem steckt: Immer gehe es um die besten Voraussagen dessen, was die User:innen eines jeweiligen Services in Zukunft machen, klicken und kaufen werden. Wer die besten Voraussagen hat, bestimmt den Markt.

Vom Überwachungskapitalismus zu digitaler Ethik?

Nach der Sperrung des ehemaligen US-Präsidenten Donald Trumps von Facebook und Twitter fragte sich die Welt, ob es nicht mehr verbindliche Regeln und festgelegte moralische Grundsätze für die so einflussreiche Tech-Branche geben müsste.

Auch meine Interviewpartnerin bei Facebook klingt nachdenklich und erzählt von kontroversen Meinungen im Unternehmen. "Es fühlt sich derzeit sehr heftig und bedeutungsschwer an, bei Facebook zu arbeiten, weil man das Gefühl hat, eine Meinung zu Dingen haben zu müssen, die am Ende die Gesellschaft ändern und die Realität bestimmen. Das macht mich oft sehr nervös und ich frage mich, ob meine vielleicht zu vage geformten Meinungen richtig sind und ob Facebook und Twitter-Mitarbeiter die Richtigen sind, solche Dinge zu entscheiden."

Sie erwähnt immer wieder einen "frischen Wind", der im Unternehmen seit einiger Zeit wehe und erzählt von Teams, die sich verstärkt mit dem objektiven Einordnen von Verschwörungstheorien beschäftigen und versuchen, die User:innen darin zu schulen, alle möglichen Arten von Fehlinformationen besser zu erkennen. Diese Teams bestünden bisher aus rund 50 Mitarbeiter:innen. Ende 2019 gab das Unternehmen an, insgesamt fast 50.000 Menschen zu beschäftigen.

Bleiben oder gehen?

Jetzt, da ich im Zuge meiner Recherche weiß, was ich alles nicht weiß, also dass ich nicht weiß, was mit meinen Daten geschieht und wer diese analysiert und wozu, scheint nur ein Schluss zu bleiben: Gehen! Trotzdem hadere ich mit meiner Entscheidung. Nicht so sehr bei WhatsApp, wo der Umstieg auf einen sichereren Messenger-Dienst erschreckend einfach ist, sondern bei Facebook und Twitter.

Sollte ich nicht viel besser bleiben in diesen so einflussreichen Netzwerken, und mit Andersdenkenden diskutieren, mich über ihre Weltsicht informieren und so aktiv am öffentlichen Diskurs teilnehmen? Wäre eine Strategie, dies zu erreichen, Nachrichtenseiten, Gruppen und Menschen zu folgen, die anders denken als ich? Und was ist mit meinen Freunden und Berufskontakten?

Netzwerkeffekt und "persuasive technology"

Expert:innen würden meine Ausstiegshürden als Folge des "Netzwerkeffekts" beschreiben. Dieser hält uns ab, unsere privaten und beruflichen Netzwerke zu verlassen aus Angst, die uns so wertvollen sozialen Kontakte ganz zu verlieren und Nachteile zu haben. Macher:innen der Sozialen Netzwerke würden mein Verhalten wohl zudem stolz ihrer "persuasive technology" (zu Deutsch etwa: "überredende Technologie") zuschreiben. Ich bin süchtig. Und wenn ich ehrlich bin, sind meine Argumente zu bleiben, nur Ausreden.

Denn: Kann ich darauf vertrauen, dass Facebook und Twitter mich online mit diesen Menschen in Kontakt bringen? Werden mir nicht viel wahrscheinlicher immer nur Menschen aus meiner Blase angezeigt, mit denen ich gerne diskutiere oder aus "engagement"-Gründen Menschen, die ganz krass auf der anderen Seite stehen? Durchschaut der Algorithmus mein anormales Verhalten, wenn ich auf einmal anderen Seiten folge?

Und: Wann wird Facebook sein Unternehmensziel von "meaningful social interaction" zu "meaningful social interaction with people the user mildly or strongly disagrees with" ändern und darf ich darauf warten? Kann und muss dieser Dialog in anderen Netzwerken und auch offline geschehen?

Ich denke in letzter Zeit immer öfter an das "Diskutierfrühstück", das ein ehemaliger Freund von mir in der Kleinstadt, in der wir wohnten, regelmäßig organisiert hat. Eingeladen wurde jede Woche eine kleine Gruppe Menschen, die aus komplett unterschiedlichen Berufsfeldern kamen und auch politisch wild durchgemischt waren. So saßen wir stundenlang über Kaffee und Croissants und diskutierten uns schwindelig zu einem bestimmten Thema oder gleich mehreren. Müsste ich diese Art des Austausches anregen? Ginge das in Zeiten der Corona-Pandemie auch online?

Das Dreieck des Wandels

"Es scheint alles sehr groß und überwältigend, deshalb müssen wir es runterbrechen in kleine Schritte und Dinge, die wir kontrollieren können", rät mir Bas van Abel. "Ich sehe es als Dreieck des Wandels: Wir brauchen erstens gute Alternativprodukte, zweitens ein bewusstes Entscheiden und damit Machtausüben der Verbraucher - und zu guter Letzt Regulierungen und Gesetze auf politischer Ebene."

Ich entscheide mich, auf meine Macht als Verbraucherin zu vertrauen. Ich schreibe Abschiedsnachrichten mit dem Hinweis, wo und wie man mich jetzt kontaktieren kann. Eine Facebook-Alternative suche ich mir nicht, dafür aber einen sicheren Messenger und einen sicheren E-Mail-Dienst, für den ich gerne einen Euro pro Monat zahle. Ich wechsle zu einer alternativen Suchmaschine, hole meine Inhalte aus Google Docs und mache mich auf die Suche nach einer Alternative zu Google Maps.

Am meisten überrascht mich das positive Feedback meiner Freunde: "Danke für den Push - ich wollte schon lange umsteigen!", höre ich oft und dass viele von ihnen sowieso schon lange zusätzlich andere Messenger auf dem Handy haben. Ich organisiere ein Online-Diskutier-Frühstück und bin überrascht über die große Anzahl an Alternativen hierfür, bei denen der Datenschutz gewährt wird.

Als Nutzerin habe ich bewusst und aktiv gehandelt. Auch die zweite Seite des Dreiecks, die Alternativen, scheint es bereits in großem Angebot zu geben. Fehlt nur die wohl einflussreichste dritte Seite des Dreiecks: ein Handeln der Politik.

(Patrizia Barbera)