Tracking: Daten-"Vergiftung" als Selbstschutz

Wenige Konzerne sammeln enorme Mengen an Informationen über die Menschheit. Aktivisten geben Ratschläge, wie man es ihnen schwerer machen kann.

Lesezeit: 7 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 105 Beiträge

(Bild: Gorodenkoff / Shutterstock.com)

Von
  • Karen Hao

Jeden Tag hinterlässt der Mensch eine Spur digitaler Brotkrumen, die Tech-Giganten nutzen, um ihn zu tracken. Man sendet eine E-Mail, bestellt Essen, öffnet den Streaming-Service. Die Firmen erhalten wertvolle Datenpakete, mit denen sie ihr Verständnis der Präferenzen eines Nutzers ausbauen. Diese Daten werden in maschinell lernende Algorithmen gegeben, die mit personalisierter Werbung und Empfehlungen auf die Nutzer abzielen. Google verkauft diese Daten und generiert damit ein Werbeeinkommen von über 101 Milliarden Euro im Jahr.

Mittlerweile ist es nicht mal mehr möglich, sich diesem Arrangement zu entziehen. Im Jahr 2009 unternahm Kashmir Hill, eine Reporterin für Gizmodo, bekannterweise den Versuch, fünf führende Tech-Giganten aus ihrem Leben zu verbannen. Im Ergebnis verbrachte sie sechs grässliche Wochen, in denen die einfachsten digitalen Funktionen zum Kraftakt wurden. Die Tech-Riesen hingegen kratzte das kein bisschen.

Forscher der Northwestern University schlagen nun neue Wege vor, dieses Missverhältnis der Macht anzugehen, und zwar indem "vergiftete" Nutzerinformationen eingesetzt werden. Tech-Giganten haben vielleicht schicke Algorithmen zur Hand, doch die sind wertlos ohne die richtigen Daten, mit denen sie trainiert werden müssen.

In einem neuen Paper, dass der Association for Computing Machinery auf einer Konferenz zu den Themen Fairness, Rechenschaft und Transparenz in diesem März präsentiert wird, schlagen Forscher, einschließlich der Doktoranden Nicholas Vincent und Hanlin Li, drei Möglichkeiten vor, wie die Öffentlichkeit den Wert der Daten zu ihrem Vorteil nutzen kann:

- Datenstreiks. Diese Variante ist inspiriert von Arbeiterstreiks und bezeichnet entweder die Zurückhaltung oder die Löschung von Daten, damit Tech-Firmen sie nicht nutzen können – dafür verlässt man entweder die Plattform oder installiert Datenschutz-Tools.

- „Datenverseuchung“. Damit ist die Generierung nutzloser oder für die Algorithmen sogar schädlicher Daten gemeint. AdNauseam ist beispielsweise eine Browser-Erweiterung, die auf jede einzelne vorgeschlagene Werbeanzeige klickt und somit Googles Werbe-Algorithmen ordentlich durcheinanderbringt.

- Bewusste Datengabe. Mit dieser Taktik gibt der Nutzer bewusst wertvolle Daten an ein Konkurrenzunternehmen der Plattform weiter, gegen die man vorgehen will – beispielsweise indem man seine Fotos nicht auf Facebook, sondern auf Tumblr hochlädt.

Viele dieser Taktiken werden bereits von Menschen verwendet, die ihre Privatsphäre schützen wollen. Wer jemals einen Ad-Blocker oder eine andere Browser-Erweiterung genutzt hat, die eine Suche dahingehend verändert hat, dass bestimmte Webseiten nicht angezeigt wurden, hat sich bereits in eine Art Datenstreik begeben und einen Teil der Nutzungsbestimmung über die eigenen Daten zurück erkämpft. Doch wie Hill herausfinden musste, bringen solche sporadischen Aktionen von Einzelpersonen die Tech-Giganten nicht dazu, ihr Vorgehen zu ändern.

Was aber passiert, wenn Millionen Menschen sich nun organisieren würden, um die Daten eines Tech-Giganten ordentlich zu „verseuchen“? Das könnte genug Druck aufbauen, um die eigenen Forderungen behaupten zu können. Dafür gab es schon einige Beispiele. Im Januar haben Millionen von Nutzern ihre WhatsApp-Accounts gelöscht und sind zu Konkurrenten wie Signal und Telegram gewechselt, nachdem Facebook bekannt gegeben hatte, dass es WhatsApp-Daten mit dem Rest der Firma teilen würde. Der Exodus veranlasste Facebook dazu, die Bestimmungsveränderung zu verschieben.

Erst kürzlich verkündete auch Google, dass man nun nicht mehr Einzelpersonen im Netz tracken und gezielte Werbung positionieren würde. Zwar ist noch unklar, ob es sich um tatsächliche Veränderungen handelt oder nur um den Versuch, die Marke neu zu erfinden, sagt Vincent, doch es könnte auch an dem vermehrten Einsatz von Tools wie AdNauseam liegen, die zu der Entscheidung beigetragen haben. Schließlich schmälern sie die Wirksamkeit der von dem Unternehmen verwendeten Algorithmen. „Die einzigen, die wirklich wissen, wie effektiv so ein Moment der Einflussnahme auf Daten bei dem System ist, sind die Tech-Firmen“, sagt er.

Vincent und Li glauben, dass diese Kampagnen andere Strategien erweitern könnten wie die der politischen Interessenvertretung und Arbeiterbewegungen, die einen Widerstand gegen Big Tech organisieren. „Es ist aufregend, diese Art von Arbeit zu sehen“, sagt Ali Alkhatib, ein wissenschaftlicher Mitarbeiter im Zentrum für Angewandte Daten-Ethik an der University of San Francisco, der nicht an der Forschung beteiligt war. „Es war wirklich interessant zu sehen, wie dort über eine kollektive oder holistische Sichtweise nachgedacht wird: Wir können uns mit der Quelle anlegen und mit dieser Drohung auch Forderungen stellen. Denn es handelt sich um unsere Daten und all das fließt gemeinsam in diese Quelle ein.“

Es ist noch mehr Arbeit erforderlich, um diese Kampagnen weiterzuverbreiten. Computerwissenschaftler könnten eine wichtige Rolle darin einnehmen, Tools wie AdNauseam zu entwickeln. Das könnte den Anschluss an solche Taktiken niedrigschwelliger machen.

Auch Gesetzesgeber können helfen. Datenstreiks sind dann am wirkungsvollsten, wenn sie von starken Datenschutz-Gesetzen gestützt werden, wie die European Union’s General Data Protection Regulation (GDPR), die Konsumenten das Recht einräumt, die Löschung ihrer Daten einzufordern. Ohne eine solche Regulierung wird es schwieriger zu garantieren, dass ein Tech-Unternehmen digitale Aufzeichnungen tatsächlich entfernt, was andernfalls selbst dann nicht geschehen könnte, wenn man sein Profil löscht.

Einige Fragen bleiben noch offen. Wie viele Menschen braucht es für einen Datenstreik, der einem Algorithmus schaden kann? Und welche Arten von Daten könnten ein bestimmtes System am besten „verseuchen“? In einer Simulation mit einem Algorithmus für Filmempfehlungen fanden die Forscher heraus, dass es 30 Prozent der Nutzer brauchte, die streiken, um die Genauigkeit des Systems um 50 Prozent zu verringern. Doch jedes System maschinellen Lernens funktioniert anders, und Unternehmen sind ständig dabei, sie weiterzuentwickeln. Die Forscher hoffen darauf, dass mehr Menschen aus der Branche ähnliche Simulationen an verschiedenen Firmensystemen durchlaufen könnten, um Schwachstellen zu definieren.

Mehr von MIT Technology Review Mehr von MIT Technology Review

Alkhatib schlägt vor, dass Wissenschaftler mehr darüber forschen sollten, wie andere zu kollektiven Aktionen mit Daten inspiriert werden könnten. „Kollektives Handeln ist wirklich schwer“, sagt er. „Menschen dazu zu bringen, eine andauernde Aktion weiterzuverfolgen, ist eine Herausforderung. Außerdem wird es schwierig, eine sehr vorübergehende Gruppierung zusammenzuhalten, beispielsweise Personen, die eine Suchmaschine für fünf Sekunden nutzen. Würden die sich als Teil einer Gemeinschaft begreifen, die langlebig sein wird?“

Die Taktiken haben möglicherweise auch negative Konsequenzen, die genau durchdacht werden müssen, fügt er hinzu. Könnte eine „Verseuchung“ der Daten darin enden, dass Content-Moderatoren und andere Menschen, die Trainingsdaten für Firmen bereinigen und bezeichnen, einfach nur mehr Arbeit haben? Insgesamt sind Vincent, Li und Alkhatib optimistisch, dass Daten als Druckmittel zu einem überzeugenden Mittel werden könnten, um auf das Verhalten der Tech-Giganten gegenüber Daten und ihrer Sicherheit Einfluss zu nehmen. „Das ist einfach ein Fakt, so funktionieren die“, sagt Vincent. „Am Ende ist das ein Weg, wie die Öffentlichkeit an Macht gewinnen kann.“

(bsc)