Apple: Bürgerrechtler beklagen Verschlüsselungsbruch mit Backdoor

Die Ankündigung von Apple, einen Nacktfilter für iMessage und Kinderporno-Scans für iCloud einzuführen, bringt Datenschutzaktivisten auf die Barrikaden.

Lesezeit: 5 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 157 Beiträge

(Bild: BeeBright / Shutterstock.com)

Von
  • Stefan Krempl
Inhaltsverzeichnis

US-Bürgerrechtsorganisationen laufen Sturm gegen das Vorhaben von Apple, zunächst in den USA einen Nacktfilter für iMessage einzusetzen sowie in die iCloud hochgeladene Fotos auf Darstellungen sexuellen Kindesmissbrauchs zu scannen. Das Center for Democracy & Technology (CDT) etwa befürchtet, die Initiative werde letztlich die sichere Nachrichtenübermittlung über den Messaging-Dienst des iPhone-Herstellers "auf der ganzen Welt gefährden".

Der von Apple ins Feld geführte Kinderschutz sei fraglos ein wichtiges Ziel, heißt es beim CDT. Die zivilgesellschaftliche Institution zeigt sich aber "zutiefst besorgt darüber", dass die Änderungen "in Wirklichkeit neue Risiken für Kinder und alle Nutzer mit sich bringen und eine deutliche Abkehr von seit langem geltenden Datenschutz- und Sicherheitsprotokollen darstellen".

"Apple ersetzt sein branchenübliches, durchgängig verschlüsseltes Messaging-System durch eine Infrastruktur für Überwachung und Zensur, die nicht nur in den USA, sondern auf der ganzen Welt missbrauchsanfällig ist", beklagt Greg Nojeim, Co-Direktor des "Security & Surveillance" Projekts des CDT. Der Konzern sollte auf diesen Schritt verzichten "und das Vertrauen seiner Nutzer in die Sicherheit und Integrität ihrer Daten auf Apple-Geräten und -Diensten wiederherstellen".

Das Unternehmen schaffe keine Alternative zu einer Hintertür, wie es selbst angebe, sondern eindeutig "eine Backdoor", erläutert die Organisation. iMessage werde dann keine Ende-zu-Ende-Verschlüsselung mehr bieten. Dies würde einen gefährlichen Präzedenzfall kreieren, mit dem ein Nutzerkonto ein anderes überwachen könnte. Es werde eine Funktion zu iOS hinzugefügt, die Bilder in iMessages scannt, die ein Familienkonto haben. Auf diesen Accounts führte Apple ein auf maschinellem Lernen basierendes "clientseitiges Scannen" durch, um sexuell eindeutiges Bildmaterial zu erkennen. Bei einem mutmaßlichen Treffer erfolge eine Warnung an die Eltern.

Mit der neuen Foto-Regel werde zudem eine Datenbank mit Hashes von Material über sexuellen Kindesmissbrauch auf den iPhones der Nutzer gespeichert, führt das CDT aus. Nach einem Abgleich mit unveröffentlichten Algorithmen und einer menschlichen Überprüfung sende Apple unter anderem einen Bericht an das National Center for Missing and Exploited Children (NCMEC).

Das Werkzeug, mit dem der Konzern gegen das Heranpirschen an Kinder und Jugendliche ("Cybergrooming") vorgehen wolle, könnte just sensible Informationen über die sexuelle Identität junger Menschen an interessierte Erwachsene weitergeben, beklagt das CDT. Zudem seien maschinelle Klassifizierungsverfahren zum Aufspüren von Nacktbildern und aufreizenden Inhalten "notorisch fehleranfällig". Die Organisation geht daher davon aus, dass der Filter etwa bei Gesundheitsinformationen, Memes und Kunst fälschlicherweise anschlägt und die Eltern alarmiert.

Besonders enttäuscht zeigt sich Nojeim, da Apple seit Langem "ein großes Engagement für den Datenschutz und die Kommunikationssicherheit" an den Tag gelegt habe. Mit Apples Rückzug aus durchgehend verschlüsselten Diensten würden LGBTQ-Jugendliche und Kinder in Elternhäusern mit Missbrauchsfällen besonders anfällig für Repressalien.

Auch die Electronic Frontier Foundation (EFF) ist geschockt: Jeder, der die Crypto Wars verfolgt, weiß laut der Organisation, dass Apple eine Hintertür in sein Cloud- und Messagingsystem einbauen wolle. Es wäre daher untertrieben zu sagen, "dass wir enttäuscht sind". Apple sei seit jeher zurecht "ein Verfechter der Ende-zu-Ende-Verschlüsselung" gewesen. Der nun vorgesehene faule Kompromiss möge Regierungsbehörden in den USA und im Ausland besänftigen. Er stelle aber auch "eine schockierende Kehrtwende für die Nutzer" dar.

Alles, was nötig wäre, um die zunächst geplante recht enge Backdoor zu erweitern, ist der EFF zufolge eine Erweiterung der verwendeten Parameter für maschinelles Lernen. So könnte die Technik nach zusätzlichen Kategorien von Inhalten suchen. Zudem ließen sich mit wenigen Klicks die Einstellungen ändern, "um nicht nur die Konten von Kindern, sondern von allen zu scannen". Das sei kein schlüpfriges Gelände, sondern ein fertiges System, das nur darauf warte, nach Druck von außen ausgedehnt zu werden.

Apples Plan zum Scannen von Fotos ähnelt laut der EFF in mancher Hinsicht der Lösung PhotoDNA von Microsoft. Der Hauptunterschied besteht darin, dass der Abgleich bei Apple auf dem Gerät stattfinde. Anbieter wie Facebook, Google und Microsoft scannen Chats bereits verdachtsunabhängig und flächendeckend auf Kinder- und Jugendpornografie sowie auf Anzeichen von Cybergrooming. Mit einer im Juli vom EU-Parlament beschlossenen Eilverordnung dürfen sie dies in Europa wieder im Einklang mit dem Gesetz. Die EU-Kommission arbeitet zudem an einer Folgevorschrift, um diese "Chatkontrolle" für alle einschlägigen Dienstleister verpflichtend zu machen.

Doch auch von dieser Seite des Atlantiks hagelt es Kritik. "Apple hat beschlossen, die Ende-zu-Ende-Verschlüsselung zu untergraben", moniert Diego Naranjo von der Initiative European Digital Rights (EDRi). Mit dem "iSpy"-Plan drohe der gläserne Nutzer. Der Konzern dürfe seine Absicht nicht umsetzen.

Organisationen rund um den Globus warnen seit Langem vor Scans von Inhalten auf dem Client, da Regierungen und Unternehmen diesen Ansatz als Mittel zur Überwachung des Inhalts privater Kommunikation einsetzten. Das Verfahren schaffe Schwachstellen, "die Kriminelle ausnutzen können", betont etwa die Internet Society (ISOC): Es vergrößere die Angriffsfläche, indem der Nachrichtenaustausch leichter durch Manipulation der Datenbank für anstößige Inhalte zu stören sei. Generell schaffe das Instrument große "technische und verfahrenstechnische Herausforderungen".

(tiw)