"Scannt unsere iPhones nicht": Bürgerrechtler wollen Druck auf Apple aufbauen

Die iPhone-Bildprüfung untergräbt laut EFF Datenschutz und bricht das Versprechen starker Verschlüsselung. Auch die Sicherheit für Kinder werde nicht erhöht.

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 121 Beiträge

(Bild: lisyl/Shutterstock.com)

Von
  • Leo Becker

Die Bürgerrechtsorganisation EFF hat Nutzer dazu aufgerufen, ihre Stimme gegen Apples geplanten Kinderschutzfunktionen zu erheben. Mit einer Petition will die EFF (Electronic Frontier Foundation) Druck aufbauen und verhindern, dass zwei Bild-Scan-Systeme in Apples kommenden Betriebssystemversionen iOS 15 und macOS 12 eingeführt werden. Der Konzern habe seine Verpflichtung zu Datenschutz und Sicherheit mit diesen Plänen aufgegeben und installiere stattdessen eine Hintertür, schreiben die Bürgerrechtler.

Die geplanten Kinderschutzfunktionen "untergraben den Datenschutz und brechen das Versprechen von Ende-zu-Ende-Verschlüsselung", heißt es in dem Anschreiben der Petition. Ein konstanter Scan von Bildern mache Kinder nicht sicherer und könne diese sogar in Gefahr bringen, erläutert die EFF in Bezug auf den Nacktbildfilter für iMessage respektive Apples vorinstallierte App "Nachrichten". Schauen Kinder unter 13 von dem Algorithmus beanstandete Bilder trotz einer Warnmeldung an, werden die Eltern darüber informiert – für LGBTQ-Kinder und Kinder in heimischen Missbrauchssituationen werde das schnell gefährlich.

Apples Software-Chef räumte bereits ein, das maschinelle Klassifikationsverfahren zur Erkennung von Nacktbildern könne Fehler machen und getäuscht werden.

Neben dem iMessage-Nacktbildfilter plant Apple außerdem, iCloud-Fotos auf bekanntes Material von sexuellem Kindesmissbrauch (Child Sexual Abuse Material – CSAM) zu prüfen. Im Unterschied zu anderen Cloud-Anbietern arbeitet Apples System zum Teil lokal auf dem iPhone – der Nutzer wird praktisch durch sein eigenes Gerät überwacht. Bei rund 30 Treffern wird Apple informiert und kann die Bilder durch eigene Mitarbeiter sichten – und dann an die zuständigen Behörden melden.

Kindesmissbrauch werde auch ohne das Brechen von Verschlüsselung und das Scannen privater Fotos strafrechtlich verfolgt, schreibt die Organisation. Derartige schreckliche Verbrechen an Kindern dürften Apple nicht als Vorwand dienen, um Überwachungssoftware auf vielen Millionen iPhones zu installieren. Die Einführung der Scan-Funktionen führe zwangsläufig dazu, dass Regierungen noch mehr Überwachungs- und Zensurfunktionen fordern werden.

Apple stellt sein geplantes System als Datenschutz-freundlicher dar als gängige Systeme, mit denen andere Konzerne in der Cloud auf CSAM-Material scannen. Die lokale Umsetzung der Funktion ermögliche eine Überprüfung durch Sicherheitsforscher, so Apple. Wie diese Prüfung genau erfolgen soll, bleibt weiterhin offen. Parallel geht der Konzern juristisch die Sicherheitsfirma Corellium vor, die als einziger Anbieter iOS-Sicherheitsforschung per Virtualisierung ermöglicht.

Mehr von Mac & i Mehr von Mac & i

(lbe)