CSAM-Erkennung auf dem iPhone: Apple hält lokalen Kinderporno-Scanner für sicher

In einem Threat Model Review beschreibt der Konzern Angriffsszenarien. Da die Technik Teil von iOS ist, sei sie von Security-Experten "intrinsisch überprüfbar".

Lesezeit: 3 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 98 Beiträge

(Bild: Apple)

Von
  • Ben Schwan

Apple hält seinen umstrittenen lokalen Kinderporno-Scanner, der ab iOS 15 und iPadOS 15 Teil von iPhone und iPad werden soll, für grundlegend sicher. Dazu hat das Unternehmen zum Wochenende nun ein sogenanntes Security Threat Model Review publiziert, in dem mögliche Angriffsszenarien auf das System durchgesprochen werden.

In dem 14 Seiten umfassenden Dokument versichert der Konzern unter anderem, dass das unter Sicherheitsexperten massiv umstrittene System so gestaltet sei, dass ein Nutzer weder "Apple noch jeder anderen einzelnen Entität" in Bezug auf dessen Funktionsweise trauen müsse. Selbst "jede Anzahl möglicherweise miteinander konspirierender Entitäten" aus dem gleichen souveränen Rechtsraum ("also unter Kontrolle der gleichen Regierung") könne dies nicht, behauptet der Konzern.

Mehr von Mac & i Mehr von Mac & i

Dies werde durch "verschiedene ineinandergreifende Mechanismen" sichergestellt. Dazu gehöre Apples einheitliches Software-Update, das man weltweit für die Ausführung auf den Geräten verteile, das "intrinsisch überprüfbar" sei. iOS und iPadOS sind allerdings größtenteils proprietär, ein Code-Review des CSAM-Scanners ("Child Sexual Abuse Material") sieht der Konzern aktuell nicht vor. Er könnte damit allerdings die Überprüfung über speziell ausgestattete gerootete iPhones meinen, die der Konzern an ausgewählte Sicherheitsforscher im Rahmen des "Apple Security Research Device Program" ausgibt.

Weiterhin betont Apple, man nutze nie Listen mit Hashwerten von Missbrauchsmaterial von nur einer Organisation, sondern "sich überschneidende Hashes von zwei oder mehr Kinderschutzorganisationen". Auch das soll verhindern, dass Regierungen dem System Inhalte unterschieben, die kein CSAM sind. Weiterhin soll es ein Auditing durch externe Prüfer geben können. Apple plant schließlich, einen Knowledge-Base-Artikel auf seiner Website zu veröffentlichen, der den Root-Hash-Wert der aktuellen verschlüsselten CSAM-Hash-Datenbank enthält, die künftig Teil jedes Betriebssystemupdates werden soll. Damit könnte ein Nutzer den Root-Hash überprüfen – um sicherzustellen, dass die Datenbank wirklich von Apple stammt.

Das Problem bei all diesen Sicherheitsmaßnahmen bleibt allerdings, dass Apple von Marktzulassungen einzelner Regierungen abhängig ist. Das betont auch eine Analyse der Netzbürgerrechtsorganisation EFF. Das Unternehmen habe eine Tür geöffnet für Überwachung und Zensur: Existiere diese erst einmal, werde sie auch genutzt ("If You Build It, They Will Come"). Die bekannte Sicherheitsforscherin Katie Moussouris argumentierte unterdessen auf Twitter, Apple könne sich nicht einfach gesetzlichen Regeln in einem Land verweigern, weil dann der Zugriff auf den gesamten Markt gesperrt würde. "Die werden nicht illegal in einem Land operieren und sich als Konzern wie eine souveräne Nation aufführen." Apple behauptet bislang steif und fest, man werde sich staatlichen Anordnungen, den lokalen CSAM-Scanner für Zensur und Überwachung einzusetzen, widersetzen. (bsc)