iPhone-CSAM-Scans: Warum Apple im Kampf gegen Missbrauchsbilder zurückrudert

Kinderpornografie ist ein schreckliches Massenverbrechen. Apple möchte sicherstellen, dass die Kriminellen dafür nicht die iCloud verwenden können. Doch wie?

Lesezeit: 18 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 8 Beiträge

(Bild: dpa; Montage Mac & i)

Von
  • Christoph Dernbach
Inhaltsverzeichnis

Die Motive für die jüngste Kinderschutzinitiative von Apple stellte kaum jemand in Frage: „Wir möchten dazu beitragen, Kinder vor Missbrauchstätern zu schützen, die Kommunikationsmittel nutzen, um sie anzuwerben und auszubeuten, und die Verbreitung von Material über sexuellen Kindesmissbrauch einzudämmen“, begründete der Konzern die Maßnahmen, die in den USA mit iOS 15, iPadOS 15, watchOS 8 und macOS Monterey eingeführt werden sollten.

Doch insbesondere das Scannen des iPhones nach bekannten Missbrauchsdarstellungen erwies sich als so kontrovers, dass Apple Anfang September in einer dürren Pressemitteilung die Reißleine zog: „Aufgrund des Feedbacks von Kunden, Interessengruppen, Forschern und anderen haben wir beschlossen, uns in den kommenden Monaten mehr Zeit zu nehmen, um Anregungen zu sammeln und Verbesserungen vorzunehmen, bevor wir diese äußerst wichtigen Funktionen zum Schutz von Kindern veröffentlichen.“

So ein PR-Debakel hat Apple lange nicht erlebt. Wie konnte sich der Konzern so in die Ecke manövrieren? An der guten Absicht mangelte es nicht. Selbst die Kritiker räumen ein, dass es handfeste Gründe gibt, mehr gegen die Verbreitung von Missbrauchsdarstellungen im Netz vorzugehen, die rasant angestiegen ist. In den letzten 20 Jahren hat nach einem Report des Europäischen Parlaments der sexuelle Missbrauch von Kindern und dessen Zurschaustellung im Internet weltweit drastisch zugenommen. Diese Zahlen steigen allerdings auch, weil die Fahnder in den USA, in Deutschland und anderen Ländern inzwischen mehr unternehmen.