"Große Gefahr": CSAM-Scanning auf iPhones stößt auf Kritik aus dem Bundestag

Der Vorsitzende des Ausschusses Digitale Agenda hat Apple aufgerufen, die geplante Scan-Funktion einzustampfen. Sie untergrabe vertrauliche Kommunikation.

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 190 Beiträge

(Bild: BongkarnGraphic/Shutterstock.com)

Von
  • Leo Becker

Die Kritik an Apples Plänen zu neuen Kinderschutzfunktionen reißt nicht ab: Mit der geplanten lokalen Erkennung von Missbrauchsfotos (Child Sexual Abuse Material – CSAM) auf iPhones beschreite Apple einen "gefährlichen Weg" und untergrabe die "sichere und vertrauliche Kommunikation", heißt es aus dem Bundestagsausschuss Digitale Agenda. Apple müsse von der Umsetzung der Funktion absehen – sowohl zur Vermeidung "absehbarer Probleme" für den Konzern als auch zum Schutz der modernen Informationsgesellschaft.

Das geplante CSAM-Scanning sei der "größte Dammbruch für die Vertraulichkeit der Kommunikation, den wir seit der Erfindung des Internets erleben", schreibt der Vorsitzende des Ausschusses Manuel Höferlin (FDP) in einem Brief, der am Dienstag an Apple-Chef Tim Cook übermittelt wurde. Jeder gescannte Inhalt zerstöre letztlich das Vertrauen von Nutzerinnen und Nutzern darin, dass ihre Kommunikation nicht überwacht wird. Ohne vertrauliche Kommunikation werde das Internet aber zum "größten Überwachungsinstrument der Geschichte".

Apples Versprechen zu einer engen Begrenzung der Funktionen könne daran nichts ändern, betonte Höferlin. Auch eine enge Hintertür bleibe schließlich eine Hintertür, schreibt der Bundestagsabgeordnete unter Verweis auf die Bürgerrechtsorganisation EFF, die Apples geplante Funktionen bereits scharf kritisiert hatte. Anfragen zu einer Ausweitung der Scanning-Funktion auf andere Inhalte seien absehbar – und Apple könnte durch Ablehnung solcher Anfragen den Zugang zu großen Märkten verlieren.

Lesen Sie auch

Zu Apples für Herbst geplanten Kinderschutzfunktionen gehört ein Nacktbildfilter für iMessage sowie ein davon unabhängiges System zur Entdeckung bekannten Missbrauchsmaterials in iCloud-Fotos, das zu einem Teil lokal auf iPhones und iPads arbeiten soll. Bei Erreichen eines bestimmten Schwellenwertes von rund 30 Treffern wird Apple informiert und kann die Fotos sichten – und im Anschluss an zuständige Behörden melden. Nach hektischer Krisenkommunikation hat Apples Software-Chef Ende vergangener Woche nochmals versucht, Bedenken auszuräumen. Apple-Chef Tim Cook hat sich zum Thema bislang nicht geäußert.

Mehr von Mac & i Mehr von Mac & i

(lbe)