Apple kann sich Kinderporno- und Nackt-Scanner auch für Dritt-Apps vorstellen

Es sei ein "wünschenswertes Ziel", dass die umstrittenen Funktionen künftig auch Third-Party-Entwicklern zur Verfügung gestellt werden, so der Konzern.

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 349 Beiträge

Person mit iPhone.

(Bild: chainarong06/Shutterstock.com)

Von
  • Ben Schwan

Apple wird zwei neue Funktionen, die ab Herbst in iOS 15, iPadOS 15 sowie teilweise auch unter macOS 12 alias Monterey integriert werden sollen, wohl zeitnah auch Entwicklern von Dritt-Apps anbieten. Das kündigte der Konzern in einem Gespräch mit US-Journalisten an, das am Montag stattfand. Apple wollte mit der Frage-und-Antwort-Sitzung die massiven Bedenken zerstreuen, die Sicherheitsexperten, Netzbürgerrechtler und Mitglieder der Zivilgesellschaft an den für den Kinderschutz gedachten Features geäußert haben.

Der iPhone-Hersteller plant, künftig seine Geräte automatisch lokal auf kinderpornografische Bilder zu scannen, bevor diese in iCloud-Fotos hochgeladen werden. Dies birgt, kritisieren Experten, ein hohes Missbrauchspotenzial, weil Verschlüsselung so umgangen werden kann. Apple sieht das nach wie vor nicht so – die Funktion diene allein dem Kinderschutz und schütze die Privatsphäre, alles andere seien "Missverständnisse", so ein Manager des Konzerns in einem internen Memo.

Lesen Sie zum iPhone-Scanning:

Entsprechend ist es für das Unternehmen auch ein "wünschenswertes Ziel", die Kinderschutz-Funktionen in Form von APIs für Third-Party-Anwendungen zur Verfügung zu stellen. Apple nannte hierzu keine Zeitangaben, es ist aber typisch für das Unternehmen, Systemeigenschaften zunächst für eigene Programme zur Verfügung zu stellen und diese dann später auch seiner Entwicklergemeinde zu überlassen.

Denkbar ist, dass die Erkennung von CSAM-Inhalten ("Child Sexual Abuse Material") neben iCloud-Fotos auch für andere Programme integriert wird, die über eine Upload-Funktion verfügen. Eine zweite neue Funktion in iOS 15, iPadOS 15 und macOS 12, ein Nackt-Scanner für iMessage, der verhindern soll, dass Minderjährige explizites sexuelles Material ansehen – bei Personen unter 13 kann dies sogar automatisch Eltern gemeldet werden –, ist eine zweite Funktion, von der Apple offenbar erwägt, sie auch Third-Pary-Apps bereitzustellen. Denkbar wäre hier eine Integration in Snapchat, WhatsApp oder Instagram, schreibt MacRumors.

Apples Pläne nähren die Sorge, dass die neuen Funktionen zum Kinderschutz zum Dammbruch werden könnten. Der Konzern hatte zunächst mitgeteilt, bei der Implementierung schrittweise vorgehen zu wollen. Die Funktion ist aktuell nur für die Vereinigten Staaten von Amerika vorgesehen, soll aber "länderweise" in andere Regionen kommen. Kritiker befürchten, dass undemokratische Staaten die Funktion für ganz anderes Material als Kinderpornografie nutzen könnten. Apple zeige mit der Funktion, dass dies technisch möglich ist.

Mehr von Mac & i Mehr von Mac & i

(bsc)