Mit iOS 15 hätte die Funktion eingeführt werden sollen: Apple wollte direkt auf dem iPhone nach „CSAM“ (Child Sexual Abuse Material), kurz gesagt Kinderpornografie, suchen. Jetzt hat Apple bekannt gegeben, dass die Funktion nicht eingeführt wird.
Die Vorgehensweise, hier darüber berichtet, ist eigentlich nicht problematisch. Schwieriger wird es beim Argument, dass diese Suchfunktion nicht auch für andere Zwecke missbraucht werden können.
Apple kann nicht für Privatsphäre werben, dann aber im Hintergrund auf dem iPhone die eigenen Bilder durchforsten.
«Letzten Monat haben wir Pläne für Funktionen angekündigt, die dabei helfen sollen, Kinder vor Kriminellen (‹Predators›) zu schützen, die Kommunikationstools nutzen, um sie anzuwerben und auszubeuten, und die Verbreitung von Material über sexuellen Kindesmissbrauch einzuschränken.
Aufgrund des Feedbacks von Kunden, Interessengruppen, Forschern und anderen haben wir beschlossen, uns in den kommenden Monaten mehr Zeit zu nehmen, um Anregungen zu sammeln und Verbesserungen vorzunehmen, bevor wir diese äusserst wichtigen Funktionen zum Schutz von Kindern freigeben.»