Πιεσμένη για αρκετούς μήνες να εξηγήσει από τις ενώσεις προστασίας παιδιών, η Apple εξήγησε επιτέλους τους λόγους για τους οποίους εγκατέλειψε την αυτόματη επαλήθευση περιεχομένου παιδικής πορνογραφίας στις βιβλιοθήκες φωτογραφιών του iCloud . )  Υπενθυμίζουμε ότι η εταιρεία του Κουπερτίνο έπρεπε αρχικά να ενσωματώσει την ανίχνευση περιεχομένου CSAM ( Child Sexual Abuse Material στα τέλη του 2021, αλλά τελικά οπισθοχώρησε μπροστά στις πολυάριθμες επικρίσεις από ειδικούς σε θέματα ασφάλειας υπολογιστών και ενώσεις για την υπεράσπιση του ατομικές ελευθερίες. Ως εκ τούτου, η Apple έδωσε μια λεπτομερή απάντηση στην εταιρεία Heat Initiative (μια ένωση κατά του CSAM), μια απάντηση που συντάχθηκε από τον Erik Neuenschwander , Αντιπρόεδρο της Apple Privacy User Privacy and Child Safety.

«Το περιεχόμενο παιδικής πορνογραφίας είναι αποκρουστικό και δεσμευόμαστε να σπάσουμε την αλυσίδα του εξαναγκασμού και της επιρροής που κάνει τα παιδιά ευάλωτα σε τέτοιο περιεχόμενο», γράφει ο Erik Neuenschwander. Προσθέτει: «Ωστόσο, μετά από συνεργασία με μια ομάδα ερευνητών στον τομέα της ιδιωτικής ζωής και της ασφάλειας, τα ψηφιακά δικαιώματα ομάδες και υποστηρικτές της ασφάλειας των παιδιών, η εταιρεία κατέληξε στο συμπέρασμα ότι δεν μπορούσε να προχωρήσει στην ανάπτυξη ενός μηχανισμού σάρωσης CSAM, ακόμη κι αν είχε σχεδιαστεί ειδικά για τη διατήρηση της εμπιστευτικότητας. »

Ο Neuenschwander σημειώνει περαιτέρω ότι «η ανάλυση των ιδιωτικά αποθηκευμένων δεδομένων iCloud κάθε χρήστη θα δημιουργούσε νέα διανύσματα απειλών που θα μπορούσαν να βρουν και να εκμεταλλευτούν οι ίδιοι οι κλέφτες δεδομένων». «Θα μπορούσε επίσης να οδηγήσει σε ολισθηρή κλίση προς ακούσιες συνέπειες. Η αναζήτηση ενός τύπου περιεχομένου, για παράδειγμα, ανοίγει την πόρτα στη μαζική παρακολούθηση και μπορεί να προκαλέσει την επιθυμία αναζήτησης διαφορετικών τύπων περιεχομένου σε άλλα κρυπτογραφημένα συστήματα ανταλλαγής μηνυμάτων .