Scan de l'iPhone : Apple enlève toutes les mentions relatives au CSAM sur son site web
Par Laurence - Publié le
Cet été, Cupertino avait présenté de nouvelles fonctions destinées à la protection des enfants et à prévenir toute sorte d'abus ou d'attaques de prédateurs sexuels (Child Sexual Abuse Material -CSAM). Globalement, il s'agit de fonctionnalités sur ses plateformes visant à protéger les enfants, y compris un système capable de détecter les contenus pédo-pornographiques dans iCloud tout en préservant la confidentialité des utilisateurs. Ces dernières regroupaient trois domaines : iMessage, Siri, iCloud.
A partir de cette année (avec iOS 15 et iPadOS 15), Apple serait en mesure de détecter les images contenant des caractéristiques d'abus sexuel sur mineur stockées dans Photos sur iCloud, ce qui permettrait de signaler ces cas au National Center for Missing and Exploited Children (NCMEC), une organisation à but non lucratif qui travaille en collaboration avec les organismes américains d'application de la loi. La firme californienne avait d'ailleurs insisté sur le fait que l'analyse se fera uniquement sur les photos stockées sur iCloud et non sur l'iPhone.
Apple a poursuivi le déploiement des fonctionnalités de sécurité des communications pour Messages, qui a été mis en ligne plus tôt cette semaine avec la sortie d'iOS 15.2. Toutefois, Apple a décidé d'en retarder le déploiement suite aux vives critiques.