Actualité

Divers

Protection des enfants : le système CSAM divise, Apple publie une FAQ [sondage]

Par Laurence - Publié le

Le nouveau programme de protection des enfants -notamment le système d'analyse des photos à caractère pédophile- ne semble pas faire l'unanimité. Au delà de la finalité des mesures, ce sont les procédés mis en place qui opposent deux camps : ceux qui soutiennent la lutte contre la pédo-pornographie par tous moyens et ceux qui estiment qu'il y a là un risque trop important en matière de vie privée et de confidentialité.

Protection des enfants : le système CSAM divise, Apple publie une FAQ [sondage]


Ce weekend, plusieurs CEO se sont d'ailleurs prononcés contre ces futures fonctions d'iOS 15, dénonçant une atteinte manifestement disproportionnée aux libertés individuelles ou craignant une possible dérive (surveillance des personnes, introduction d'une backdoor, détournement du système...). Parmi eux, on trouve Will Cathcart (WhatsApp) qui monte au créneau sur Twitter, précisant qu'un tel système ne sera jamais mis en place sur la plateforme. Ou encore Tim Sweeney (Epic Games) dont le combat contre Cupertino n'est pas à présenter.

Une lettre ouverte a également été mise en ligne, demandant à Apple de ne pas déployer ses nouveaux outils de sécurité, avec des signataires plus ou moins connus, comme Edward Snowden ou Matthew Green (qui avait dévoilé le projet jeudi matin).

En réponse, Apple vient d’ailleurs de publier une FAQ intitulée Protections étendues pour les enfants, qui vise à apaiser les préoccupations des utilisateurs en matière de confidentialité et à calmer les contestations. Devant l’ampleur des débats, la firme a entendu rappelé que les fonctions présentées (le scan CSAM, le filtre d’iMessage ou celui de Siri) sont différentes et ne se recoupent pas. Depuis que nous avons annoncé ces fonctionnalités, de nombreux intervenants, y compris des organismes de protection de la vie privée et des organismes de sécurité des enfants, ont exprimé leur soutien à cette nouvelle solution, et certains ont posé des questions. Ce document sert à répondre à ces questions et à fournir plus de clarté et de transparence dans le processus.



Rappelons que jeudi soir, Apple a annoncé le déploiement de nouvelles fonctions destinées à la protection des enfants et à prévenir toute sorte d'abus ou d'attaques de prédateurs sexuels. La première concerne le mécanisme CSAM (pour child sexual abuse material, c'est à dire la capacité de détecter des contenus pédophiles), qui ne portera pour le moment que sur les iPhone et iPad américains, avec iCloud Photo activé.

Ce dernier utilise des algorithmes très spécifiques couplés à une base de données de hashages identifiés en tant que contenus à caractère pédophile. Ces derniers effectueront une comparaison directement sur l'appareil avec les photos de l’utilisateur, et les signalera lors du téléchargement sur Photos iCloud.

Si le match est concluant, la photo recevra un marqueur spécifique. Au bout d'un certain nombre, une équipe humaine vérifiera et appliquera une procédure spécifique, impliquant la désactivation du compte et l'information d'un Centre habilité. Rappelons que Cupertino ne mentionne rien concernant un déploiement hors USA. Mais cela pourrait n'être jamais le cas au vu du nombre d'appareils concernés ou tout simplement des différences de législations dans les pays.