Pourquoi Apple a renoncé au scan de l'iPhone (CSAM) ?
Par Laurence - Publié le
Très critiqué lors de sa présentation en aout 2021, Apple avait finalement abandonner son système CSAM, le fameux scan de l'iPhone qui permettait de rechercher des images à caractère pédopsychiatries-pornographique hébergées sur iCloud Photos.
En décembre 2022, la décision n'avait pas été très motivée mais il semble qu'Apple vienne de fournir une explication un peu plus complète. Cette déclaration (via Wired) vient en fait répondre à une demande de l'association Heat Initiative, et ce, par l'intermédiaire d'Erik Neuenschwander (Apple’s director of user privacy and child safety).
Autrement dit après avoir mis les intérêts dans la balance, l'ingérence dans la vie privée et le risque de piratage de données (donc d'affaiblir la sainte sécurité d'Apple) étaient trop importants. Aussi il convenait de trouver un autre moyen tendant vers la lutte contre la pédo-pornographie. Aussi, elle en a conclu qu'elle ne pouvait pas procéder au développement d'un mécanisme d'analyse comme le CSAM.
Cette réponse intervient à un moment tendu où le débat sur le chiffrement a été relancé par le gouvernement britannique. Ce dernier envisage de modifier son régime légal pour obliger les entreprises techs à désactiver les fonctionnalités de sécurité comme le chiffrement de bout en bout, et ce, sans en informer les utilisateurs (sous certaines conditions). Dans ces conditions, Apple avait précisé qu'elle retirerait ses services, y compris FaceTime et iMessage, au Royaume-Uni si une telle loi était adoptée dans sa forme actuelle.
En août 2021, la firme californienne avait été très critiquée lors de la présentation de son système CSAM- Child Sexual Abuse Material et elle avait été amenée à suspendre sa mise en place en décembre dernier. A cette époque, elle avait dans la plus grande discrétion enlevé toutes les mentions relatives au CSAM, confirmant la controverse autour des mesures envisagées.
Globalement, il s'agissait de fonctionnalités sur ses plateformes visant à protéger les enfants, y compris un système capable de détecter les contenus pédo-pornographiques dans iCloud tout en préservant la confidentialité des utilisateurs. Ces dernières regroupaient trois domaines : iMessage, Siri, iCloud. Très rapidement dénommé
Trop de risque pour la confidentialité des données
En décembre 2022, la décision n'avait pas été très motivée mais il semble qu'Apple vienne de fournir une explication un peu plus complète. Cette déclaration (via Wired) vient en fait répondre à une demande de l'association Heat Initiative, et ce, par l'intermédiaire d'Erik Neuenschwander (Apple’s director of user privacy and child safety).
L'abus sexuel des enfants est un acte odieux et nous nous engageons à briser la chaîne de coercition et d'influence rendant les enfants vulnérables. [...] La numérisation des données iCloud stockées pour chaque utilisateur individuel créerait de nouveaux vecteurs de menace que les voleurs de données pourraient trouver et exploiter[...] Cela pourrait nous amener sur une pente glissante avec des conséquences imprévues. La recherche d'un type de contenu ouvre la porte à la surveillance en masse et pourrait donner l'envie de rechercher d'autres systèmes de messagerie chiffrées.(Erik Neuenschwander, Apple’s director of user privacy and child safety)
Autrement dit après avoir mis les intérêts dans la balance, l'ingérence dans la vie privée et le risque de piratage de données (donc d'affaiblir la sainte sécurité d'Apple) étaient trop importants. Aussi il convenait de trouver un autre moyen tendant vers la lutte contre la pédo-pornographie. Aussi, elle en a conclu qu'elle ne pouvait pas procéder au développement d'un mécanisme d'analyse comme le CSAM.
Cette réponse intervient à un moment tendu où le débat sur le chiffrement a été relancé par le gouvernement britannique. Ce dernier envisage de modifier son régime légal pour obliger les entreprises techs à désactiver les fonctionnalités de sécurité comme le chiffrement de bout en bout, et ce, sans en informer les utilisateurs (sous certaines conditions). Dans ces conditions, Apple avait précisé qu'elle retirerait ses services, y compris FaceTime et iMessage, au Royaume-Uni si une telle loi était adoptée dans sa forme actuelle.
En quoi consistait le CSAM ?
En août 2021, la firme californienne avait été très critiquée lors de la présentation de son système CSAM- Child Sexual Abuse Material et elle avait été amenée à suspendre sa mise en place en décembre dernier. A cette époque, elle avait dans la plus grande discrétion enlevé toutes les mentions relatives au CSAM, confirmant la controverse autour des mesures envisagées.
Globalement, il s'agissait de fonctionnalités sur ses plateformes visant à protéger les enfants, y compris un système capable de détecter les contenus pédo-pornographiques dans iCloud tout en préservant la confidentialité des utilisateurs. Ces dernières regroupaient trois domaines : iMessage, Siri, iCloud. Très rapidement dénommé
scan de l'iPhone, la fonction avait déclenché un tollé d'opposition de la part des utilisateurs, des officiels ou des chercheurs en sécurité.