WhatsApp, iMessage, Signal : pourquoi l'Europe veut scanner l'iPhone
Par Laurence - Publié le
Une nouvelle législation en devenir
En effet, l'Union européenne planche sur de nouvelles règles imposant une analyse en masse des messages numériques, y compris les messages chiffrés. Ce projet de règlement CSAR (
Child sexuel abuse regulation) -qui est encore à l'étude par les différents pays membres- vise à détecter les contenus abusifs et notamment lutter contre la pédopornographie et toutes les formes de violence envers les enfants. En cas de vote favorable, le texte pourrait devenir une réalité normative.
Mais en pratique, cela voudrait dire que toutes les plateformes envoyant des messages chiffrés (WhatsApp, Telegram, Signa, ou encore Messages) seront obligées de scanner les smarphones. Pour cela, l'analyse des contenus échangés -surtout les photos et vidéos- passerait par un algorithme (voire une IA ?) pour évaluer un potentiel caractère incriminé. En cas de résultat positif, les plateformes auraient alors l'obligation d'en informer les autorités, pour identifier et appréhender d'éventuels pédocriminels.
En l'état du texte soumis, l'utilisateur disposerait de deux choix, soit accepter le scan du Chat Control (et conserver le chiffrement vis-à-vis des tiers), soit renoncer à envoyer des photos et vidéos via les messageries chiffrées. Ce qui fragiliserait le secret des correspondances.
Des réactions mitigées
Le projet ne fait pas vraiment l'unanimité. Les autorités européennes de protection des données, les défenseurs de la vie privée, les éditeurs de messageries chiffrées et certains états membres dénoncent un risque pour les libertés et craignent une brèche dans les technologies qui protègent la confidentialité des messageries chiffrées.
Mais il est nécessaire de trouver une solution, car la détection de ces contenus illicites s'appuie actuellement sur la coopération volontaire des plateformes, et ce, dans un cadre juridique temporaire qui s'arrêtera en avril 2026. En outre, vu l'état des technologies, le système actuel est considéré comme insuffisant par les associations de protection de l'enfance en faveur d'un mécanisme de détection automatique. Le débat promet donc d'être houleux au vu des enjeux.
Trop de risque pour la confidentialité des données
Très critiqué lors de sa présentation en aout 2021, Apple avait finalement abandonner son système CSAM, le fameux scan de l'iPhone qui permettait de rechercher des images à caractère pédopsychiatries-pornographique hébergées sur iCloud Photos.
En décembre 2022, la décision de retrait n'avait pas été très motivée mais il semble qu'Apple vienne de fournir une explication un peu plus complète. Cette déclaration (via Wired) vient en fait répondre à une demande de l'association Heat Initiative, et ce, par l'intermédiaire d'Erik Neuenschwander (Apple’s director of user privacy and child safety).