Actualité

Divers

Protection des enfants / CSAM : un actionnaire d'Apple exige davantage de surveillance

Par Laurence - Publié le

Les nouveaux plans en matière de protection des enfants n’ont pas vraiment l’air de plaire au vu du nombre de critiques fusant de toutes parts. C’est aujourd’hui Christian Brothers Investment Services, un fonds d’investissement et actionnaire d’Apple à hauteur de 271 millions de dollars (valeur au 31 août), qui se place en fervent défenseur des droits des enfants. La firme fait pression sur Cupertino pour qu'elle fasse davantage pour lutter contre la propagation du matériel pédopornographique (CSAM), avec une attention particulière sur les vidéos.

Ainsi, le gestionnaire du fonds, Jeff McCroy, a envoyé en août une lettre à Apple (via Bloomberg) pour demander des mesures spécifiques concernant les vidéos CSAM. Il indique ainsi que le secteur de la technologie dans son ensemble a mis du temps à résoudre ce problème important, précisant que les entreprises devraient partager des technologies d'intelligence artificielle et d'autres outils pour lutter contre les vidéos contenant des images de violence sexuelle.

Protection des enfants / CSAM : un actionnaire d'Apple exige davantage de surveillance


Selon lui, l’attitude à adopter est évidente : C'est décevant d'apprendre qu'Apple retarde ses efforts de changement. Plus il faut de temps pour agir, plus les enfants risquent d'être exposés et blessés. Nous espérons qu'Apple accélérera ces améliorations prévues et prendra des mesures le plus tôt possible.

Rappelons qu’en effet, Cupertino a décidé de prendre plus de temps au cours des prochains mois pour recueillir des commentaires et apporter des améliorations, au vu des protestations assez importantes. Les fonctionnalités présentées fin août prévoient la numérisation des bibliothèques de photos iCloud des utilisateurs à la recherche de matériel d'abus sexuel d'enfants, le renforcement de la sécurité des communications pour avertir enfants et parents lors de la réception / envoi de photos sexuellement explicites, et ainsi que l'élargissement des directives CSAM via la recherche Siri .