Meta, Snap et TikTok s’allient pour lutter contre le suicide
Par Vincent Lautier - Publié le
Meta, Snap et TikTok ont annoncé le lancement de Thrive, une initiative visant à empêcher la diffusion de contenus incitant au suicide ou à l’automutilation sur leurs plateformes. Ces entreprises, en partenariat avec la Mental Health Coalition, mettent en place un programme de partage de signaux pour repérer rapidement les contenus à risque.
Le principe de Thrive (que l’on peut traduire par
Selon Antigone Davis, vice-présidente de la sécurité globale chez Meta, les défis viraux et les contenus nocifs ne se limitent pas à une seule plateforme.
Pour le Docteur Dan Reidenberg, expert en prévention du suicide et directeur de Thrive, cette initiative représente une avancée considérable dans la lutte contre la crise de santé publique liée au suicide.
Entre avril et juin 2024, Meta a pris des mesures contre plus de 12 millions de contenus relatifs au suicide et à l’automutilation sur Facebook et Instagram. La plateforme autorise bien les discussions sur ces sujets sensibles, mais elle impose des restrictions strictes pour éviter la diffusion de contenus graphiques. Meta rend aussi ces contenus plus difficiles à trouver via les moteurs de recherche et les cache des utilisateurs adolescents, même si ces derniers suivent les comptes concernés.
Thrive est une approche intéressante dans la manière dont les entreprises technologiques abordent la question du suicide et de l’automutilation. Cette initiative montre surtout que Meta, Snap et TikTok ont pris conscience qu’ils ne faisaient clairement pas assez pour s’attaquer à ce problème jusqu’à présent.
Comment fonctionne Thrive ?
Le principe de Thrive (que l’on peut traduire par
S’épanouir) repose sur un système de partage de “hashes”, des codes correspondant aux images ou vidéos représentant des comportements suicidaires ou d’automutilation. Lorsqu’un contenu illicite ou potentiellement à risque est détecté sur une de ces plateformes, ces entreprises peuvent partager ces
hashesentre elles afin de prendre des mesures immédiates. Selon Meta, ce processus ne contient aucune information personnelle des utilisateurs, garantissant ainsi la sécurité des données. C’est d’ailleurs Meta qui assure et prend en charge l’infrastructure technique de Thrive, utilisant la même technologie que celle de son programme Lantern, déjà en place pour lutter contre l’exploitation des enfants en ligne.
Pourquoi une telle collaboration est-elle cruciale ?
Selon Antigone Davis, vice-présidente de la sécurité globale chez Meta, les défis viraux et les contenus nocifs ne se limitent pas à une seule plateforme.
Il est impératif que l’industrie technologique collabore pour empêcher leur propagation, souligne-t-elle. L’objectif de cette collaboration est donc de renforcer la capacité des plateformes à réagir rapidement et efficacement face à ce type de contenu à risques.
Pour le Docteur Dan Reidenberg, expert en prévention du suicide et directeur de Thrive, cette initiative représente une avancée considérable dans la lutte contre la crise de santé publique liée au suicide.
Le partage de signaux entre les plateformes est une réponse novatrice qui améliore la protection des utilisateurs à l’échelle mondiale, a-t-il déclaré. Toute la difficulté du projet est de proposer un environnement sain, où les utilisateurs peuvent discuter de leurs difficultés, sans encourager ni promouvoir des comportements dangereux.
Des actions concrètes déjà en place
Entre avril et juin 2024, Meta a pris des mesures contre plus de 12 millions de contenus relatifs au suicide et à l’automutilation sur Facebook et Instagram. La plateforme autorise bien les discussions sur ces sujets sensibles, mais elle impose des restrictions strictes pour éviter la diffusion de contenus graphiques. Meta rend aussi ces contenus plus difficiles à trouver via les moteurs de recherche et les cache des utilisateurs adolescents, même si ces derniers suivent les comptes concernés.
Thrive est une approche intéressante dans la manière dont les entreprises technologiques abordent la question du suicide et de l’automutilation. Cette initiative montre surtout que Meta, Snap et TikTok ont pris conscience qu’ils ne faisaient clairement pas assez pour s’attaquer à ce problème jusqu’à présent.