Les nouvelles règles de modération des contenus déjà sur Threads
Par Laurence - Publié le
Mark Zuckerberg a récemment annoncé une série de changements majeurs dans les politiques de modération des contenus de ses plateformes, notamment en introduisant des Community Notes. Cette fonctionnalité, qui permet aux utilisateurs de contribuer au contexte des publications, serait déjà en cours de déploiement sur Threads.
Alors que Meta avait jusqu’à présent misé sur des contrôles de vérification des faits via des entreprises indépendantes, l’entreprise opte désormais pour une approche collaborative. Avec les Community Notes, les utilisateurs peuvent rédiger des annotations anonymes sur les publications qu’ils jugent inexactes ou trompeuses.
Le développeur et chercheur en sécurité Alessandro Paluzzi vient de découvrir que cette annonce serait déjà effective. La fonctionnalité serait déjà intégrée –mais cachée– dans l’application Threads sur l’iPhone. Une fois activée, elle permet à tout utilisateur d’ajouter une note informative à une publication, à condition que celle-ci soit jugée utile par d’autres membres de la communauté.
Selon un article de support publié par Meta, les utilisateurs peuvent utiliser les Community Notes pour fournir des
Mark Zuckerberg a reconnu que l’idée lui a été inspirée par une fonctionnalité similaire déployée sur X. Meta prévoit de lancer cette fonctionnalité aux États-Unis dans un premier temps, avec une extension progressive à l’international prévue pour 2026. En attendant, les utilisateurs intéressés et voulant contribuer au programme peuvent déjà rejoindre une liste d’attente, via un bouton dédié sur Instagram et Threads.
L’introduction des Community Notes n'est pas la seule pomme de discorde. Elle s’accompagne en effet d’autres mesures plus controversées. Mark Zuckerberg a annoncé la fin des restrictions sur les sujets sensibles, comme la politique et les droits de l’homme, ainsi que la suppression du programme interne de diversité, égalité et inclusion de Meta.
Ces décisions ont provoqué un tollé parmi de nombreux utilisateurs et observateurs, qui craignent une dérégulation accrue des contenus sensibles sur les plateformes du groupe. En France, deux voix se sont fait tout particulièrement entendre, celle de la diplomatie française et celle de Clara Chappaz, la ministre chargée du Numérique.
Si Meta présente cette décision comme des vœux pieux et espère que cette approche participative apportera plus de transparence et de diversité dans la gestion des contenus, il reste à voir comment cette initiative sera accueillie à grande échelle.
Pour l’instant, aucun calendrier précis n’a été communiqué quant au déploiement complet des Notes sur l’ensemble des plateformes de Meta. Le problème réside davantage sur l'effectivité du contrôle par des tiers, par les utilisateurs ou par l'IA ? Actuellement, le programme de fact-checking de Meta, qui collabore avec plus de 80 médias à travers le monde, reste actif en Europe. L’Agence France-Presse (AFP), participant à ce programme dans 26 langues, continue d’être rémunérée pour ses vérifications sur Facebook, Instagram et WhatsApp.
Une alternative à une vérification « classique »
Alors que Meta avait jusqu’à présent misé sur des contrôles de vérification des faits via des entreprises indépendantes, l’entreprise opte désormais pour une approche collaborative. Avec les Community Notes, les utilisateurs peuvent rédiger des annotations anonymes sur les publications qu’ils jugent inexactes ou trompeuses.
Le développeur et chercheur en sécurité Alessandro Paluzzi vient de découvrir que cette annonce serait déjà effective. La fonctionnalité serait déjà intégrée –mais cachée– dans l’application Threads sur l’iPhone. Une fois activée, elle permet à tout utilisateur d’ajouter une note informative à une publication, à condition que celle-ci soit jugée utile par d’autres membres de la communauté.
Selon un article de support publié par Meta, les utilisateurs peuvent utiliser les Community Notes pour fournir des
informations de fond, des conseils ou des explications qui pourraient aider les autres à mieux comprendre un message. L’idée est d’assurer une diversité de points de vue et de rendre la modération des contenus plus démocratique.
Mark Zuckerberg a reconnu que l’idée lui a été inspirée par une fonctionnalité similaire déployée sur X. Meta prévoit de lancer cette fonctionnalité aux États-Unis dans un premier temps, avec une extension progressive à l’international prévue pour 2026. En attendant, les utilisateurs intéressés et voulant contribuer au programme peuvent déjà rejoindre une liste d’attente, via un bouton dédié sur Instagram et Threads.
Un virage controversé dans la gestion des contenus
L’introduction des Community Notes n'est pas la seule pomme de discorde. Elle s’accompagne en effet d’autres mesures plus controversées. Mark Zuckerberg a annoncé la fin des restrictions sur les sujets sensibles, comme la politique et les droits de l’homme, ainsi que la suppression du programme interne de diversité, égalité et inclusion de Meta.
Ces décisions ont provoqué un tollé parmi de nombreux utilisateurs et observateurs, qui craignent une dérégulation accrue des contenus sensibles sur les plateformes du groupe. En France, deux voix se sont fait tout particulièrement entendre, celle de la diplomatie française et celle de Clara Chappaz, la ministre chargée du Numérique.
Si Meta présente cette décision comme des vœux pieux et espère que cette approche participative apportera plus de transparence et de diversité dans la gestion des contenus, il reste à voir comment cette initiative sera accueillie à grande échelle.
Pour l’instant, aucun calendrier précis n’a été communiqué quant au déploiement complet des Notes sur l’ensemble des plateformes de Meta. Le problème réside davantage sur l'effectivité du contrôle par des tiers, par les utilisateurs ou par l'IA ? Actuellement, le programme de fact-checking de Meta, qui collabore avec plus de 80 médias à travers le monde, reste actif en Europe. L’Agence France-Presse (AFP), participant à ce programme dans 26 langues, continue d’être rémunérée pour ses vérifications sur Facebook, Instagram et WhatsApp.
Cette évolution marque toutefois un tournant significatif dans la manière dont les géants des réseaux sociaux envisagent la modération des contenus, en misant davantage sur la contribution des utilisateurs que sur des interventions institutionnelles.