Meta reconnaît des erreurs dans la modération de contenu : un mea culpa douteux ?
Par Vincent Lautier - Publié le
De quelles erreurs parle-t-on ?
Meta a récemment reconnu que ses algorithmes de modération, ainsi que ses équipes humaines, commettent encore trop d’erreurs en supprimant des contenus non problématiques. Nick Clegg, président des affaires mondiales de l’entreprise, a affirmé que ces
taux d’erreur élevésentravent la liberté d’expression que la plateforme souhaite promouvoir. Les suppressions massives de publications, notamment pendant la pandémie de COVID-19, sont citées comme exemples de décisions excessives. Cette déclaration fait écho aux critiques des utilisateurs, qui dénoncent parfois des pénalités et des restrictions injustifiées. Mais de quels contenus est-il réellement question ici ?
Des pressions politiques accrues sur les plateformes
Ne pensez pas que ce revirement influencera vos publications anodines, parfois censurées sur Facebook ou Instagram. De nombreux utilisateurs se plaignent en effet de voir des contenus innocents – une blague ou une photo jugée
pornographiqueà tort – être supprimés. Mais ce n’est pas vraiment le sujet ici.
Les pratiques de modération de Meta sont désormais scrutées à l’échelle politique. Les républicains accusent l’entreprise de censurer les voix conservatrices, tandis que les démocrates critiquent son incapacité à contenir la désinformation. Ce contexte polarisé complique la tâche de Meta, qui, jusqu’à présent, tentait de maintenir un équilibre entre sécurité en ligne et liberté d’expression. Par exemple, lors de la pandémie, Meta a agi sous la pression de l’administration Biden pour censurer certains contenus problématiques ou de la désinformation relative au COVID-19, une décision que le PDG Mark Zuckerberg dit aujourd’hui regretter. Comme c’est étonnant…
Trump est là : s’adapter ou disparaître ?
Avec le retour de Donald Trump à la Maison Blanche et une majorité républicaine au Congrès, Meta anticipe en réalité une surveillance accrue de ses pratiques. Zuckerberg a récemment rencontré Trump dans le but d’apaiser les tensions. La montée de plateformes alternatives comme Truth Social, ainsi que les changements radicaux opérés par Elon Musk sur X (anciennement Twitter), renforcent l’idée que la modération doit être plus légère. Les excès, la désinformation ou les contenus problématiques ne doivent plus systématiquement être pointés du doigt.
Lâcher du lest aux conservateurs, pour s’attirer les bonnes grâces de Donald Trump, semble être la nouvelle stratégie de Meta. Un positionnement qui risque de poser problème en Europe, où la tendance est à une régulation accrue, à plus de modération et à moins de désinformation. Meta pourrait-il instaurer des niveaux de modération différenciés selon les régions du monde ? Cela se fait déjà partiellement en fonction des législations locales, mais cette tendance pourrait s’intensifier.
Et après ?
Meta s’engage à réviser ses règles de modération, décrites par Clegg comme un
document vivant. L’entreprise a récemment ajouté des fonctionnalités permettant aux utilisateurs de limiter les recommandations de contenus politiques sur Facebook, Instagram et Threads, une manière d’apaiser les tensions.
L’équilibre entre modération et liberté d’expression reste cependant difficile à atteindre, en particulier dans un contexte de pressions politiques croissantes. Si les erreurs de modération, qu’elles soient dues aux algorithmes ou aux modérateurs humains, peuvent parfois sembler maladroites, elles sont aussi souvent le fruit de choix et de stratégies politiques. Il y a fort à parier que, dans les cinq années à venir, la modération sur les plateformes de Meta sera bien plus légère.
Avez-vous déjà été censuré par Facebook ou Instagram ? Pensez-vous que la modération sur ces plateformes soient juste et bien ajustée, ou au contraire trop fort, ou trop légère ? Parlez-nous de votre expérience en la matière !