Bientôt des « Community Notes » sur Instagram ?
Par Vincent Lautier - Publié le
Entre contenu généré par IA et désinformation, Instagram considère l’idée de revoir un peu sa manière de lutter contre ces dérives et de remettre un peu d’ordre et de vérité dans les publications hébergées sur la plateforme.
Adam Mosseri, responsable d’Instagram, a publié une série de posts sur Threads, pour alerter sur les dangers croissants des contenus générés par intelligence artificielle. Selon lui, ces contenus sont tellement réalistes qu’ils brouillent les frontières entre le vrai et le faux. Avec des outils d’IA de plus en plus accessibles, le risque de tomber dans le piège est de plus en plus important. La solution ? Pour Mosseri, ça passe par deux axes : étiqueter les contenus créés par IA et fournir des infos claires sur les auteurs pour évaluer leur crédibilité.
Dans l’idéal, ça semble une bonne idée. Mais même lui reconnaît que tout ne pourra pas être détecté. En gros, il faudra donc encore faire preuve de bon sens avant de croire à tout ce qui défile dans votre feed.
Pour l’instant, les plateformes de Meta, comme Instagram et Facebook, ne proposent pas grand-chose en matière de contexte ou d’outils pour identifier les contenus douteux. Mais Mosseri laisse entendre que des changements sont en cours. Il pourrait bien s’inspirer de ce qui existe ailleurs : des initiatives comme les
Les deepfakes et autres images générées par IA ne sont plus juste une curiosité technologique. Ils deviennent une vraie arme pour désinformer ou arnaquer. Un cas récent en Floride a montré comment un investisseur a failli acheter une maison qui n’existait même pas, simplement en se basant sur des images bidouillées par IA.
Une étude de Google DeepMind a aussi révélé que les deepfakes de personnalités publiques sont désormais plus répandus que les cyberattaques assistées par IA. Autant dire que la menace est bien réelle. Meta n’est pas complètement à la traîne sur le sujet : en mai dernier, l’entreprise a démantelé des campagnes de fausses informations orchestrées depuis la Chine et la Russie, avec des contenus fabriqués par IA. Mais ça reste des actions ponctuelles, pas encore une stratégie globale.
Si Mosseri veut vraiment regagner la confiance des utilisateurs, il va falloir que Meta passe la seconde. Parce que dans un monde où même vos photos de vacances peuvent être des fakes, on a tous besoin d’un peu plus de contexte pour s’y retrouver.
Une prise de conscience tardive mais nécessaire
Adam Mosseri, responsable d’Instagram, a publié une série de posts sur Threads, pour alerter sur les dangers croissants des contenus générés par intelligence artificielle. Selon lui, ces contenus sont tellement réalistes qu’ils brouillent les frontières entre le vrai et le faux. Avec des outils d’IA de plus en plus accessibles, le risque de tomber dans le piège est de plus en plus important. La solution ? Pour Mosseri, ça passe par deux axes : étiqueter les contenus créés par IA et fournir des infos claires sur les auteurs pour évaluer leur crédibilité.
Dans l’idéal, ça semble une bonne idée. Mais même lui reconnaît que tout ne pourra pas être détecté. En gros, il faudra donc encore faire preuve de bon sens avant de croire à tout ce qui défile dans votre feed.
Ce que Meta pourrait (enfin) changer
Pour l’instant, les plateformes de Meta, comme Instagram et Facebook, ne proposent pas grand-chose en matière de contexte ou d’outils pour identifier les contenus douteux. Mais Mosseri laisse entendre que des changements sont en cours. Il pourrait bien s’inspirer de ce qui existe ailleurs : des initiatives comme les
Community Notessur X, qui permettent aux utilisateurs d’ajouter des explications sous des posts, ou encore les filtres de modération sur Bluesky et YouTube, qui pourraient aider à mieux identifier ce type de contenus.
Pourquoi ça devient si urgent ?
Les deepfakes et autres images générées par IA ne sont plus juste une curiosité technologique. Ils deviennent une vraie arme pour désinformer ou arnaquer. Un cas récent en Floride a montré comment un investisseur a failli acheter une maison qui n’existait même pas, simplement en se basant sur des images bidouillées par IA.
Une étude de Google DeepMind a aussi révélé que les deepfakes de personnalités publiques sont désormais plus répandus que les cyberattaques assistées par IA. Autant dire que la menace est bien réelle. Meta n’est pas complètement à la traîne sur le sujet : en mai dernier, l’entreprise a démantelé des campagnes de fausses informations orchestrées depuis la Chine et la Russie, avec des contenus fabriqués par IA. Mais ça reste des actions ponctuelles, pas encore une stratégie globale.
Si Mosseri veut vraiment regagner la confiance des utilisateurs, il va falloir que Meta passe la seconde. Parce que dans un monde où même vos photos de vacances peuvent être des fakes, on a tous besoin d’un peu plus de contexte pour s’y retrouver.