Fraudes à la CAF : l’algorithme pointé du doigt
Par Vincent Lautier - Publié le
L’algorithme en cause
L’algorithme de détection de fraude de la CNAF est conçu pour attribuer à chaque allocataire un
score de suspicion. Ce score est ensuite utilisé pour cibler les contrôles des bénéficiaires, en se basant sur des données telles que les revenus, le chômage ou encore la perception du RSA ou de l’AAH. Selon les associations, cette technologie discrimine les personnes les plus défavorisées en les plaçant sous une surveillance accrue. Chaque mois, l’algorithme calcule environ 13 millions de scores pour 32 millions d’allocataires, un traitement massif de données personnelles.
Un recours pour discrimination
Les 15 associations, parmi lesquelles Amnesty International, La Quadrature du Net et la Fondation Abbé Pierre, accusent cet outil de créer une inégalité de traitement. Selon elles, les personnes en situation de précarité sont sur-contrôlées, car leur condition économique augmente automatiquement leur score de suspicion. Ce recours insiste sur le fait que l’algorithme assimile la précarité à un risque de fraude, ce qui génère une stigmatisation et des contrôles considérés comme abusifs.
Un traitement disproportionné
Le recours déposé devant le Conseil d’État pointe également le caractère disproportionné du traitement des données. Les associations soutiennent que l’utilisation d’un algorithme pour identifier les fraudes engendre des atteintes à la vie privée des allocataires. L’algorithme, bien qu’efficace pour identifier des erreurs dans les déclarations, s’attaque principalement aux personnes aux situations administratives complexes, sans prendre en compte les erreurs non intentionnelles.
Le Conseil d’État doit trancher
Face à ces critiques, Nicolas Grivel, directeur de la CNAF, défend l’outil, affirmant qu’il cible les indus importants et répétés. Il ajoute que la CAF se conformerait aux directives en cas de décision juridique. En parallèle, les associations espèrent une interdiction de cet algorithme et de systèmes similaires utilisés par d’autres organismes sociaux. Une réponse est attendue du Conseil d’État sur le retrait potentiel de cette technologie controversée.
La modernisation, l’automatisation et l’avancée de l’utilisation d’algorithmes poussés, comparables à de l’intelligence artificielle, vous semblent-elles acceptables pour ce type de tâches ? Ou y voyez-vous, vous aussi, un risque pour les libertés individuelles ?
Voici les 15 associations qui ont déposé ce recours :
• La Quadrature du Net (LQDN)
• Amnesty International France
• Fondation Abbé Pierre
• AADJAM (Association d’Accès aux Droits des Jeunes et d’Accompagnement vers la Majorité)
• Aequitaz
• ANAS (Association nationale des assistant·e·s de service social)
• APF France handicap
• Collectif Changer de Cap
• GISTI (Groupe d’information et de soutien des immigrés)
• Le Mouton numérique
• LDH (Ligue des droits de l’Homme)
• MNCP (Mouvement national des chômeurs et précaires)
• MRFB (Mouvement Français pour un Revenu de base)
• CNDH Romeurope
• Syndicat des avocats de France (SAF)