Actualité

IA

La France créé un institut public pour surveiller l’IA

Par Laurence - Publié le

La France renforce sa stratégie en matière d’intelligence artificielle avec la création de l’Institut national pour l’évaluation et la sécurité de l’intelligence artificielle, de son petit nom INESIA. Annoncé avec une certaine indifférence, cet institut vise à anticiper les risques potentiels liés à l’IA et à coordonner les efforts des différents acteurs nationaux dans ce domaine.

IA Inesia


Une autorité sans pouvoir réglementaire



Contrairement à un régulateur classique (comme la Cnil ou l'Arcom), l’INESIA ne disposera pas d’un pouvoir contraignant sur les développements en IA. Sa mission principale sera d’analyser scientifiquement les impacts de cette technologie, et de mettre en lumière les enjeux de sécurité. Cette approche souligne la volonté de la France de concilier innovation et précaution, en garantissant un cadre de développement maîtrisé de l’intelligence artificielle.

L’INESIA sera sous la responsabilité conjointe de deux grandes instances : d'un côté, le Secrétariat général de la défense et de la sécurité nationale (SGDSN), rattaché au Premier ministre, et, de l'autre, la Direction générale des entreprises (DGE) du ministère de l’Économie, des Finances et de la Souveraineté industrielle et numérique.

L'institut ne va pas introduire de nouvelle structure juridique, mais se base sur quatre institutions existantes, spécialisées dans le numérique et la sécurité. Ce regroupement vise à mutualiser les expertises et à renforcer la capacité d’anticipation des risques IA :
• L’Agence nationale de la sécurité des systèmes d’information (Anssi), experte en cybersécurité.
• L’Institut national de recherche en sciences et technologies du numérique (Inria), acteur majeur de la recherche en IA.
• Le Laboratoire national de métrologie et d’essais (LNE), qui œuvre sur les standards et la fiabilité technologique.
• Le Pôle d’expertise de la régulation numérique (PEReN), dédié à l’analyse des impacts du numérique.




L'objectif : sécuriser l'IA



L’INESIA s’inscrit dans la dynamique internationale initiée par la Déclaration de Séoul pour une IA sûre, novatrice et inclusive, signée en mai 2024. Cette déclaration, soutenue par l’UE et des pays leaders en technologie (États-Unis, Japon, Royaume-Uni, Canada, Corée du Sud, Singapour, etc.), met l’accent sur la nécessité d’encadrer l’IA tout en favorisant l’innovation.

Dans cette continuité, la France accueillera un sommet mondial sur l’action en IA les 10 et 11 février à Paris, un événement stratégique où seront abordés les défis et les opportunités de cette technologie. Son annonce à quelques jours de cet évènement n'est bien évidemment pas neutre puisque le pays entend devenir un acteur clé de l’évaluation et de la sécurisation de l’IA, tout en soutenant son développement. Cette initiative pourrait influencer les futures régulations européennes et internationales sur l’intelligence artificielle.

On attend de voir comment cet institut va pouvoir concrètement influer sur les pratiques industrielles et encadrer les innovations, le tout sans pouvoir réglementaire direct. Il n'est toujours pas impuissant mais son efficacité dépendra de sa capacité à éclairer d'autres autorités ainsi que l'ensemble des acteurs sur les risques et les meilleures pratiques en matière d’IA.