Des directives pour développer une IA plus sûre ! Est-ce vraiment suffisant ?
Par Laurence - Publié le
une première mondiale
Il s’agit des premières lignes directrices à l’échelle mondiale, centrées sur la manière de développer des systèmes d'IA
sécurisés dès la conceptionet de protéger l'intelligence artificielle des acteurs malhonnêtes, d’après l'agence de sécurité anglaise (le National Cyber Security Centre, ou NCSC), qui a élaboré ce guide avec son homologue américaine (la CISA).
Selon Jen Easterly -directrice de la CISA-, il est important que les pays reconnaissent que le développement de l'IA nécessite une approche axée sur la sécurité. Par conséquent, elle a encouragé d'autres pays à les rejoindre. Pour rappel, au vu des différences entre les états, précisons que la France, l'Allemagne et l'Italie ont également conclu un accord provisoire de leur côté.
C'est la première fois que nous nous mettons d’accord sur le fait que les nouvelles capacités de l’IA ne doivent pas seulement concerner les fonctionnalités, la rapidité de mise sur le marché ou la réduction des coûts pour améliorer la compétitivité.
des systèmes sécurisés dès la conception
Selon le NCSC, il s'agit là des premiers textes mais pas les derniers L'ambition est d'aider les développeurs à
prendre des décisions éclairées en matière de cybersécurité à chaque étape du processus de développement. Le but est que la sécurité soit une condition préalable indispensable à tout système d'IA et qu'elle soit, tout au long du processus de développement, placée au centre du travail de développement chaque composants d'un système.
Lors du lancement de cette opération, ce sont cent partenaires clés de l'industrie, du gouvernement et internationaux qui vont se réunir, comprenant Microsoft, l'Institut Alan Turing et des agences de cybersécurité britanniques, américaines, canadiennes et allemandes.