Actualité

Divers

La Californie bloque la loi de sécurité sur l'IA (ce n'est pas ce que vous croyez…)

Par Laurence - Publié le

L'intelligence Artificielle est désormais partout, et de nombreux pays, états ou organismes cherchent désormais à les encadrer avec plus ou moins de succès. A vrai dire, la seconde hypothèse semble se profiler davantage.

La Californie bloque la loi de sécurité sur l'IA (ce n'est pas ce que vous croyez…)


Un véto du gouverneur !



En effet, si Meta ou Apple ont refusé de signer l'AI Act -le règlement européen sur l'Intelligence Artificielle-, d'autres firmes sont loin de vouloir adhérer aux projets en cours. Ainsi Gavin Newsom, le gouverneur de Californie, vient de mettre son veto à la future loi sur la sécurité de l’IA, la jugeant pas assez ciblée. Celle-ci avait pourtant été adoptée en août par le Sénat et par l'Assemblée de Californie, la chambre basse de l'Etat.

La tension aura duré longtemps. En effet, les deux camps -pour et contre- ont fait campagne dans la Silicon Valley jusque dimanche soir, tant la question séparait la classe politique mais aussi les professionnels. En effet, rappelons que trente-deux des cinquante plus importantes sociétés du secteur de l'IA se trouvent dans cet état.

Scott Wiener
Scott Wiener


Mais ses raisons sont plus en faveur de ce texte. En effet, le gouverneur rappelle qu'il vient de voter dix-sept textes régulant l'IA. Mais il estime qu'en l'état, le projet n'est pas assez sécurisant et ne s'applique qu'aux modèles les plus coûteux et les plus grands, alors que des modèles plus petits pourraient s'avérer plus dangereux. Il invite donc les rédacteurs à élargir le champ d'action !

De même, il regrette la trop grande généralité du texte proposé par le sénateur Scott Wiener. Celui-ci couvre toutes les fonctions, même les plus ordinaires et souhaiterait davantage de disposition sur les les modèles déployés dans des environnements à hauts risques, qui impliquent une prise de décision critique ou l'utilisation de données sensibles.

Contenu du texte



En droit, le dernier texte visait à imposer des limites plus strictes aux grands modèles d’intelligence artificielle aux Etats-Unis. Même s'il n'était pas aussi sévère que les normes européennes, il rendait également les entreprises d’intelligence artificielle légalement responsables des dommages causés par leurs modèles.

Il exigeait notamment que les firmes proposent un kill switch, soit un système pour désactiver les systèmes s’ils devenaient incontrôlables ou s'ils causaient des dommages majeurs humains ou matériels (la limite avait été placée à 500 millions de dollars). Elon Musk s’y était déclaré favorable, contrairement à Mark Zuckerberg (Meta), Sam Altman (OpenAI) ou Marc Andreessen (un capital risqueur pro Donald Trump). Elles renforcent également les obligations de transparence quant à l'utilisation de l'IA, notamment au niveau des deepfakes.

« Nous pensons que les modèles d’IA les plus puissants pourraient bientôt poser des risques graves, tels que l’accès accru aux armes biologiques et les cyberattaques contre les infrastructures essentielles »
Geoffrey Hinton