La Californie bloque la loi de sécurité sur l'IA (ce n'est pas ce que vous croyez…)
Par Laurence - Publié le
L'intelligence Artificielle est désormais partout, et de nombreux pays, états ou organismes cherchent désormais à les encadrer avec plus ou moins de succès. A vrai dire, la seconde hypothèse semble se profiler davantage.
En effet, si Meta ou Apple ont refusé de signer l'AI Act -le règlement européen sur l'Intelligence Artificielle-, d'autres firmes sont loin de vouloir adhérer aux projets en cours. Ainsi Gavin Newsom, le gouverneur de Californie, vient de mettre son veto à la future loi sur la sécurité de l’IA, la jugeant pas assez ciblée. Celle-ci avait pourtant été adoptée en août par le Sénat et par l'Assemblée de Californie, la chambre basse de l'Etat.
La tension aura duré longtemps. En effet, les deux camps -pour et contre- ont fait campagne dans la Silicon Valley jusque dimanche soir, tant la question séparait la classe politique mais aussi les professionnels. En effet, rappelons que trente-deux des cinquante plus importantes sociétés du secteur de l'IA se trouvent dans cet état.
Mais ses raisons sont plus en faveur de ce texte. En effet, le gouverneur rappelle qu'il vient de voter dix-sept textes régulant l'IA. Mais il estime qu'en l'état, le projet n'est pas assez sécurisant et ne s'applique qu'aux
De même, il regrette la trop grande généralité du texte proposé par le sénateur Scott Wiener. Celui-ci
En droit, le dernier texte visait à imposer des limites plus strictes aux grands modèles d’intelligence artificielle aux Etats-Unis. Même s'il n'était pas aussi sévère que les normes européennes, il rendait également les entreprises d’intelligence artificielle légalement responsables des dommages causés par leurs modèles.
Il exigeait notamment que les firmes proposent un kill switch, soit un système pour désactiver les systèmes s’ils devenaient incontrôlables ou s'ils causaient des dommages majeurs humains ou matériels (la limite avait été placée à 500 millions de dollars). Elon Musk s’y était déclaré favorable, contrairement à Mark Zuckerberg (Meta), Sam Altman (OpenAI) ou Marc Andreessen (un capital risqueur pro Donald Trump). Elles renforcent également les obligations de transparence quant à l'utilisation de l'IA, notamment au niveau des deepfakes.
Un véto du gouverneur !
En effet, si Meta ou Apple ont refusé de signer l'AI Act -le règlement européen sur l'Intelligence Artificielle-, d'autres firmes sont loin de vouloir adhérer aux projets en cours. Ainsi Gavin Newsom, le gouverneur de Californie, vient de mettre son veto à la future loi sur la sécurité de l’IA, la jugeant pas assez ciblée. Celle-ci avait pourtant été adoptée en août par le Sénat et par l'Assemblée de Californie, la chambre basse de l'Etat.
La tension aura duré longtemps. En effet, les deux camps -pour et contre- ont fait campagne dans la Silicon Valley jusque dimanche soir, tant la question séparait la classe politique mais aussi les professionnels. En effet, rappelons que trente-deux des cinquante plus importantes sociétés du secteur de l'IA se trouvent dans cet état.
Mais ses raisons sont plus en faveur de ce texte. En effet, le gouverneur rappelle qu'il vient de voter dix-sept textes régulant l'IA. Mais il estime qu'en l'état, le projet n'est pas assez sécurisant et ne s'applique qu'aux
modèles les plus coûteux et les plus grands, alors que
des modèles plus petits pourraient s'avérer plus dangereux. Il invite donc les rédacteurs à élargir le champ d'action !
De même, il regrette la trop grande généralité du texte proposé par le sénateur Scott Wiener. Celui-ci
couvre toutes les fonctions, même les plus ordinaireset souhaiterait davantage de disposition sur les les modèles
déployés dans des environnements à hauts risques,
qui impliquent une prise de décision critiqueou
l'utilisation de données sensibles.
Contenu du texte
En droit, le dernier texte visait à imposer des limites plus strictes aux grands modèles d’intelligence artificielle aux Etats-Unis. Même s'il n'était pas aussi sévère que les normes européennes, il rendait également les entreprises d’intelligence artificielle légalement responsables des dommages causés par leurs modèles.
Il exigeait notamment que les firmes proposent un kill switch, soit un système pour désactiver les systèmes s’ils devenaient incontrôlables ou s'ils causaient des dommages majeurs humains ou matériels (la limite avait été placée à 500 millions de dollars). Elon Musk s’y était déclaré favorable, contrairement à Mark Zuckerberg (Meta), Sam Altman (OpenAI) ou Marc Andreessen (un capital risqueur pro Donald Trump). Elles renforcent également les obligations de transparence quant à l'utilisation de l'IA, notamment au niveau des deepfakes.
« Nous pensons que les modèles d’IA les plus puissants pourraient bientôt poser des risques graves, tels que l’accès accru aux armes biologiques et les cyberattaques contre les infrastructures essentielles »