L'Europe peine à encadrer le développement exponentiel de l'IA
Par Laurence - Publié le
Alors que ChatGPT a fêté son premier anniversaire, qu'Elon Musk a donné naissance à Grok ou que Google lance Gemini, les législateurs européens peinent à encadrer le développement de l'IA...
Après plus de vingt-quatre heures de négociations, les membres du Conseil, du Parlement Européen et de la Commission ne sont pas parvenus à s'accorder pour contrôler l'intelligence artificielle. A charge de revoir leur copie aujourd'hui pour une nouvelle journée de négocations.
Il faut dire que cet accord constituerait une première dans la jeune histoire de l'IA que certains présentent comme un danger potentiel pour l'humanité ou les droits fondamentaux. Globalement, ces règles permettraient de classer les systèmes en fonction de leurs risques, de faible à inacceptable. En fonction, plusieurs niveaux de régulation et des contraintes seraient mis en place.
Entre autres ambitions, le texte devra aussi concilier les parties en présence, d'un côté le Parlement et de nombreux chercheurs -désirant un encadrement spécifique- et de l'autre, les partisans de l'autorégulation -comme la France, l'Allemagne ou l'Italie. Ces dernières craignent que des normes trop strictes ne freinent les start-up européennes face aux firmes américaines ou chinoises, et ne les empêchent de concurrencer OpenAI ou Google.
Dans la foulée, Thierry Breton en a profité pour poster quelques messages sur X, soulignant que certaines parties du texte sont déjà prêtes (mais qu'en est-il des autres ?).
Y aura-t-il un accord ce soir ?
Après plus de vingt-quatre heures de négociations, les membres du Conseil, du Parlement Européen et de la Commission ne sont pas parvenus à s'accorder pour contrôler l'intelligence artificielle. A charge de revoir leur copie aujourd'hui pour une nouvelle journée de négocations.
Il faut dire que cet accord constituerait une première dans la jeune histoire de l'IA que certains présentent comme un danger potentiel pour l'humanité ou les droits fondamentaux. Globalement, ces règles permettraient de classer les systèmes en fonction de leurs risques, de faible à inacceptable. En fonction, plusieurs niveaux de régulation et des contraintes seraient mis en place.
Entre autres ambitions, le texte devra aussi concilier les parties en présence, d'un côté le Parlement et de nombreux chercheurs -désirant un encadrement spécifique- et de l'autre, les partisans de l'autorégulation -comme la France, l'Allemagne ou l'Italie. Ces dernières craignent que des normes trop strictes ne freinent les start-up européennes face aux firmes américaines ou chinoises, et ne les empêchent de concurrencer OpenAI ou Google.
Dans la foulée, Thierry Breton en a profité pour poster quelques messages sur X, soulignant que certaines parties du texte sont déjà prêtes (mais qu'en est-il des autres ?).