Meta autorise l'armée américaine à utiliser son IA Llama
Par Laurence - Publié le
Meta va autoriser les agences gouvernementales à utiliser son intelligence artificielle à des fins militaires, mais sous certaines conditions uniquement.
En effet, Llama -le modèle d'intelligence artificielle générative de Mark Zuckerberg- va être utilisé par les agences gouvernementales ainsi que leurs partenaires. Cet usage sera toutefois limité à un objectif de sécurité nationale et concernera une grande partie des secteurs de la défense, dont ceux de l'armée et de l'industrie nucléaire.
C'est en effet ce que vient d'annoncer Nick Clegg, président des affaires mondiales de Meta. Il a également souligné que Llama serait utilisé pour
Voila qui constitue un revirement dans la politique de Meta. Jusqu'à présent, le groupe interdisait ce genre d'utilisation mais il justifie ce changement de position, en avançant l'utilisation éthique de son IA, au regard du but poursuivi et des moyens mis en œuvre par le terrorisme ou les trafiquants, mais aussi établir ce modèle open source comme standard dans la course à l'IA.
Notons que cette opération implique une collaboration avec d'autres grandes entreprises techs, comme par exemple Microsoft, Amazon, IBM, Oracle, ou encore Palantir, et ce, afin de fournir des services complets au gouvernement américain.
Cette information tombe quelques jours après la publication de documents d'universitaires et des analystes, ces derniers affirment que des instituts de recherche chinois de premier plan liés à l'Armée populaire de libération ont bien utilisé le modèle de Meta, pour développer un outil d'IA destiné à de possibles applications militaires.
En juin, Reuters affirmait que six chercheurs chinois issus de trois institutions, dont deux relevant du principal organe de recherche de l'Armée populaire de libération (APL), l'Académie des sciences militaires (AMS), avaient expliqué comment ils avaient créé
Mais celle-ci, loin d'être pacifiste, affichait une vocation militaire : elle est en effet destinée à recueillir et à traiter des renseignements, et à offrir des informations précises et fiables pour la prise de décisions opérationnelles. Voilà de quoi rélancer des polémiques déjà bien nourries sur le sujet.
L'IA, un outil contre le terrorisme
En effet, Llama -le modèle d'intelligence artificielle générative de Mark Zuckerberg- va être utilisé par les agences gouvernementales ainsi que leurs partenaires. Cet usage sera toutefois limité à un objectif de sécurité nationale et concernera une grande partie des secteurs de la défense, dont ceux de l'armée et de l'industrie nucléaire.
C'est en effet ce que vient d'annoncer Nick Clegg, président des affaires mondiales de Meta. Il a également souligné que Llama serait utilisé pour
rationaliser la logistique et la planification complexes, traquer le financement du terrorisme et renforcer les défenses de cybersécurité des États-Unis.
Voila qui constitue un revirement dans la politique de Meta. Jusqu'à présent, le groupe interdisait ce genre d'utilisation mais il justifie ce changement de position, en avançant l'utilisation éthique de son IA, au regard du but poursuivi et des moyens mis en œuvre par le terrorisme ou les trafiquants, mais aussi établir ce modèle open source comme standard dans la course à l'IA.
Notons que cette opération implique une collaboration avec d'autres grandes entreprises techs, comme par exemple Microsoft, Amazon, IBM, Oracle, ou encore Palantir, et ce, afin de fournir des services complets au gouvernement américain.
Une IA contre l'IA
Cette information tombe quelques jours après la publication de documents d'universitaires et des analystes, ces derniers affirment que des instituts de recherche chinois de premier plan liés à l'Armée populaire de libération ont bien utilisé le modèle de Meta, pour développer un outil d'IA destiné à de possibles applications militaires.
En juin, Reuters affirmait que six chercheurs chinois issus de trois institutions, dont deux relevant du principal organe de recherche de l'Armée populaire de libération (APL), l'Académie des sciences militaires (AMS), avaient expliqué comment ils avaient créé
ChatBIT, une IA basée sur la technologie de Llama.
Mais celle-ci, loin d'être pacifiste, affichait une vocation militaire : elle est en effet destinée à recueillir et à traiter des renseignements, et à offrir des informations précises et fiables pour la prise de décisions opérationnelles. Voilà de quoi rélancer des polémiques déjà bien nourries sur le sujet.