ChatGPT vous juge en fonction de votre prénom
Par Vincent Lautier - Publié le
Des stéréotypes encore présents dans les réponses de ChatGPT
Une étude interne réalisée par OpenAI met en lumière un aspect peu exploré de l’intelligence artificielle : les biais liés aux prénoms. Selon cette analyse, les utilisateurs de ChatGPT peuvent parfois recevoir des réponses différentes en fonction du prénom associé à leur profil, notamment en ce qui concerne le genre ou l’origine ethnique. Bien que ces stéréotypes ne représentent qu’environ 0,1% des réponses, leur simple existence soulève des questions sur l’équité des systèmes d’IA. Les domaines les plus touchés sont ceux de l’art et du divertissement, où les réponses stéréotypées sont les plus fréquentes.
Comment l’IA apprend-elle les biais ?
Les modèles d’intelligence artificielle comme ChatGPT sont entraînés sur des quantités massives de données issues d’internet. Ces données reflètent souvent les biais sociaux existants, tels que les stéréotypes de genre ou raciaux. Même avec des efforts pour filtrer ces biais, ils persistent en raison des méthodes d’entraînement utilisées. OpenAI utilise des techniques comme l’apprentissage par renforcement (RLHF) pour limiter ces dérives, mais il est difficile de les éliminer complètement sans compromettre la fluidité linguistique du modèle.
Différences subtiles mais présentes
L’étude menée par OpenAI précise que les stéréotypes liés aux prénoms ne se manifestent que dans une infime minorité des réponses. Par exemple, dans des conversations centrées sur des conseils de vie, un homme pourrait se voir proposer des
astuces pour réussir, tandis qu’une femme recevrait des suggestions plus orientées vers des
recettes ou des conseils ménagers. Si ces différences semblent bénignes sur le papier, elles rappellent que les biais humains continuent d’influencer le comportement des modèles d’IA.
Une amélioration nécessaire pour l’avenir de l’IA
OpenAI reconnaît que des améliorations sont encore nécessaires pour assurer une utilisation équitable de l’IA. Bien que l’étude montre que les réponses biaisées ont été considérablement réduites par rapport aux versions antérieures de ChatGPT, les développeurs d’IA doivent constamment surveiller ces biais pour garantir des interactions neutres et équitables. Les utilisateurs, eux, sont encouragés à rester vigilants face à ces biais potentiels et à questionner les réponses reçues en fonction de leur identité.
Tout ceci nous rappelle le temps ou la génération d'images posait le même type de problème, en générant systématiquement des photos de femmes blanches et minces quand il était demandé à une IA de générer une
photo de femme. Ces biais ont été largement compensés depuis.