Des employés d'OpenAI sonnent l'alarme face au développement de l'IA
Par Laurence - Publié le
Plusieurs employés -en poste ou pas- d'OpenAI et de Google DeepMind ont partagé une lettre ouverte mettant en garde contre les dangers de l'IA avancée et le manque actuel de surveillance des entreprises travaillant sur la technologie de l'IA.
Tout le monde ne regarde pas d'un oeil bienveillant le développement de l'Intelligence Artificielle. Bien que le concept existe depuis des dizaines d'années, la réalité des deux dernières -avec le lancement de ChatGPT- a fait basculer les esprits.
Ainsi ces employés évoquent plusieurs risques auxquels la société va être confrontée : le durcissement des inégalités existantes, la manipulation et la désinformation, et la perte de contrôle des systèmes d'IA autonomes.
D'après la lettre, cette liste non exhaustive pourrait carrément conduire à l'extinction humaine, d'autant que les entreprises d'IA sont exposées à de
Parmi les suggestions de contrôle, les signataires envisagent la création d'un processus anonyme renforcé pour permettre aux salariés des entreprises concernées de partager leurs préoccupations face aux risques dont ils auraient eu connaissance. Et ce, après du conseil d'administration des firmes, des organismes de réglementation ou des organisations indépendantes ayant une expertise pertinente.
Au delà, ils estiment qu'il faut revoir la culture d'entreprise : dénoncer un risque ne veut pas forcément s'opposer au développement d'un projet mais mieux l'encadrer. Ce qui n'empêche pas d'évoquer un système de garantie et de protection des employés tirant la sonnette d'alarme !
vers un développement mieux encadré !
Tout le monde ne regarde pas d'un oeil bienveillant le développement de l'Intelligence Artificielle. Bien que le concept existe depuis des dizaines d'années, la réalité des deux dernières -avec le lancement de ChatGPT- a fait basculer les esprits.
Ainsi ces employés évoquent plusieurs risques auxquels la société va être confrontée : le durcissement des inégalités existantes, la manipulation et la désinformation, et la perte de contrôle des systèmes d'IA autonomes.
D'après la lettre, cette liste non exhaustive pourrait carrément conduire à l'extinction humaine, d'autant que les entreprises d'IA sont exposées à de
fortes incitations financièrespour aller encore plus vite au niveau du développement. Dans ces conditions, les signataires pensent qu'il n'est pas possible de compter sur elles pour partager volontairement les informations de sécurité.
Tant qu'il n'y a pas de surveillance efficace par les gouvernements de ces entreprises, les employés -actuels et anciens- sont les rares personnes qui peuvent évoquer leurs responsabilités. Pourtant, de larges accords de confidentialité nous empêchent d'exprimer nos préoccupations../.. Les protections ordinaires des lanceurs d'alerte sont insuffisantes parce qu'elles se concentrent sur des activités illégales, alors que bon nombre des risques qui nous préoccupent ne sont pas encore réglementés.
Parmi les suggestions de contrôle, les signataires envisagent la création d'un processus anonyme renforcé pour permettre aux salariés des entreprises concernées de partager leurs préoccupations face aux risques dont ils auraient eu connaissance. Et ce, après du conseil d'administration des firmes, des organismes de réglementation ou des organisations indépendantes ayant une expertise pertinente.
Au delà, ils estiment qu'il faut revoir la culture d'entreprise : dénoncer un risque ne veut pas forcément s'opposer au développement d'un projet mais mieux l'encadrer. Ce qui n'empêche pas d'évoquer un système de garantie et de protection des employés tirant la sonnette d'alarme !