La nouvelle IA (Voice Engine) d'Open AI va-t-elle trop loin ?
Par Laurence - Publié le
Open AI (ChatGPT) vient de présenter son dernier bébé, un outil destiné à copier des voix, mais il entend en limiter l'utilisation pour éviter toute fin malveillante. Enfin pour le moment...
Dénommé
Développé à la fin de 2022, cette IA est pour le moment réservée à un usage de test. D'ailleurs les testeurs sont eux-même soumis à certaines règles, notamment au niveau du consentement express, de l'obligation d'informer toute personne dont la voix est dupliquée ou encore de transparence pour les auditeurs.
Parmi les exemples proposés, OpenAI cite la possibilité de fournir une assistance à la lecture pour les personnes ne sachant pas lire ou ne maitrisant pas une langue, pour les enfants. Ou encore des capacités de traduction en temps réel, une fonction qu'on a pu voir se développer ces derniers temps. Dans le cadre de la santé et de l'accessibilité, il est aussi question de proposer une aide à la parole (mais là encore on peut se demander en quoi copier la voix de quelqu'un peut être indispensable ?).
Officiellement, il n'est pas question de générer de troubles et la firme de San Francisco maintient poursuivre
En attendant, OpenAi continue de proposer de nouvelles fonctions pour son premier né, ChatGPT avec la possibilité de s'en servir sans compte !
Copier des voix à l'identique en quelques secondes
Dénommé
Voice Engine, il s'agit d'une IA capable de reproduire la voix d'une personne, et ce, à partir d'un échantillon audio de 15 secondes. C'est en effet ce que soutient OpenAI dans son communiqué et après les premiers tests.
Développé à la fin de 2022, cette IA est pour le moment réservée à un usage de test. D'ailleurs les testeurs sont eux-même soumis à certaines règles, notamment au niveau du consentement express, de l'obligation d'informer toute personne dont la voix est dupliquée ou encore de transparence pour les auditeurs.
Nous reconnaissons que la capacité de générer des voix ressemblant à celles de personnes comporte des risques sérieux, qui sont particulièrement importants en cette année électorale. Nous travaillons avec des partenaires américains et internationaux issus de gouvernements, de médias, du divertissement, de l'éducation, de la société civile et d'autres secteurs et nous prenons en compte leurs remarques au fur et à mesure que nous développons l'outil.
Une dérive intrinsèque ?
Parmi les exemples proposés, OpenAI cite la possibilité de fournir une assistance à la lecture pour les personnes ne sachant pas lire ou ne maitrisant pas une langue, pour les enfants. Ou encore des capacités de traduction en temps réel, une fonction qu'on a pu voir se développer ces derniers temps. Dans le cadre de la santé et de l'accessibilité, il est aussi question de proposer une aide à la parole (mais là encore on peut se demander en quoi copier la voix de quelqu'un peut être indispensable ?).
Officiellement, il n'est pas question de générer de troubles et la firme de San Francisco maintient poursuivre
une approche prudente et informéeavant toute diffusion plus large. Pourtant, est-ce vraiment possible de limiter une telle IA, le principe même de ce modèle pourra-t-il vraiment être contrôlé une fois sur le marché ? On devine alors toute la mesure du danger d'un tel modèle tombé entre de mauvaises mains : arnaque, désinformation, usurpation d'identité. La liste est aussi longue que non exhaustive.
En attendant, OpenAi continue de proposer de nouvelles fonctions pour son premier né, ChatGPT avec la possibilité de s'en servir sans compte !