Pourquoi OpenAI ne déploie pas son super détecteur de textes créés par l’IA ?
Par Laurence - Publié le
OpenAI a développé un ingénieux système capable de détecter les textes créés par l'IA -et évidemment par ChatGPT. Pour autant la startup refuse de le déployer !
Par ailleurs, une très grande majorité des internautes passe par une IA ou des services qui en utilisent un ou plusieurs. D'après une récente étude menée par des chercheurs de l’Université de Stanford, près de 70 % des étudiants utiliseraient l’IA dans le cadre de leurs examens. Mais aujourd'hui, les créateurs de contenus se heurtent désormais à la difficulté de distinguer les œuvres originales de celles générées par l’IA.
Pour rappel, la firme avait sorti un précédent outil en 2023, qui était censé détecter les textes générés par n'importe quelle intelligence artificielle. Mais il s'était révélé totalement inefficace et avait été retiré quelques mois plus tard.
Et la raison pour retenir cette technologie n'est pas gardée secrète. En effet, OpenAI hésite à la rendre publique, invoquant la stigmatisation autour de ChatGPT. Autrement dit, cet outil -qui est fonctionnel depuis un an et qui est annoncé fiable à 99,99%- présenterait des risques pour son propre chatbot.
C'est en effet ce qu'avance The Wall Street Journal. Le média s'appuie sur des échanges avec des employés et aurait eu accès à des documents internes. Ces informations auraient été aussi confirmées par OpenAI.
En pratique, ce système se base sur une technique innovante de watermarking. Mais pour le concevoir, OpenAI a utilisé et modifié ChatGPT afin d’introduire des motifs invisibles dans les textes générés par le chatbot. Quand le détecteur repère ces marqueurs, il va analyser les motifs et afficher un pourcentage indiquant la probabilité que le texte ait été généré par ChatGPT. A priori, cette technique ne changerait pas la qualité du contenu mais permettrait tout simplement de décerner automatique l'IA.
Comment discerner l'humain de l'artificiel ?
Par ailleurs, une très grande majorité des internautes passe par une IA ou des services qui en utilisent un ou plusieurs. D'après une récente étude menée par des chercheurs de l’Université de Stanford, près de 70 % des étudiants utiliseraient l’IA dans le cadre de leurs examens. Mais aujourd'hui, les créateurs de contenus se heurtent désormais à la difficulté de distinguer les œuvres originales de celles générées par l’IA.
Pour rappel, la firme avait sorti un précédent outil en 2023, qui était censé détecter les textes générés par n'importe quelle intelligence artificielle. Mais il s'était révélé totalement inefficace et avait été retiré quelques mois plus tard.
Pourquoi le garder secret ?
Et la raison pour retenir cette technologie n'est pas gardée secrète. En effet, OpenAI hésite à la rendre publique, invoquant la stigmatisation autour de ChatGPT. Autrement dit, cet outil -qui est fonctionnel depuis un an et qui est annoncé fiable à 99,99%- présenterait des risques pour son propre chatbot.
C'est en effet ce qu'avance The Wall Street Journal. Le média s'appuie sur des échanges avec des employés et aurait eu accès à des documents internes. Ces informations auraient été aussi confirmées par OpenAI.
En pratique, ce système se base sur une technique innovante de watermarking. Mais pour le concevoir, OpenAI a utilisé et modifié ChatGPT afin d’introduire des motifs invisibles dans les textes générés par le chatbot. Quand le détecteur repère ces marqueurs, il va analyser les motifs et afficher un pourcentage indiquant la probabilité que le texte ait été généré par ChatGPT. A priori, cette technique ne changerait pas la qualité du contenu mais permettrait tout simplement de décerner automatique l'IA.
Un porte-parole de l’entreprise a déclaré :
La méthode de filigrane que nous développons est techniquement prometteuse, mais elle comporte des risques importants que nous évaluons tout en recherchant des alternatives, notamment la possibilité d’être contournée par de mauvais acteurs et celle d’avoir un impact disproportionné sur des groupes tels que les non anglophones.