Oups ! Des employés de Samsung confient des données confidentielles à ChatGPT
Par June Cantillon - Mis à jour le
ChatGPT a beau vous parler en langage naturel, ce n'est pas un confident. Il ne faut pas échanger avec le service sur des données confidentielles, il ne sait pas garder les secrets, bien au contraire.
Ce constat semble couler de source, et pourtant... Selon nos confrères coréens de The Economist desfuturs-ex employés de Samsung auraient nourri le chatbot d'OpenAI avec des informations sensibles de la firme à plusieurs reprises. Un employé aurait ainsi demandé à ChatGPT de vérifier le code source d'un programme confidentiel pour s'assurer qu'il ne contenait pas d'erreur, là où un autre aurait adressé une requête au service d'OpenAI afin d'optimiser un programme, et un dernier génie aurait sollicité l'algorithme afin d'obtenir une présentation basée sur l'enregistrement d'une réunion.
Il s'agit ici d'une erreur bien humaine et OpenAI multiplie les mises en garde adressées aux utilisateurs de ChatGPT, indiquant que les données peuvent être collectées pour entrainer les algorithmes de la firme. Lorsque vous lancez une session de ChatGPT un message précise que :
Samsung a eu vent du problème et a mis en place une limite du nombre de mots que ses employés peuvent partager avec le chatbot d'OpenAI. La firme plancherait même sur une version maison d'une IA générative afin de ne plus être confrontée à ce type de problème à l'avenir et d'obtenir un meilleur contrôle. ChatGPT et ses divers concurrents sont très à la mode en ce moment, et il est très tentant d'obtenir rapidement un résumé, ou une présentation, mais il faut garder à l'esprit que les données sont analysées et stockées, qu'elles pourraient alors être partagées par des employées d'OpenAI, et que des bribes pourraient bien ressortir au sein d'une conversation avec un autre utilisateur.
Partager des données confidentielles avec ChatGPT est une mauvaise idée
Ce constat semble couler de source, et pourtant... Selon nos confrères coréens de The Economist des
L'homme qui murmurait à l'oreille de ChatGPT
Il s'agit ici d'une erreur bien humaine et OpenAI multiplie les mises en garde adressées aux utilisateurs de ChatGPT, indiquant que les données peuvent être collectées pour entrainer les algorithmes de la firme. Lorsque vous lancez une session de ChatGPT un message précise que :
Les conversations peuvent être examinées par nos employés pour améliorer nos systèmes.
Veuillez ne pas partager d'informations sensibles au sein de vos conversations.
Samsung a eu vent du problème et a mis en place une limite du nombre de mots que ses employés peuvent partager avec le chatbot d'OpenAI. La firme plancherait même sur une version maison d'une IA générative afin de ne plus être confrontée à ce type de problème à l'avenir et d'obtenir un meilleur contrôle. ChatGPT et ses divers concurrents sont très à la mode en ce moment, et il est très tentant d'obtenir rapidement un résumé, ou une présentation, mais il faut garder à l'esprit que les données sont analysées et stockées, qu'elles pourraient alors être partagées par des employées d'OpenAI, et que des bribes pourraient bien ressortir au sein d'une conversation avec un autre utilisateur.