Apple ne veut pas d'apps générant des images de nus (IA)
Par Laurence - Publié le
Pas de X sur l'App Store !
Se livrant à une opération de nettoyage, Cupertino vient de supprimer plusieurs applications, qui avaient réussi à passer les filtres de souscription de l'App Store. Ces dernières généraient apparemment des images de nus à partir de simples photos de personnes habillées, et ce, sans leur consentement.
A cela s'ajoutaient des campagnes de pubs un peu agressives et orientées, avec la promesse de déshabiller n'importe qui. Le tout sur des sites à caractère pornographique. On vous laisse donc imaginer les désordres et les conséquences (pénales) en cas d'utilisations mal intentionnées (l'IA ne va pas demander si le modèle est consentant ou majeur).
Et le contrôle d'Apple ?
Après avoir été alerté des applications et de la publicité associée, Apple en a retiré trois de l'App Store. Google a également supprimé les applications du Play Store. Apparemment, Meta en aurait fait de même sur Instagram.
On pourrait se demander comment les applications ont réussi à passer les examens des magasins. Apparemment certaines soumises en 2022 étaient totalement
innocentesau départ, avant d'introduire des fonctions douteuses et de la publicité outrancière.