Actualité

Divers

Apple ne veut pas d'apps générant des images de nus (IA)

Par Laurence - Publié le

En attendant les annonces en matière d'IA, Apple se livre à une nouvelle discipline -olympique- la traque aux IA génératives spécialisées dans les photos de nus. Pas question pour la firme de les voir pulluler sur l'App Store !

Apple App Store


Pas de X sur l'App Store !



Se livrant à une opération de nettoyage, Cupertino vient de supprimer plusieurs applications, qui avaient réussi à passer les filtres de souscription de l'App Store. Ces dernières généraient apparemment des images de nus à partir de simples photos de personnes habillées, et ce, sans leur consentement.

A cela s'ajoutaient des campagnes de pubs un peu agressives et orientées, avec la promesse de déshabiller n'importe qui. Le tout sur des sites à caractère pornographique. On vous laisse donc imaginer les désordres et les conséquences (pénales) en cas d'utilisations mal intentionnées (l'IA ne va pas demander si le modèle est consentant ou majeur).

Apple ne veut pas d'apps générant des images de nus (IA)


Et le contrôle d'Apple ?



Après avoir été alerté des applications et de la publicité associée, Apple en a retiré trois de l'App Store. Google a également supprimé les applications du Play Store. Apparemment, Meta en aurait fait de même sur Instagram.

On pourrait se demander comment les applications ont réussi à passer les examens des magasins. Apparemment certaines soumises en 2022 étaient totalement innocentes au départ, avant d'introduire des fonctions douteuses et de la publicité outrancière.