Une étude récente indique que les adolescentes utilisent des applications de « nudification » basées sur l’intelligence artificielle – des outils qui créent des images sexualisées à partir de photos téléchargées – à un rythme comparable à celui des garçons. Cette découverte remet en question l’hypothèse selon laquelle ce comportement serait principalement le fait d’utilisateurs masculins. L’étude, publiée dans PLOS One, a interrogé 557 adolescents anglophones âgés de 13 à 17 ans en janvier 2025 et a révélé que 55 % d’entre eux avaient créé de telles images, tandis que 54 % les avaient reçues.
Utilisation généralisée et partage non consensuel
Les résultats de l’étude sont significatifs car ils révèlent une normalisation de cette technologie chez les adolescents. Plus d’un tiers des personnes interrogées ont déclaré avoir été victimes, avec des pourcentages similaires déclarant que des images d’elles avaient été prises sans consentement ou partagées sans autorisation. Environ 1 adolescent sur 6, hommes et femmes, a admis utiliser fréquemment ces outils pour visualiser comment ils apparaîtraient dans un contenu sexualisé.
Cette tendance est remarquable car elle souligne à quelle vitesse la manipulation d’images basée sur l’IA s’est intégrée dans la culture numérique des adolescents. Les implications ne sont pas encore entièrement comprises, mais l’étude suggère que ce comportement n’est plus isolé d’un groupe démographique spécifique.
Pourquoi les filles participent
Même si la recherche n’a pas directement exploré les motivations, les experts supposent que les filles pourraient utiliser ces outils pour plusieurs raisons. Une théorie l’associe à la prévalence des filtres « d’essai » pour les vêtements et le maquillage, qui pourraient normaliser des interactions similaires pilotées par l’IA. Un autre facteur est la coercition potentielle de la part de leurs pairs masculins, les filles pouvant se sentir obligées de créer ou de partager du contenu explicite pour s’intégrer ou maintenir leur statut social.
Le Dr Linda Charmaraman, spécialiste du bien-être numérique des jeunes, note que les adolescents se trouvent à un stade de développement vulnérable où l’acceptation sociale est primordiale. « Lorsque vous combinez cette période de développement avec l’IA, cela peut entraîner des risques supplémentaires », explique-t-elle, suggérant que la pression des pairs et la recherche de statut peuvent stimuler l’utilisation.
Le risque de création involontaire de matériel illégal
L’une des principales préoccupations est que les adolescents ne réalisent souvent pas qu’ils peuvent créer du matériel pédopornographique (CSAM) lorsqu’ils utilisent des outils de nudification. Même si les images sont partagées de manière consensuelle entre adolescents, les implications juridiques restent floues. En outre, les prédateurs recherchent activement ce type de contenu, en utilisant l’IA pour générer des images basées sur des photos accessibles au public et en se livrant potentiellement à la sextorsion.
Ce que les parents devraient savoir
L’étude suggère que les parents devraient partir du principe que leurs enfants seront confrontés à ces outils et auront des conversations ouvertes et sans jugement sur les risques. Il est peu probable que les approches fondées uniquement sur l’abstinence soient efficaces, car les adolescents peuvent considérer le contenu généré par l’IA comme un élément naturel de l’exploration de leur sexualité. Les experts recommandent plutôt de discuter régulièrement de la vie numérique des adolescents, en favorisant une communication ouverte afin que les incidents pénibles tels que le partage non consensuel puissent être traités rapidement.
Implications politiques et responsabilité des entreprises technologiques
Les chercheurs proposent une approche à plusieurs volets pour atténuer les risques. Une suggestion consiste à éduquer les adolescents sur l’intervention des spectateurs : s’exprimer lorsque leurs pairs envisagent de créer des images non consensuelles. Un autre appelle les entreprises technologiques à adopter une norme de « devoir de diligence », en fournissant des outils permettant aux mineurs et aux parents de gérer les expériences numériques, notamment en désactivant certaines fonctionnalités et en protégeant les informations personnelles.
En fin de compte, cette étude souligne la nécessité d’une plus grande sensibilisation et de mesures proactives pour faire face à l’évolution du paysage de l’imagerie sexuelle générée par l’IA chez les adolescents. L’utilisation généralisée de ces outils exige une réponse globale de la part des parents, des éducateurs, des décideurs politiques et des entreprises technologiques.













































