Immagini sessuali generate dall’intelligenza artificiale: ragazze adolescenti che utilizzano strumenti di “nudificazione” allo stesso ritmo dei ragazzi

6

Uno studio recente indica che le ragazze adolescenti utilizzano app di “nudificazione” basate sull’intelligenza artificiale – strumenti che creano immagini sessualizzate dalle foto caricate – a un ritmo paragonabile a quello dei ragazzi. Questa scoperta mette in discussione l’ipotesi secondo cui questo comportamento è guidato principalmente dagli utenti di sesso maschile. La ricerca, pubblicata su PLOS One, ha intervistato 557 adolescenti di lingua inglese di età compresa tra 13 e 17 anni nel gennaio 2025 e ha rivelato che il 55% aveva creato tali immagini, mentre il 54% le aveva ricevute.

Utilizzo diffuso e condivisione non consensuale

I risultati dello studio sono significativi perché rivelano una normalizzazione di questa tecnologia tra gli adolescenti. Oltre un terzo degli intervistati ha riferito di essere vittime, con percentuali simili che affermano che le immagini sono state scattate su di loro senza consenso o condivise senza permesso. Circa 1 adolescente su 6, sia maschi che femmine, ha ammesso di utilizzare frequentemente questi strumenti per visualizzare come apparirebbero nei contenuti sessualizzati.

Questa tendenza è notevole perché sottolinea la rapidità con cui la manipolazione delle immagini basata sull’intelligenza artificiale si è integrata nella cultura digitale degli adolescenti. Le implicazioni non sono ancora del tutto comprese, ma lo studio suggerisce che questo comportamento non è più isolato da uno specifico gruppo demografico.

Perché le ragazze partecipano

Sebbene la ricerca non abbia esplorato direttamente le motivazioni, gli esperti ipotizzano che le ragazze potrebbero utilizzare questi strumenti per diversi motivi. Una teoria lo collega alla prevalenza di filtri “prova” per abbigliamento e trucco, che potrebbero normalizzare interazioni simili guidate dall’intelligenza artificiale. Un altro fattore è la potenziale coercizione da parte dei coetanei maschi, con le ragazze che potrebbero sentirsi sotto pressione a creare o condividere contenuti espliciti per adattarsi o mantenere una posizione sociale.

La dottoressa Linda Charmaraman, specialista in benessere digitale dei giovani, osserva che gli adolescenti si trovano in una fase di sviluppo vulnerabile in cui l’accettazione sociale è fondamentale. “Quando si combina questo tempo di sviluppo con l’intelligenza artificiale, si possono portare ulteriori rischi”, spiega, suggerendo che la pressione dei pari e la ricerca di uno status possono guidarne l’utilizzo.

Il rischio di creazione involontaria di materiale illegale

Una delle principali preoccupazioni è che gli adolescenti spesso non si rendono conto che potrebbero creare materiale pedopornografico (CSAM) quando utilizzano strumenti di nudizzazione. Anche se le immagini vengono condivise consensualmente tra adolescenti, le implicazioni legali rimangono oscure. Inoltre, i predatori cercano attivamente tali contenuti, utilizzando l’intelligenza artificiale per generare immagini basate su foto disponibili al pubblico e potenzialmente impegnandosi nella sextortion.

Cosa dovrebbero sapere i genitori

Lo studio suggerisce che i genitori dovrebbero presumere che i loro figli incontreranno questi strumenti e avranno conversazioni aperte e non giudicanti sui rischi. È improbabile che gli approcci basati sulla sola astinenza siano efficaci, poiché gli adolescenti potrebbero considerare i contenuti generati dall’intelligenza artificiale come una parte naturale dell’esplorazione della propria sessualità. Gli esperti raccomandano invece discussioni regolari sulla vita digitale degli adolescenti, favorendo una comunicazione aperta in modo che incidenti dolorosi come la condivisione non consensuale possano essere affrontati tempestivamente.

Implicazioni sulle politiche e responsabilità delle aziende tecnologiche

I ricercatori propongono un approccio su più fronti per mitigare i rischi. Un suggerimento è quello di educare gli adolescenti all’intervento degli astanti: parlare apertamente quando i coetanei pianificano di creare immagini non consensuali. Un altro chiede alle aziende tecnologiche di adottare uno standard di “dovere di diligenza”, fornendo strumenti che consentano a minori e genitori di gestire le esperienze digitali, inclusa la disabilitazione di alcune funzionalità e la protezione delle informazioni personali.

In definitiva, questo studio sottolinea la necessità di una maggiore consapevolezza e di misure proattive per affrontare il panorama in evoluzione delle immagini sessuali generate dall’intelligenza artificiale tra gli adolescenti. L’uso diffuso di questi strumenti richiede una risposta globale da parte di genitori, educatori, politici e aziende tecnologiche.