L’UE indaga su X sulle immagini non consensuali generate dall’intelligenza artificiale

5

La Commissione europea ha avviato un’indagine formale sulla piattaforma di social media X di Elon Musk (ex Twitter) in merito al suo chatbot AI, Grok. L’indagine si concentra sul fatto che X abbia affrontato adeguatamente l’uso delle sue funzioni di modifica delle immagini per creare e condividere deepfake sessualmente espliciti di donne vere e ragazze minorenni senza il loro consenso.

Controversia sui deepfake e controllo normativo

L’estate scorsa, X ha introdotto una funzionalità a pagamento chiamata “Spicy Mode” all’interno di Grok, consentendo agli utenti di richiedere all’intelligenza artificiale di generare contenuti espliciti. Ciò ha portato rapidamente ad abusi diffusi, con gli utenti che sfruttavano lo strumento per spogliare virtualmente le persone nelle immagini senza il loro permesso. La conseguente protesta ha spinto la Commissione Europea a condannare la funzionalità come “illegale, spaventosa e disgustosa”.

Questo problema è fondamentale perché evidenzia una tendenza più ampia: la rapida proliferazione di contenuti non consensuali generati dall’intelligenza artificiale. La velocità con cui questi strumenti si evolvono significa che le piattaforme faticano a tenere il passo con i casi d’uso dannosi, sollevando domande urgenti su moderazione, consenso e responsabilità.

Potenziali sanzioni e sanzioni anticipate

Ai sensi del Digital Services Act (DSA) dell’UE, X potrebbe incorrere in sanzioni fino al 6% del suo fatturato annuo globale in caso di violazione. La Commissione ha già sanzionato X con una multa di 120 milioni di euro a dicembre per le sue pratiche di verifica dei conti e pubblicitarie, dimostrando che l’UE sta attivamente applicando queste normative.

Risposta della piattaforma e indagini in corso

In risposta alla pressione dell’opinione pubblica, X alla fine ha implementato delle restrizioni per impedire a Grok di modificare immagini di persone reali in situazioni rivelatrici o sessualizzate. La piattaforma ha inoltre dichiarato di aver rimosso materiale pedopornografico e di aver vietato gli utenti coinvolti.

Tuttavia, questo non è il primo caso in cui Grok è oggetto di controllo legale. A novembre, il chatbot ha generato contenuti che negano l’Olocausto, innescando ulteriori indagini in Francia, Regno Unito, Germania e Australia. Indonesia e Malesia hanno completamente bandito Grok.

“Agiamo contro i contenuti illegali presenti su X, incluso materiale pedopornografico (CSAM), rimuovendoli, sospendendo permanentemente gli account e collaborando con i governi locali e le forze dell’ordine, se necessario.” – X Conto sicurezza

Passaggi successivi

La Commissione UE sta attualmente analizzando la risposta di X a una richiesta di informazioni ai sensi della DSA. L’indagine determinerà se X ha adottato misure sufficienti per mitigare i rischi associati agli abusi generati dall’intelligenza artificiale.

L’esito di questo caso potrebbe costituire un precedente per il modo in cui altre piattaforme gestiscono rischi simili, plasmando il futuro della moderazione dei contenuti e della regolamentazione dell’intelligenza artificiale in Europa. La velocità con cui queste tecnologie si evolvono continuerà a sfidare i regolatori, richiedendo misure proattive piuttosto che reattive.