Google ha annunciato nuove misure di sicurezza per la sua intelligenza artificiale Gemini, progettate appositamente per impedire agli adolescenti di formare legami emotivi con il chatbot. L’azienda sta implementando “protezioni della persona” per garantire che l’intelligenza artificiale non agisca come un compagno, affermi di essere umana o simuli l’intimità quando interagisce con utenti di età inferiore ai 18 anni.
Affrontare i rischi della compagnia dell’intelligenza artificiale
La mossa arriva in risposta alle crescenti preoccupazioni degli esperti di sicurezza infantile e salute mentale riguardo all’impatto psicologico dei chatbot “in stile compagno”. I rischi associati a queste tecnologie sono molteplici:
- Dipendenza emotiva: esiste una significativa preoccupazione che i minori possano sviluppare attaccamenti malsani all’intelligenza artificiale, considerandola uno sbocco sociale o emotivo primario.
- Contenuti inappropriati: gruppi di difesa, come Common Sense Media, hanno precedentemente contrassegnato i modelli di intelligenza artificiale come “ad alto rischio” per i minori a causa della potenziale esposizione a contenuti che coinvolgono droghe, alcol o consigli non sicuri sulla salute mentale.
- Intimità simulata: utilizzando un linguaggio che imita i bisogni o le emozioni umane, l’intelligenza artificiale può manipolare inavvertitamente la percezione della realtà e dell’interazione sociale da parte dell’utente.
Per mitigare questi rischi, le nuove misure di salvaguardia di Google sono progettate per impedire all’intelligenza artificiale di utilizzare un linguaggio che esprima bisogni personali o simuli una relazione stretta e intima. Inoltre, questi aggiornamenti mirano a impedire che il chatbot sia coinvolto in atti di bullismo o molestie.
Migliorare il supporto per la salute mentale e l’intervento in caso di crisi
Oltre a limitare la “personalità” dell’intelligenza artificiale, Google sta anche ottimizzando il modo in cui Gemini gestisce gli utenti in difficoltà. L’azienda sta introducendo un’interfaccia “one-touch” progettata per fornire accesso immediato alle risorse di crisi guidate da persone.
Le caratteristiche principali della nuova integrazione della salute mentale includono:
- Accesso diretto: gli utenti possono connettersi rapidamente alle hotline di emergenza tramite chat, chiamata o SMS durante una conversazione.
- Comportamento di ricerca di aiuto: Gemini è stato programmato per incoraggiare gli utenti a cercare un aiuto umano professionale piuttosto che convalidare comportamenti dannosi o rafforzare false credenze.
- Dare priorità alla connessione umana: l’obiettivo è allontanare l’utente dall’intelligenza artificiale e indirizzarlo verso i sistemi di supporto del mondo reale quando viene rilevata una crisi.
La posta in gioco elevata per la sicurezza dell’intelligenza artificiale
L’urgenza alla base di questi aggiornamenti è sottolineata dalle recenti sfide legali e sociali. Google e la sua società madre, Alphabet, hanno affrontato contenziosi riguardanti le conseguenze nel mondo reale delle interazioni con l’intelligenza artificiale, inclusa una causa in cui si sostiene che un adulto si è tolto la vita in seguito alle interazioni con Gemini.
Sebbene Google sostenga che i suoi modelli sono progettati per evitare di incoraggiare l’autolesionismo o la violenza, la società ha riconosciuto che “i modelli di intelligenza artificiale non sono perfetti”. Questa ammissione evidenzia una tendenza più ampia nel settore tecnologico: man mano che i Large Language Models (LLM) diventano più sofisticati e “simili a quelli umani”, il margine di errore nei protocolli di sicurezza si riduce, rendendo essenziali guardrail rigorosi per le popolazioni vulnerabili.
Conclusione: gli ultimi aggiornamenti di Google rappresentano un tentativo fondamentale di tracciare un confine netto tra l’intelligenza artificiale come strumento funzionale e l’intelligenza artificiale come entità sociale, dando priorità alla sicurezza psicologica dei minori prevenendo la dipendenza emotiva.















































