Il CEO di OpenAI Sam Altman ha rilasciato scuse formali alla comunità di Tumbler Ridge, in Canada, dopo che è stato rivelato che la società non ha informato le forze dell’ordine di un utente collegato a una recente sparatoria di massa. L’incidente, che ha provocato la morte di otto persone, ha scatenato un acceso dibattito sulla responsabilità degli sviluppatori di intelligenza artificiale nel monitorare e segnalare contenuti potenzialmente violenti.
La mancata segnalazione
La controversia nasce da una decisione presa da OpenAI nel giugno 2025. Secondo quanto riportato dal Wall Street Journal, la società ha identificato e vietato l’account ChatGPT della diciottenne Jesse Van Rootselaar dopo aver utilizzato la piattaforma per descrivere scenari di violenza armata.
Sebbene lo staff di OpenAI abbia discusso internamente se allertare le autorità al momento del divieto, alla fine ha deciso di non farlo. È stato solo dopo la sparatoria che la società ha contattato le forze dell’ordine canadesi.
Una risposta a una tragedia locale
In una lettera pubblicata sul quotidiano locale Tumbler RidgeLines, Altman ha espresso profondo rammarico per l’inazione della società. Ha notato di essersi consultato con il sindaco di Tumbler Ridge Darryl Krakowka e il premier della Columbia Britannica David Eby, concordando che erano necessarie scuse pubbliche, anche se ritardate per rispetto del processo di lutto della comunità.
“Sono profondamente dispiaciuto di non aver avvisato le forze dell’ordine dell’account che è stato bannato a giugno. Anche se so che le parole non saranno mai sufficienti, credo che le scuse siano necessarie per riconoscere il danno e la perdita irreversibile che la vostra comunità ha subito.”
Protocolli di sicurezza e cambiamenti politici
Sulla scia della tragedia, OpenAI si è impegnata a rivedere le proprie procedure di sicurezza e segnalazione. Attualmente l’azienda sta lavorando su:
– Criteri di segnalazione flessibili: perfezionamento delle soglie specifiche che attivano un deferimento alle forze dell’ordine.
– Canali di comunicazione diretti: Stabilire punti di contatto dedicati con le autorità canadesi per garantire una più rapida condivisione delle informazioni.
– Collaborazione con il governo: collaborare con vari livelli di governo per prevenire simili errori in futuro.
Fallout politico e normativo
Nonostante le scuse, la risposta della leadership canadese è stata critica. Il premier David Eby si è rivolto a X (ex Twitter) per dichiarare che, sebbene le scuse fossero “necessarie”, rimangono “grossolanamente insufficienti” data l’entità della devastazione vissuta dalle famiglie coinvolte.
Questo incidente evidenzia una crescente tensione nel settore tecnologico: l’equilibrio tra la privacy degli utenti e il dovere di prevenire danni. Man mano che i modelli di intelligenza artificiale diventano più colloquiali e capaci di simulare scenari umani complessi, la questione di quando una “bandiera rossa digitale” diventa una “emergenza nel mondo reale” diventa sempre più urgente.
La tragedia di Tumbler Ridge ha intensificato la pressione sulle società di intelligenza artificiale affinché vadano oltre la semplice moderazione dei contenuti e verso una cooperazione attiva e proattiva con le forze dell’ordine globali.
