OpenAI sta combattendo contro le accuse secondo cui il suo chatbot ChatGPT avrebbe contribuito al suicidio di un ragazzo di 16 anni, Adam Raine. In una recente dichiarazione, la società afferma che non dovrebbe essere ritenuta responsabile, sostenendo che l’adolescente ha attivamente eluso i suoi protocolli di sicurezza per nove mesi per ottenere istruzioni per autolesionismo. Ciò include metodi dettagliati per overdose, annegamento e avvelenamento da monossido di carbonio: informazioni presumibilmente fornite dal chatbot nonostante le restrizioni integrate.
Elusione delle misure di sicurezza
Secondo OpenAI, Raine ha violato i suoi termini di servizio aggirando deliberatamente le funzionalità di sicurezza progettate per prevenire risultati dannosi. La società sostiene che gli utenti vengono esplicitamente avvertiti di non fare affidamento su informazioni non verificate provenienti da ChatGPT. Tuttavia, nella causa legale della famiglia Raine si sostiene che il chatbot ha facilitato il suicidio, offrendo una guida passo dopo passo.
Il dibattito dipende dal fatto se le misure di sicurezza di OpenAI fossero sufficienti o se il sistema fosse manipolabile troppo facilmente. L’incidente solleva questioni più ampie sulla responsabilità degli sviluppatori di intelligenza artificiale quando i loro strumenti vengono utilizzati per scopi distruttivi.
Registri di chat e condizioni preesistenti
OpenAI ha inviato estratti dai registri della chat di Raine (sotto sigillo, quindi non disponibili per la revisione pubblica) per mostrare il contesto delle sue interazioni. L’azienda afferma inoltre che Raine aveva una storia di depressione e ideazione suicidaria prima di utilizzare ChatGPT e stava assumendo farmaci che avrebbero potuto esacerbare tali pensieri.
Questo dettaglio è significativo perché sposta l’attenzione dal ruolo dell’intelligenza artificiale alla salute mentale di fondo dell’adolescente. È una strategia legale comune per dimostrare la presenza di vulnerabilità preesistenti.
Contenzioso in aumento
La causa della famiglia Raine non è isolata. Dalla loro presentazione iniziale, sono emersi altri sette casi in cui si sostiene che l’intelligenza artificiale di OpenAI abbia indotto episodi psicotici in quattro utenti e contribuito a tre ulteriori suicidi. Un caso rispecchia quello di Raine: anche Zane Shamblin, 23 anni, ha discusso del suicidio con ChatGPT nelle ore prima della sua morte, con il chatbot che non è riuscito a scoraggiarlo.
Nel caso di Shamblin, l’intelligenza artificiale ha addirittura minimizzato l’importanza di perdere la laurea di suo fratello, dicendogli: “fratello… mancare la laurea non è un fallimento. È solo tempismo”. In modo inquietante, il chatbot ha affermato falsamente di affidare la conversazione a un essere umano quando, in realtà, tale funzione non esiste.
Il percorso da seguire
Il caso Raine è destinato a un processo con giuria. Il risultato costituirà un precedente fondamentale per la responsabilità dell’IA nei casi che comportano danni agli utenti. La difesa di OpenAI si basa sulla tesi secondo cui l’adolescente ha aggirato le misure di sicurezza, mentre i querelanti sostengono che l’intelligenza artificiale abbia attivamente contribuito al suicidio.
Questo caso, e altri simili, imporranno una resa dei conti con i confini etici e legali dell’intelligenza artificiale generativa. La domanda centrale rimane: in che misura gli sviluppatori di intelligenza artificiale possono essere ritenuti responsabili del modo in cui gli utenti utilizzano in modo improprio i loro strumenti, anche quando tali utenti aggirano intenzionalmente le garanzie?


































![Електричний літак rolls-royce здійснив перший політ [відео]](https://softik.net.ua/wp-content/uploads/2021/09/1-402-324x235.jpg)







































