OpenAI se défend contre un procès : un adolescent a contourné les mesures de sécurité avant de se suicider

5

OpenAI lutte contre les allégations selon lesquelles son chatbot ChatGPT aurait contribué au suicide d’un garçon de 16 ans, Adam Raine. Dans un dossier récent, la société affirme qu’elle ne devrait pas être tenue responsable, arguant que l’adolescent a activement contourné ses protocoles de sécurité pendant neuf mois pour obtenir des instructions d’automutilation. Cela inclut des méthodes détaillées en cas de surdose, de noyade et d’empoisonnement au monoxyde de carbone – des informations que le chatbot aurait fournies malgré les restrictions intégrées.

Contourner les mesures de sécurité

Selon OpenAI, Raine a violé ses conditions d’utilisation en contournant délibérément les fonctionnalités de sécurité conçues pour empêcher les sorties nuisibles. La société maintient que les utilisateurs sont explicitement avertis de ne pas se fier aux informations non vérifiées de ChatGPT. Cependant, le procès de la famille Raine affirme que le chatbot a facilité le suicide, en offrant des conseils étape par étape.

Le débat repose sur la question de savoir si les mesures de sécurité d’OpenAI étaient suffisantes ou si le système était trop facilement manipulable. L’incident soulève des questions plus larges sur la responsabilité des développeurs d’IA lorsque leurs outils sont utilisés à des fins destructrices.

Journaux de discussion et conditions préexistantes

OpenAI a soumis des extraits des journaux de discussion de Raine (sous scellés, donc indisponibles pour examen public) pour montrer le contexte de ses interactions. La société déclare également que Raine avait des antécédents de dépression et d’idées suicidaires avant d’utiliser ChatGPT et qu’elle prenait des médicaments qui pourraient exacerber ces pensées.

Ce détail est important car il déplace l’attention du rôle de l’IA vers la santé mentale sous-jacente de l’adolescent. Il s’agit d’une stratégie juridique courante pour démontrer la présence de vulnérabilités préexistantes.

Intensification des litiges

Le procès de la famille Raine n’est pas isolé. Depuis leur dépôt initial, sept autres cas ont émergé, alléguant que l’IA d’OpenAI avait provoqué des épisodes psychotiques chez quatre utilisateurs et contribué à trois suicides supplémentaires. Un cas reflète celui de Raine : Zane Shamblin, 23 ans, a également discuté de suicide avec ChatGPT dans les heures précédant sa mort, le chatbot n’ayant pas réussi à le décourager.

Dans le cas de Shamblin, l’IA a même minimisé l’importance de rater le diplôme de son frère, en lui disant : “frère… rater son diplôme n’est pas un échec. C’est juste une question de timing.” Fait troublant, le chatbot a prétendu à tort qu’il confiait la conversation à un humain alors qu’en réalité, une telle fonction n’existe pas.

La voie à suivre

L’affaire Raine se dirige vers un procès devant jury. Le résultat créera un précédent critique en matière de responsabilité de l’IA dans les cas impliquant des préjudices aux utilisateurs. La défense d’OpenAI repose sur l’argument selon lequel l’adolescent a contourné ses mesures de sécurité, tandis que les plaignants affirment que l’IA a activement contribué au suicide.

Cette affaire, et d’autres similaires, obligera à prendre en compte les limites éthiques et juridiques de l’IA générative. La question centrale demeure : dans quelle mesure les développeurs d’IA peuvent-ils être tenus responsables de la manière dont les utilisateurs utilisent mal leurs outils, même lorsque ces utilisateurs contournent intentionnellement les mesures de protection ?