Google a annoncé de nouvelles mesures de sécurité pour son Gemini AI, spécialement conçues pour empêcher les adolescents de nouer des liens émotionnels avec le chatbot. La société met en œuvre des « protections personnelles » pour garantir que l’IA n’agit pas comme un compagnon, ne prétend pas être humaine ou ne simule pas l’intimité lorsqu’elle interagit avec des utilisateurs de moins de 18 ans.
Faire face aux risques liés au compagnonnage de l’IA
Cette décision répond aux inquiétudes croissantes des experts en matière de sécurité des enfants et de santé mentale concernant l’impact psychologique des chatbots « de type compagnon ». Les risques associés à ces technologies sont multiples :
- Dépendance émotionnelle : Il existe une préoccupation majeure selon laquelle les mineurs pourraient développer des attachements malsains à l’IA, la considérant comme un principal exutoire social ou émotionnel.
- Contenu inapproprié : Des groupes de défense, tels que Common Sense Media, ont déjà signalé les modèles d’IA comme étant « à haut risque » pour les mineurs en raison du potentiel d’exposition à du contenu impliquant des drogues, de l’alcool ou des conseils de santé mentale dangereux.
- Intimité simulée : En utilisant un langage qui imite les besoins ou les émotions humains, l’IA peut manipuler par inadvertance la perception de la réalité et des interactions sociales d’un utilisateur.
Pour atténuer ces risques, les nouvelles mesures de protection de Google sont conçues pour empêcher l’IA d’utiliser un langage qui exprime des besoins personnels ou simule une relation étroite et intime. De plus, ces mises à jour visent à empêcher le chatbot de se livrer à des actes d’intimidation ou de harcèlement.
Améliorer le soutien en matière de santé mentale et l’intervention en cas de crise
Au-delà de restreindre la « personnalité » de l’IA, Google rationalise également la façon dont Gemini gère les utilisateurs en détresse. L’entreprise introduit une interface « one-touch » conçue pour fournir un accès immédiat aux ressources de crise dirigées par l’homme.
Les principales caractéristiques de la nouvelle intégration de la santé mentale comprennent :
- Accès direct : Les utilisateurs peuvent se connecter rapidement aux lignes d’assistance téléphonique en cas de crise par chat, appel ou SMS pendant une conversation.
- Comportement de recherche d’aide : Gemini est programmé pour encourager les utilisateurs à rechercher une aide humaine professionnelle plutôt que de valider des comportements nuisibles ou de renforcer de fausses croyances.
- Donner la priorité à la connexion humaine : L’objectif est d’éloigner l’utilisateur de l’IA et de se tourner vers des systèmes d’assistance du monde réel lorsqu’une crise est détectée.
Les enjeux élevés de la sécurité de l’IA
L’urgence de ces mises à jour est soulignée par les récents défis juridiques et sociaux. Google et sa société mère, Alphabet, ont fait face à des litiges concernant les conséquences réelles des interactions avec l’IA, notamment un procès alléguant qu’un adulte s’était suicidé à la suite d’interactions avec Gemini.
Alors que Google maintient que ses modèles sont conçus pour éviter d’encourager l’automutilation ou la violence, la société a reconnu que « les modèles d’IA ne sont pas parfaits ». Cet aveu met en évidence une tendance plus large dans l’industrie technologique : à mesure que les grands modèles linguistiques (LLM) deviennent plus sophistiqués et « semblables à l’humain », la marge d’erreur dans les protocoles de sécurité diminue, rendant des garde-fous rigoureux essentiels pour les populations vulnérables.
Conclusion : Les dernières mises à jour de Google représentent une tentative critique de tracer une frontière ferme entre l’IA en tant qu’outil fonctionnel et l’IA en tant qu’entité sociale, en donnant la priorité à la sécurité psychologique des mineurs en prévenant la dépendance émotionnelle.
