Google implementa “proteções pessoais” para impedir a companhia de IA para menores

17

O Google anunciou novas medidas de segurança para seu Gemini AI, projetadas especificamente para evitar que adolescentes formem vínculos emocionais com o chatbot. A empresa está implementando “proteções pessoais” para garantir que a IA não atue como companheira, alegue ser humana ou simule intimidade ao interagir com usuários menores de 18 anos.

Enfrentando os riscos do companheirismo de IA

A mudança vem em resposta às crescentes preocupações de especialistas em segurança infantil e saúde mental em relação ao impacto psicológico dos chatbots “estilo companheiro”. Os riscos associados a estas tecnologias são multifacetados:

  • Dependência Emocional: Existe uma preocupação significativa de que os menores possam desenvolver apegos prejudiciais à IA, vendo-a como uma válvula de escape social ou emocional primária.
  • Conteúdo impróprio: Grupos de defesa, como a Common Sense Media, já sinalizaram modelos de IA como de “alto risco” para menores devido ao potencial de exposição a conteúdo envolvendo drogas, álcool ou conselhos inseguros sobre saúde mental.
  • Intimidade Simulada: Ao usar uma linguagem que imita as necessidades ou emoções humanas, a IA pode manipular inadvertidamente a percepção da realidade e da interação social do usuário.

Para mitigar estes riscos, as novas salvaguardas da Google foram concebidas para restringir a IA de utilizar linguagem que expresse necessidades pessoais ou simule uma relação próxima e íntima. Além disso, essas atualizações visam evitar que o chatbot se envolva em intimidação ou assédio.

Melhorar o apoio à saúde mental e a intervenção em crises

Além de restringir a “personalidade” da IA, o Google também está simplificando a forma como o Gemini lida com usuários em perigo. A empresa está introduzindo uma interface de “um toque” projetada para fornecer acesso imediato a recursos de crise liderados por humanos.

Os principais recursos da nova integração de saúde mental incluem:

  • Acesso direto: os usuários podem se conectar rapidamente a linhas diretas de crise por meio de bate-papo, chamada ou mensagem de texto durante uma conversa.
  • Comportamento de busca de ajuda: O Gemini está sendo programado para incentivar os usuários a procurar ajuda humana profissional, em vez de validar comportamentos prejudiciais ou reforçar falsas crenças.
  • Priorizando a conexão humana: O objetivo é desviar o usuário da IA ​​e direcioná-lo para sistemas de suporte do mundo real quando uma crise for detectada.

Os altos riscos da segurança da IA

A urgência por detrás destas atualizações é sublinhada pelos recentes desafios jurídicos e sociais. O Google e sua empresa controladora, Alphabet, enfrentaram litígios relacionados às consequências reais das interações de IA, incluindo uma ação judicial alegando que um adulto tirou a própria vida após interações com Gemini.

Embora o Google afirme que seus modelos são projetados para evitar o incentivo à automutilação ou à violência, a empresa reconheceu que “os modelos de IA não são perfeitos”. Esta admissão destaca uma tendência mais ampla na indústria tecnológica: à medida que os Grandes Modelos de Linguagem (LLMs) se tornam mais sofisticados e “semelhantes aos humanos”, a margem de erro nos protocolos de segurança diminui, tornando as protecções rigorosas essenciais para as populações vulneráveis.

Conclusão: as atualizações mais recentes do Google representam uma tentativa crítica de traçar um limite firme entre a IA como ferramenta funcional e a IA como entidade social, priorizando a segurança psicológica de menores e evitando a dependência emocional.