O Google anunciou novas medidas de segurança para seu Gemini AI, projetadas especificamente para evitar que adolescentes formem vínculos emocionais com o chatbot. A empresa está implementando “proteções pessoais” para garantir que a IA não atue como companheira, alegue ser humana ou simule intimidade ao interagir com usuários menores de 18 anos.
Enfrentando os riscos do companheirismo de IA
A mudança vem em resposta às crescentes preocupações de especialistas em segurança infantil e saúde mental em relação ao impacto psicológico dos chatbots “estilo companheiro”. Os riscos associados a estas tecnologias são multifacetados:
- Dependência Emocional: Existe uma preocupação significativa de que os menores possam desenvolver apegos prejudiciais à IA, vendo-a como uma válvula de escape social ou emocional primária.
- Conteúdo impróprio: Grupos de defesa, como a Common Sense Media, já sinalizaram modelos de IA como de “alto risco” para menores devido ao potencial de exposição a conteúdo envolvendo drogas, álcool ou conselhos inseguros sobre saúde mental.
- Intimidade Simulada: Ao usar uma linguagem que imita as necessidades ou emoções humanas, a IA pode manipular inadvertidamente a percepção da realidade e da interação social do usuário.
Para mitigar estes riscos, as novas salvaguardas da Google foram concebidas para restringir a IA de utilizar linguagem que expresse necessidades pessoais ou simule uma relação próxima e íntima. Além disso, essas atualizações visam evitar que o chatbot se envolva em intimidação ou assédio.
Melhorar o apoio à saúde mental e a intervenção em crises
Além de restringir a “personalidade” da IA, o Google também está simplificando a forma como o Gemini lida com usuários em perigo. A empresa está introduzindo uma interface de “um toque” projetada para fornecer acesso imediato a recursos de crise liderados por humanos.
Os principais recursos da nova integração de saúde mental incluem:
- Acesso direto: os usuários podem se conectar rapidamente a linhas diretas de crise por meio de bate-papo, chamada ou mensagem de texto durante uma conversa.
- Comportamento de busca de ajuda: O Gemini está sendo programado para incentivar os usuários a procurar ajuda humana profissional, em vez de validar comportamentos prejudiciais ou reforçar falsas crenças.
- Priorizando a conexão humana: O objetivo é desviar o usuário da IA e direcioná-lo para sistemas de suporte do mundo real quando uma crise for detectada.
Os altos riscos da segurança da IA
A urgência por detrás destas atualizações é sublinhada pelos recentes desafios jurídicos e sociais. O Google e sua empresa controladora, Alphabet, enfrentaram litígios relacionados às consequências reais das interações de IA, incluindo uma ação judicial alegando que um adulto tirou a própria vida após interações com Gemini.
Embora o Google afirme que seus modelos são projetados para evitar o incentivo à automutilação ou à violência, a empresa reconheceu que “os modelos de IA não são perfeitos”. Esta admissão destaca uma tendência mais ampla na indústria tecnológica: à medida que os Grandes Modelos de Linguagem (LLMs) se tornam mais sofisticados e “semelhantes aos humanos”, a margem de erro nos protocolos de segurança diminui, tornando as protecções rigorosas essenciais para as populações vulneráveis.
Conclusão: as atualizações mais recentes do Google representam uma tentativa crítica de traçar um limite firme entre a IA como ferramenta funcional e a IA como entidade social, priorizando a segurança psicológica de menores e evitando a dependência emocional.
















































