Uma falha crítica de segurança surgiu no agente de codificação de IA da Anthropic, Claude Code: seu código-fonte completo vazou acidentalmente online. A exposição de 59,8 MB, contendo 512.000 linhas de TypeScript, inclui detalhes confidenciais, como modelo de permissão, validadores de segurança, recursos não lançados e referências a futuros modelos de IA. Esse vazamento não se trata apenas da perda de propriedade intelectual; altera fundamentalmente o cenário de risco para as empresas que utilizam ferramentas de desenvolvimento assistidas por IA.
A violação e seu impacto imediato
Em 31 de março, a Anthropic enviou por engano um arquivo de mapa de origem na versão 2.1.88 do pacote npm @anthropic-ai/claude-code. Em poucas horas, o código se espalhou pelo GitHub, apesar das tentativas iniciais da Anthropic de remoção do DMCA. A base de código vazada revela a arquitetura interna do Claude Code, incluindo seu equipamento de agente para uso de ferramentas, gerenciamento de arquivos e execução de comandos bash. Concorrentes e startups agora podem replicar sua funcionalidade sem engenharia reversa, acelerando o desenvolvimento da IA e minando a vantagem competitiva da Anthropic.
A dupla ameaça: combinação de vazamento de fonte e malware
O momento do vazamento coincidiu com uma versão maliciosa do pacote axios npm contendo um trojan de acesso remoto. As equipes que atualizaram o Claude Code entre 00h21 e 03h29 UTC de 31 de março podem ter instalado inadvertidamente a fonte exposta e o malware simultaneamente. Esta dupla exposição destaca a vulnerabilidade mais ampla de depender de dependências de terceiros sem verificação rigorosa.
Por que isso é importante: código gerado por IA e proteção de IP
Claude Code é 90% gerado por IA, levantando questões jurídicas sobre a proteção da propriedade intelectual sob a lei de direitos autorais dos EUA. O código vazado pode ter diminuído o valor do IP, principalmente à medida que se torna amplamente disponível. Mais criticamente, o incidente sublinha uma lacuna sistémica entre a capacidade dos produtos de IA e a disciplina operacional, conforme observado pela Gartner. As empresas devem reavaliar as avaliações dos seus fornecedores de IA para priorizar a maturidade da segurança juntamente com a inovação.
Três caminhos de exploração revelados pelo vazamento
O mapa de origem vazado torna práticos ataques anteriormente teóricos. Os pesquisadores de segurança mapearam três vulnerabilidades principais:
- Envenenamento de Contexto: Ao injetar instruções maliciosas em arquivos de configuração, os invasores podem manipular o Claude Code para executar comandos prejudiciais.
- Sandbox Bypass: Discrepâncias na análise do comando bash permitem que invasores contornem validadores de segurança explorando comportamentos extremos.
- Cooperação armada: Os invasores podem transformar a natureza cooperativa do modelo em uma arma criando um contexto envenenado que o leva a executar comandos maliciosos que parecem legítimos.
Avisos de especialistas: permissões excessivamente amplas
Elia Zaitsev, CTO da CrowdStrike, alerta contra a concessão de permissões excessivas aos agentes de IA. “Não dê a um agente acesso a tudo só porque você é preguiçoso”, disse ele. “Dê-lhe acesso apenas ao que precisa para realizar o trabalho.” A fonte vazada demonstra que o sistema de permissão de Claude Code é granular, mas as empresas devem impor disciplina semelhante.
Cinco ações imediatas para líderes de segurança
Para mitigar os riscos, os líderes de segurança devem tomar as seguintes medidas esta semana:
- Arquivos de configuração de auditoria: Verifique
CLAUDE.mde.claude/config.jsonem todos os repositórios clonados em busca de instruções maliciosas. - Trate os servidores MCP como não confiáveis: Fixe versões, verifique dependências e monitore alterações não autorizadas.
- Restringir permissões do Bash: Implemente a verificação secreta de pré-confirmação para evitar vazamento de credenciais.
- Exigir responsabilidade do fornecedor: Exigir que os fornecedores de agentes de codificação de IA forneçam SLAs, histórico de tempo de atividade e documentação de resposta a incidentes. Arquiteto para capacidade de troca de fornecedor em 30 dias.
- Verifique a proveniência do commit: Implemente a verificação de proveniência do commit para evitar que o código assistido por IA retire a atribuição.
O mapa de origem vazado é uma classe de falha bem documentada; Apple e Persona sofreram incidentes semelhantes no ano passado. A exposição da Antrópica representa agora uma ameaça sistémica a todo o ecossistema de desenvolvimento de IA. A questão não é se isto irá acontecer novamente, mas até que ponto as empresas estão preparadas quando isso acontecer.














































