A Anthropic, a empresa de IA por trás do chatbot Claude, parece preparada para retomar a colaboração com o Departamento de Defesa dos EUA, apesar de ter interrompido anteriormente as negociações sobre aplicações militares de sua tecnologia. Esta reversão segue-se às ameaças de autoridades de designar a Antrópica como um risco para a segurança nacional, efetivamente pressionando a empresa a reconsiderar a sua posição.
A disputa inicial e as demandas antrópicas
O conflito começou depois de a Anthropic ter garantido um contrato de 200 milhões de dólares com o DoD, mas posteriormente procurou garantias explícitas contra a utilização dos seus modelos de IA para vigilância doméstica ou desenvolvimento de armas autónomas. A administração Trump recusou estas condições, afirmando o direito de utilizar a tecnologia para qualquer propósito “legal”. Isto levou a um colapso nas negociações, com o secretário da Defesa, Pete Hegseth, a ameaçar mesmo rotular a Anthropic como um risco para a cadeia de abastecimento. O presidente Trump criticou publicamente a empresa como “esquerda radical” e ordenou uma proibição de seis meses do uso federal das ferramentas da Antrópico.
Mudança de posição e negociações em andamento
De acordo com relatos do Financial Times, o CEO da Anthropic, Dario Amodei, reabriu as negociações para evitar a designação da cadeia de suprimentos. Estão agora em curso discussões com o Subsecretário de Defesa Emil Michael, que recentemente descreveu Amodei como um “mentiroso” com um “complexo de Deus”. Num memorando interno, Amodei revelou que o DoD se ofereceu para aceitar os termos atuais da Antrópico se uma única frase relativa à “análise de dados adquiridos em massa” fosse removida do contrato.
Acordo da OpenAI e críticas da Anthropic
O momento coincide com o recente acordo da OpenAI com o governo dos EUA para implantar suas ferramentas de IA em ambientes militares. As comunicações internas da Anthropic supostamente zombaram do CEO da OpenAI, Sam Altman, acusando-o de se envolver em “teatro de segurança” e sugerindo que os funcionários da OpenAI eram “crédulos” por acreditarem nas garantias da empresa sobre o uso de não vigilância.
Implicações potenciais
Se um novo acordo for alcançado, os militares dos EUA provavelmente continuarão a aproveitar a tecnologia da Antrópico, que já está a ser utilizada em operações, incluindo ataques no Irão. Esta situação realça a crescente tensão entre as empresas de IA e os governos sobre as implicações éticas e de segurança das aplicações militares da inteligência artificial.
O ressurgimento destas negociações sublinha a influência significativa que os governos têm sobre as empresas de IA, especialmente quando estão envolvidos interesses de segurança nacional. Esta dinâmica levanta questões sobre o futuro do desenvolvimento da IA e o seu potencial alinhamento com os objectivos militares, mesmo que isso signifique comprometer os limites éticos iniciais.














































