Anthropic si impegna nuovamente con le forze armate statunitensi dopo lo stallo iniziale

12

Anthropic, la società di intelligenza artificiale dietro il chatbot Claude, sembra pronta a riprendere la collaborazione con il Dipartimento della Difesa degli Stati Uniti nonostante avesse precedentemente interrotto i negoziati sulle applicazioni militari della sua tecnologia. Questa inversione di rotta fa seguito alle minacce da parte dei funzionari di designare Anthropic come un rischio per la sicurezza nazionale, spingendo di fatto l’azienda a riconsiderare la sua posizione.

Il contenzioso iniziale e le richieste dell’Anthropic

Il conflitto è iniziato dopo che Anthropic si è assicurata un contratto da 200 milioni di dollari con il Dipartimento della Difesa, ma successivamente ha cercato garanzie esplicite contro l’uso dei suoi modelli di intelligenza artificiale per la sorveglianza interna o lo sviluppo di armi autonome. L’amministrazione Trump ha rifiutato queste condizioni, rivendicando il diritto di utilizzare la tecnologia per qualsiasi scopo “lecito”. Ciò ha portato a una rottura dei colloqui, con il segretario alla Difesa Pete Hegseth che ha addirittura minacciato di etichettare Anthropic come un rischio per la catena di approvvigionamento. Il presidente Trump ha criticato pubblicamente l’azienda definendola “sinistra radicale” e ha ordinato un divieto di sei mesi sull’uso federale degli strumenti di Anthropic.

Cambiamento di posizione e trattative in corso

Secondo quanto riportato dal Financial Times, il CEO di Anthropic Dario Amodei ha riaperto le trattative per evitare la designazione della filiera. Sono ora in corso trattative con il sottosegretario alla Difesa Emil Michael, che recentemente ha descritto Amodei come un “bugiardo” con un “complesso di Dio”. In una nota interna, Amodei ha rivelato che il Dipartimento della Difesa si è offerto di accettare i termini attuali di Anthropic se una singola frase riguardante “l’analisi dei dati acquisiti in massa” fosse stata rimossa dal contratto.

Il patto di OpenAI e le critiche di Anthropic

I tempi coincidono con il recente accordo di OpenAI con il governo degli Stati Uniti per implementare i suoi strumenti di intelligenza artificiale in ambienti militari. Secondo quanto riferito, le comunicazioni interne di Anthropic hanno deriso il CEO di OpenAI Sam Altman, accusandolo di impegnarsi in un “teatro di sicurezza” e suggerendo che i dipendenti di OpenAI fossero “creduloni” nel credere alle assicurazioni dell’azienda sull’uso non di sorveglianza.

Potenziali implicazioni

Se verrà raggiunto un nuovo accordo, le forze armate statunitensi continueranno probabilmente a sfruttare la tecnologia di Anthropic, che secondo quanto riferito è già utilizzata nelle operazioni, compresi gli attacchi in Iran. Questa situazione evidenzia la crescente tensione tra le aziende di intelligenza artificiale e i governi sulle implicazioni etiche e di sicurezza delle applicazioni militari dell’intelligenza artificiale.

La ripresa di questi negoziati sottolinea la significativa influenza che i governi esercitano sulle aziende di intelligenza artificiale, soprattutto quando sono coinvolti interessi di sicurezza nazionale. Questa dinamica solleva interrogativi sul futuro dello sviluppo dell’intelligenza artificiale e sul suo potenziale allineamento con gli obiettivi militari, anche se ciò significa compromettere i confini etici iniziali.