Anthropic, la société d’IA à l’origine du chatbot Claude, semble prête à reprendre sa collaboration avec le département américain de la Défense, malgré l’arrêt des négociations sur les applications militaires de sa technologie. Ce revirement fait suite aux menaces des responsables de désigner Anthropic comme un risque pour la sécurité nationale, faisant effectivement pression sur l’entreprise pour qu’elle reconsidère sa position.
Le différend initial et les demandes d’Anthropic
Le conflit a commencé après qu’Anthropic ait obtenu un contrat de 200 millions de dollars avec le DoD, mais a ensuite demandé des garanties explicites contre l’utilisation de ses modèles d’IA pour la surveillance nationale ou le développement d’armes autonomes. L’administration Trump a refusé ces conditions, affirmant le droit d’utiliser la technologie à toute fin « licite ». Cela a conduit à une rupture des négociations, le secrétaire à la Défense Pete Hegseth ayant même menacé de qualifier Anthropic de risque pour la chaîne d’approvisionnement. Le président Trump a publiquement critiqué l’entreprise comme étant une « gauche radicale » et a ordonné une interdiction de six mois de l’utilisation fédérale des outils d’Anthropic.
Changement de position et négociations en cours
Selon les informations du Financial Times, le PDG d’Anthropic, Dario Amodei, a rouvert les négociations pour éviter la désignation de chaîne d’approvisionnement. Des discussions sont actuellement en cours avec le sous-secrétaire à la Défense Emil Michael, qui a récemment qualifié Amodei de « menteur » doté d’un « complexe divin ». Dans une note interne, Amodei a révélé que le DoD avait proposé d’accepter les conditions actuelles d’Anthropic si une seule phrase concernant « l’analyse des données acquises en masse » était supprimée du contrat.
L’accord d’OpenAI et les critiques d’Anthropic
Ce timing coïncide avec le récent accord d’OpenAI avec le gouvernement américain pour déployer ses outils d’IA dans des environnements militaires. Les communications internes d’Anthropic se seraient moquées du PDG d’OpenAI, Sam Altman, l’accusant de s’engager dans un « théâtre de sécurité » et suggérant que les employés d’OpenAI étaient « crédules » pour croire aux assurances de l’entreprise concernant l’utilisation sans surveillance.
Implications potentielles
Si un nouvel accord est conclu, l’armée américaine continuera probablement à exploiter la technologie d’Anthropic, qui serait déjà utilisée dans des opérations, notamment des frappes en Iran. Cette situation met en évidence la tension croissante entre les entreprises d’IA et les gouvernements sur les implications éthiques et sécuritaires des applications militaires de l’intelligence artificielle.
La résurgence de ces négociations souligne l’influence importante que les gouvernements détiennent sur les entreprises d’IA, en particulier lorsque les intérêts de sécurité nationale sont en jeu. Cette dynamique soulève des questions sur l’avenir du développement de l’IA et son alignement potentiel sur les objectifs militaires, même si cela implique de compromettre les limites éthiques initiales.















































