Anthropic, la empresa de inteligencia artificial detrás del chatbot Claude, parece dispuesta a reanudar la colaboración con el Departamento de Defensa de Estados Unidos a pesar de haber detenido previamente las negociaciones sobre las aplicaciones militares de su tecnología. Esta reversión se produce tras las amenazas de funcionarios de designar a Anthropic como un riesgo para la seguridad nacional, presionando efectivamente a la empresa para que reconsidere su postura.
La disputa inicial y las demandas de Anthropic
El conflicto comenzó después de que Anthropic consiguiera un contrato de 200 millones de dólares con el Departamento de Defensa, pero posteriormente buscó garantías explícitas contra el uso de sus modelos de IA para la vigilancia nacional o el desarrollo de armas autónomas. La administración Trump rechazó estas condiciones, afirmando el derecho a utilizar la tecnología para cualquier propósito “legal”. Esto provocó una ruptura en las conversaciones, y el secretario de Defensa, Pete Hegseth, incluso amenazó con etiquetar a Anthropic como un riesgo para la cadena de suministro. El presidente Trump criticó públicamente a la empresa como “izquierda radical” y ordenó una prohibición de seis meses sobre el uso federal de las herramientas de Anthropic.
Cambio de posición y negociaciones en curso
Según informes del Financial Times, el director ejecutivo de Anthropic, Dario Amodei, ha reabierto las negociaciones para evitar la designación de cadena de suministro. Actualmente se están llevando a cabo conversaciones con el subsecretario de Defensa, Emil Michael, quien recientemente describió a Amodei como un “mentiroso” con un “complejo de Dios”. En un memorando interno, Amodei reveló que el Departamento de Defensa se ofreció a aceptar los términos actuales de Anthropic si se eliminaba del contrato una sola frase relativa al “análisis de datos adquiridos en masa”.
El acuerdo de OpenAI y las críticas de Anthropic
El momento coincide con el reciente acuerdo de OpenAI con el gobierno de Estados Unidos para desplegar sus herramientas de IA en entornos militares. Según se informa, las comunicaciones internas de Anthropic se burlaron del director ejecutivo de OpenAI, Sam Altman, acusándolo de participar en un “teatro de seguridad” y sugiriendo que los empleados de OpenAI eran “crédulos” por creer las garantías de la compañía sobre el uso sin vigilancia.
Implicaciones potenciales
Si se llega a un nuevo acuerdo, es probable que el ejército estadounidense continúe aprovechando la tecnología de Anthropic, que, según se informa, ya se está utilizando en operaciones, incluidos ataques en Irán. Esta situación pone de relieve la creciente tensión entre las empresas de IA y los gobiernos sobre las implicaciones éticas y de seguridad de las aplicaciones militares de la inteligencia artificial.
El resurgimiento de estas negociaciones subraya la importante influencia que los gobiernos tienen sobre las empresas de IA, especialmente cuando están involucrados intereses de seguridad nacional. Esta dinámica plantea interrogantes sobre el futuro del desarrollo de la IA y su posible alineación con objetivos militares, incluso si eso significa comprometer los límites éticos iniciales.















































