Anthropic, het AI-bedrijf achter de Claude-chatbot, lijkt klaar om de samenwerking met het Amerikaanse ministerie van Defensie te hervatten, ondanks het feit dat de onderhandelingen over militaire toepassingen van zijn technologie eerder zijn stopgezet. Deze omkering volgt op dreigementen van functionarissen om Anthropic als een nationaal veiligheidsrisico te bestempelen, waardoor het bedrijf feitelijk onder druk wordt gezet om zijn standpunt te heroverwegen.
Het aanvankelijke geschil en de eisen van Anthropic
Het conflict begon nadat Anthropic een contract van 200 miljoen dollar had afgesloten met het Ministerie van Defensie, maar vervolgens expliciete garanties zocht tegen het gebruik van zijn AI-modellen voor binnenlands toezicht of de ontwikkeling van autonome wapens. De regering-Trump weigerde deze voorwaarden en claimde het recht om de technologie voor elk ‘wettig’ doel te gebruiken. Dit leidde tot een mislukking van de gesprekken, waarbij minister van Defensie Pete Hegseth zelfs dreigde Anthropic als een risico voor de toeleveringsketen te bestempelen. President Trump bekritiseerde het bedrijf publiekelijk als ‘radicaal links’ en beval een verbod van zes maanden op federaal gebruik van de tools van Anthropic.
Positieverandering en voortdurende onderhandelingen
Volgens rapporten van de Financial Times heeft Dario Amodei, CEO van Anthropic, de onderhandelingen heropend om de aanwijzing als toeleveringsketen te vermijden. Er zijn nu gesprekken gaande met onderminister van Defensie Emil Michael, die Amodei onlangs omschreef als een ‘leugenaar’ met een ‘God-complex’. In een interne memo onthulde Amodei dat het Ministerie van Defensie had aangeboden de huidige voorwaarden van Anthropic te accepteren als er ook maar één zinsnede over “analyse van in bulk verkregen gegevens” uit het contract zou worden verwijderd.
De deal van OpenAI en de kritiek van Anthropic
De timing valt samen met de recente overeenkomst van OpenAI met de Amerikaanse overheid om haar AI-instrumenten in militaire omgevingen in te zetten. In de interne communicatie van Anthropic werd naar verluidt de spot gedreven met OpenAI-CEO Sam Altman, waarbij hij werd beschuldigd van deelname aan ‘veiligheidstheater’ en werd gesuggereerd dat medewerkers van OpenAI ‘goedgelovig’ waren omdat ze geloofden in de garanties van het bedrijf over niet-bewakingsgebruik.
Mogelijke implicaties
Als er een nieuwe overeenkomst wordt bereikt, zal het Amerikaanse leger waarschijnlijk gebruik blijven maken van de technologie van Anthropic, die naar verluidt al wordt gebruikt bij operaties, waaronder aanvallen in Iran. Deze situatie benadrukt de groeiende spanning tussen AI-bedrijven en overheden over de ethische en veiligheidsimplicaties van militaire toepassingen van kunstmatige intelligentie.
De heropleving van deze onderhandelingen onderstreept de aanzienlijke invloed die regeringen hebben op AI-bedrijven, vooral als er nationale veiligheidsbelangen bij betrokken zijn. Deze dynamiek roept vragen op over de toekomst van de AI-ontwikkeling en de mogelijke aansluiting ervan op militaire doelstellingen, zelfs als dit betekent dat de aanvankelijke ethische grenzen in gevaar worden gebracht.













































