Anthropic, perusahaan AI di balik chatbot Claude, tampaknya siap untuk melanjutkan kolaborasi dengan Departemen Pertahanan A.S. meskipun sebelumnya menghentikan negosiasi mengenai penerapan teknologi militernya. Pembalikan ini terjadi setelah adanya ancaman dari para pejabat untuk menetapkan Anthropic sebagai risiko keamanan nasional, yang secara efektif menekan perusahaan untuk mempertimbangkan kembali pendiriannya.
Perselisihan Awal dan Tuntutan Antropis
Konflik ini dimulai setelah Anthropic mendapatkan kontrak senilai $200 juta dengan Departemen Pertahanan namun kemudian meminta jaminan eksplisit terhadap penggunaan model AI untuk pengawasan domestik atau pengembangan senjata otonom. Pemerintahan Trump menolak persyaratan ini, dan menegaskan hak untuk menggunakan teknologi tersebut untuk tujuan apa pun yang “halal”. Hal ini menyebabkan kegagalan dalam pembicaraan, dan Menteri Pertahanan Pete Hegseth bahkan mengancam untuk menyebut Anthropic sebagai risiko rantai pasokan. Presiden Trump secara terbuka mengkritik perusahaan tersebut sebagai “radikal kiri” dan memerintahkan larangan enam bulan terhadap penggunaan alat Anthropic oleh pemerintah federal.
Pergeseran Posisi dan Negosiasi yang Berkelanjutan
Menurut laporan dari Financial Times, CEO Anthropic Dario Amodei telah membuka kembali negosiasi untuk menghindari penunjukan rantai pasokan. Diskusi kini sedang berlangsung dengan Wakil Menteri Pertahanan Emil Michael, yang baru-baru ini menggambarkan Amodei sebagai “pembohong” yang memiliki “kompleks terhadap Tuhan.” Dalam memo internal, Amodei mengungkapkan bahwa Departemen Pertahanan menawarkan untuk menerima persyaratan Anthropic saat ini jika satu frasa mengenai “analisis data yang diperoleh secara massal” dihapus dari kontrak.
Kesepakatan OpenAI dan Kritik Anthropic
Waktunya bertepatan dengan perjanjian OpenAI baru-baru ini dengan pemerintah AS untuk menerapkan alat AI-nya di lingkungan militer. Komunikasi internal Anthropic dilaporkan mengejek CEO OpenAI Sam Altman, menuduhnya terlibat dalam “teater keselamatan” dan menyatakan bahwa karyawan OpenAI “mudah tertipu” karena mempercayai jaminan perusahaan tentang penggunaan non-pengawasan.
Potensi Implikasi
Jika kesepakatan baru tercapai, militer AS kemungkinan akan terus memanfaatkan teknologi Anthropic, yang dilaporkan telah digunakan dalam berbagai operasi, termasuk serangan di Iran. Situasi ini menyoroti meningkatnya ketegangan antara perusahaan AI dan pemerintah mengenai implikasi etika dan keamanan dari penerapan kecerdasan buatan untuk militer.
Kebangkitan kembali negosiasi-negosiasi ini menggarisbawahi besarnya pengaruh pemerintah terhadap perusahaan-perusahaan AI, terutama ketika kepentingan keamanan nasional dilibatkan. Dinamika ini menimbulkan pertanyaan tentang masa depan pengembangan AI dan potensi keselarasan dengan tujuan-tujuan militer, bahkan jika hal tersebut berarti mengorbankan batasan-batasan etika awal.













































