Anthropic, компанія, яка стоїть за чат-ботом Claude, схоже готова відновити співпрацю з Міністерством оборони США, незважаючи на те, що раніше призупинила переговори через військове застосування своїх технологій. Цей розворот послідував за погрозами з боку офіційних осіб про визнання Anthropic загрозою національній безпеці, що фактично чинило тиск на компанію, щоб вона переглянула свою позицію.
Початковий Конфлікт та Вимоги Anthropic
Конфлікт почався після того, як Anthropic уклала контракт з Пентагоном на 200 мільйонів доларів, але згодом вимагала явних гарантій проти використання своїх моделей ІІ для внутрішнього стеження або розробки автономної зброї. Адміністрація Трампа відмовилася від цих умов, затверджуючи право використовувати технологію для будь-яких “законних” цілей. Це спричинило зрив переговорів, і держсекретар Піт Хегсет навіть пригрозив визнати Anthropic ризиком для ланцюжка поставок. Президент Трамп публічно розкритикував компанію як “радикально ліву” і розпорядився про шестимісячну заборону використання інструментів Anthropic у федеральних цілях.
Зміна Позиції та Поточні Переговори
Згідно з повідомленнями Financial Times, генеральний директор Anthropic Даріо Амодеї відновив переговори, щоб уникнути визнання ризиком для ланцюжка постачання. Наразі ведуться обговорення із заступником міністра оборони Емілем Майклом, який нещодавно назвав Амодеї “брехуном” із “комплексом Бога”. У внутрішньому службовому меморандумі Амодеї повідомив, що Пентагон погодився прийняти поточні умови Anthropic, якщо з контракту буде видалено одну фразу, що стосується “аналізу масово зібраних даних”.
Угода OpenAI та Критика Anthropic
Час збігається з нещодавньою угодою OpenAI з урядом США про розгортання своїх інструментів ІІ у військових цілях. Внутрішнє листування Anthropic, за повідомленнями, висміювало генерального директора OpenAI Сема Альтмана, звинувачуючи його в “постановці безпеки” і припускаючи, що співробітники OpenAI були “наївними”, вірячи в запевнення компанії про невикористання для стеження.
Можливі Наслідки
Якщо буде досягнуто нової угоди, американські військові, ймовірно, продовжать використовувати технологію Anthropic, яка, за повідомленнями, вже використовується в операціях, включаючи удари в Ірані. Ця ситуація підкреслює зростаючу напруженість між компаніями, які розробляють ІІ, та урядами щодо етичних та проблем безпеки, пов’язаних з військовим застосуванням штучного інтелекту.
Відновлення цих переговорів підкреслює значний важіль впливу, який мають уряди над компаніями, які розробляють ІІ, особливо коли йдеться про інтереси національної безпеки. Ця динаміка ставить під питання майбутнє розвитку ІІ та його потенційну відповідність військовим цілям, навіть якщо це означає порушення початкових етичних кордонів.









































































