Anthropic Возобновляет Сотрудничество с Пентагоном После Первоначального Противостояния

8

Anthropic, компания, стоящая за чат-ботом Claude, похоже, готова возобновить сотрудничество с Министерством обороны США, несмотря на то, что ранее приостановила переговоры из-за военного применения своих технологий. Этот разворот последовал за угрозами со стороны официальных лиц о признании Anthropic угрозой национальной безопасности, что фактически оказало давление на компанию, чтобы она пересмотрела свою позицию.

Начальный Конфликт и Требования Anthropic

Конфликт начался после того, как Anthropic заключила контракт с Пентагоном на 200 миллионов долларов, но впоследствии потребовала явных гарантий против использования своих моделей ИИ для внутренней слежки или разработки автономного оружия. Администрация Трампа отказалась от этих условий, утверждая право использовать технологию для любых «законных» целей. Это привело к срыву переговоров, и госсекретарь Пит Хегсет даже пригрозил признать Anthropic риском для цепочки поставок. Президент Трамп публично раскритиковал компанию как «радикально левую» и распорядился о шестимесячном запрете на использование инструментов Anthropic в федеральных целях.

Изменение Позиции и Текущие Переговоры

Согласно сообщениям Financial Times, генеральный директор Anthropic Дарио Амодеи возобновил переговоры, чтобы избежать признания риском для цепочки поставок. В настоящее время ведутся обсуждения с заместителем министра обороны Эмилем Майклом, который недавно назвал Амодеи «лжецом» с «комплексом Бога». Во внутреннем служебном меморандуме Амодеи сообщил, что Пентагон согласился принять текущие условия Anthropic, если из контракта будет удалена одна фраза, касающаяся «анализа массово собранных данных».

Сделка OpenAI и Критика Anthropic

Время совпадает с недавним соглашением OpenAI с правительством США о развертывании своих инструментов ИИ в военных целях. Внутренняя переписка Anthropic, по сообщениям, высмеивала генерального директора OpenAI Сэма Альтмана, обвиняя его в «постановке безопасности» и предполагая, что сотрудники OpenAI были «наивны», веря в заверения компании о неиспользовании для слежки.

Возможные Последствия

Если будет достигнуто новое соглашение, американские военные, вероятно, продолжат использовать технологию Anthropic, которая, по сообщениям, уже используется в операциях, включая удары в Иране. Эта ситуация подчеркивает растущую напряженность между компаниями, разрабатывающими ИИ, и правительствами в отношении этических и проблем безопасности, связанных с военным применением искусственного интеллекта.

Возобновление этих переговоров подчеркивает значительный рычаг влияния, которым обладают правительства над компаниями, разрабатывающими ИИ, особенно когда речь идет об интересах национальной безопасности. Эта динамика ставит под вопрос будущее развития ИИ и его потенциальное соответствие военным целям, даже если это означает нарушение первоначальных этических границ.