Утечка исходного кода Claude Code: пять срочных шагов для корпоративной безопасности

14

Критическая уязвимость в безопасности появилась в AI-агенте Anthropic для кодирования, Claude Code: его полный исходный код был случайно опубликован в сети. Утечка объемом 59,8 МБ, содержащая 512 000 строк TypeScript, включает конфиденциальные данные, такие как модель разрешений, валидаторы безопасности, невыпущенные функции и ссылки на будущие AI-модели. Эта утечка касается не только потери интеллектуальной собственности, она фундаментально меняет риски для предприятий, использующих инструменты разработки с помощью AI.

Утечка и ее немедленное влияние

31 марта Anthropic ошибочно включил файл source map в версию 2.1.88 пакета @anthropic-ai/claude-code npm. В течение нескольких часов код распространился по GitHub, несмотря на первоначальные попытки Anthropic удалить его по DMCA. Утечка исходного кода раскрывает внутреннюю архитектуру Claude Code, включая его агентурную оболочку для использования инструментов, управления файлами и выполнения команд bash. Конкуренты и стартапы теперь могут воспроизвести его функциональность без обратной инженерии, ускоряя разработку AI, подрывая при этом конкурентные преимущества Anthropic.

Двойная угроза: утечка исходного кода и вредоносное ПО

Утечка совпала с вредоносной версией пакета axios npm, содержащей троян удаленного доступа. Команды, обновлявшие Claude Code между 00:21 и 03:29 UTC 31 марта, могли непреднамеренно установить как утекший исходный код, так и вредоносное ПО одновременно. Эта двойная уязвимость подчеркивает общую опасность зависимости от сторонних зависимостей без строгой проверки.

Почему это важно: AI-генерируемый код и защита интеллектуальной собственности

Claude Code на 90% создан AI, что поднимает юридические вопросы о защите интеллектуальной собственности в соответствии с законодательством США об авторском праве. Утечка кода может снизить ценность интеллектуальной собственности, особенно по мере ее широкой доступности. Более критично, этот инцидент подчеркивает системный разрыв между возможностями AI-продукта и оперативной дисциплиной, как отмечает Gartner. Предприятиям необходимо пересмотреть оценку поставщиков AI, уделяя приоритетное внимание зрелости безопасности наряду с инновациями.

Три пути эксплуатации, раскрытых утечкой

Утечка source map делает ранее теоретические атаки практическими. Специалисты по безопасности выявили три ключевые уязвимости:

  1. Отравление контекста: путем внедрения вредоносных инструкций в файлы конфигурации злоумышленники могут заставить Claude Code выполнять вредоносные команды.
  2. Обход песочницы: расхождения в синтаксическом анализе команд bash позволяют злоумышленникам обходить валидаторы безопасности, используя пограничные случаи.
  3. Оружизация сотрудничества: злоумышленники могут использовать склонность модели к сотрудничеству, создавая отравленный контекст, который заставит ее выполнять вредоносные команды, которые кажутся легитимными.

Предупреждения экспертов: чрезмерно широкие разрешения

Технический директор CrowdStrike Элия Зайцев предупреждает о предоставлении AI-агентам чрезмерных разрешений. «Не давайте агенту доступ ко всему только потому, что вы ленитесь», — сказал он. «Дайте ему доступ только к тому, что необходимо для выполнения работы». Утечка исходного кода показывает, что система разрешений Claude Code детализирована, но предприятия должны обеспечить аналогичную дисциплину со своей стороны.

Пять немедленных действий для руководителей безопасности

Для снижения рисков руководители безопасности должны предпринять следующие шаги на этой неделе:

  1. Проверка файлов конфигурации: сканируйте CLAUDE.md и .claude/config.json во всех клонированных репозиториях на предмет вредоносных инструкций.
  2. Рассматривайте MCP-серверы как ненадежные: фиксируйте версии, проверяйте зависимости и отслеживайте несанкционированные изменения.
  3. Ограничение разрешений Bash: внедрите сканирование секретов перед коммитом, чтобы предотвратить утечку учетных данных.
  4. Требуйте ответственности от поставщиков: требуйте от поставщиков AI-агентов для кодирования предоставления SLA, истории доступности и документации реагирования на инциденты. Разработайте возможность переключения поставщика за 30 дней.
  5. Проверка происхождения коммитов: внедрите проверку происхождения коммитов, чтобы предотвратить удаление атрибуции AI-помощью кодом.

Утечка исходного кода является хорошо задокументированным классом сбоев; Apple и Persona пострадали от подобных инцидентов в прошлом году. Утечка Anthropic теперь представляет собой системную угрозу для всей AI-экосистемы разработки. Вопрос не в том, произойдет ли это снова, а в том, насколько готовы предприятия, когда это произойдет.