Скандал вокруг Anthropic, Пентагона и ударов по Ирану: что известно о роли ИИ в системе Maven

По состоянию на начало марта 2026 года уже подтверждено, что Claude использовался в экосистеме Maven Smart System от Palantir для обработки разведданных и помощи в приоритизации целей. При этом нет подтверждённого вывода, что именно Claude или сама система Maven «выбрали» школу в Минабе как цель для удара.
Что такое Maven Smart System и при чём здесь Claude
Maven Smart System - это военная аналитическая платформа Palantir, предназначенная для обработки больших массивов разведданных, изображений, наблюдений и другой оперативной информации. По данным крупных американских СМИ, в эту систему был встроен Claude от Anthropic, а сама связка применялась в кампании США против Ирана для ускорения анализа обстановки, расстановки приоритетов и подготовки целеуказания. Речь идёт не о «кнопке пуска», а о помощи в анализе, фильтрации и ранжировании огромного количества данных, которые раньше разбирались заметно медленнее.
Anthropic и сама официально подтверждала сотрудничество с американским оборонным сектором. Компания заявляла, что её модели используются для разведывательного анализа, моделирования, оперативного планирования и киберопераций, а летом 2025 года получила оборонный контракт с предельной суммой до 200 миллионов долларов.
Почему эта история стала скандальной
Проблема в том, что на фоне войны и ударов по Ирану публично всплыл вопрос: насколько глубоко ИИ уже встроен в боевой цикл принятия решений. Если раньше подобные системы чаще воспринимались как вспомогательная аналитика, то теперь речь идёт о реальном влиянии на темп военных операций, выбор приоритетов и ускорение обработки целей. Именно это и вызвало новую волну споров о том, где заканчивается «помощь аналитикам» и начинается фактическое участие ИИ в боевых действиях. Этот вывод следует из совокупности публикаций о применении Maven и официальных заявлений Anthropic и OpenAI о допустимых границах военного использования моделей.
Что произошло в Минабе
Отдельной и самой тяжёлой частью истории стал удар по школе для девочек в иранском городе Минаб. По сообщениям Reuters и других крупных изданий, в результате удара погибли более 160 человек, а в ряде публикаций фигурирует оценка около 175 погибших школьниц и сотрудников. Американские чиновники публично не признали умышленного удара по гражданскому объекту, но Reuters со ссылкой на источники сообщило, что внутреннее расследование США указывает на вероятную ответственность именно американской стороны. При этом расследование на момент публикации ещё не завершено окончательно.
Здесь важна точность формулировок. На сегодня корректно писать так: удар по школе в Минабе действительно произошёл, число жертв оценивается более чем в 160 человек, а расследование в США, по данным Reuters, склоняется к версии о вероятной ответственности американских сил. Но это не равнозначно официально завершённому и опубликованному выводу.
Есть ли доказательства, что именно ИИ привёл к этой трагедии
На данный момент таких доказательств в открытых и надёжных источниках нет. Подтверждено, что Maven с интеграцией Claude применялась для ускорения обработки разведданных и помощи в таргетинге во время кампании против Ирана. Но утверждение, что именно Claude «ошибся» и направил удар по школе, пока не подтверждено официальными документами, завершённым расследованием или публично раскрытыми данными Пентагона. Это очень важное различие, потому что в соцсетях и пересказах история часто подаётся как уже доказанный факт, хотя в реальности речь пока идёт о совпадении двух связанных, но не полностью сведённых в одну цепочку событий.
Почему Пентагон поссорился с Anthropic
Конфликт разгорелся после того, как Anthropic отказалась давать Пентагону режим фактически безусловного использования своих моделей для любых законных целей без сохранения двух исключений. Компания настаивала на своих «красных линиях»: не допускать массовую слежку за американцами и не разрешать использование модели в полностью автономном оружии без участия человека. Anthropic заявляет, что современные frontier-модели пока недостаточно надёжны для самостоятельного принятия решений, где на кону жизнь людей.
После этого американское военное ведомство официально обозначило Anthropic как «риск для цепочки поставок» в сфере национальной безопасности. Сама компания назвала это решение юридически сомнительным и заявила о готовности оспаривать его в суде. Anthropic также подчёркивает, что её спор с Пентагоном не означает отказа от сотрудничества с государством вообще, а связан именно с двумя исключениями, от которых компания не захотела отказаться.
Что сказал Дарио Амодей
Глава Anthropic Дарио Амодей в последних публичных выступлениях фактически занял двойную позицию. С одной стороны, он признал, что тон его внутренней записки и последующих заявлений был неудачным и лишь обострил конфликт. С другой — от самих принципов компания не отказалась. В интервью CBS он вновь подчеркнул, что Anthropic не хочет, чтобы её модели использовались в полностью автономных системах поражения или в сценариях массовой внутренней слежки. По его словам, такие модели пока не обладают достаточной надёжностью, чтобы им можно было доверить решения, способные привести к гибели мирных жителей или собственных военных.
Почему в этой истории всплыл OpenAI
На фоне конфликта Anthropic с Пентагоном освободившееся пространство быстро заняла OpenAI. Компания подтвердила собственное соглашение с военным ведомством США и заявила, что будет работать в рамках допустимого законом использования, но при этом сохранит ряд ограничений и защитных механизмов. OpenAI отдельно отмечает, что не поддерживает полностью автономное применение летальной силы без предусмотренного законом или политикой человеческого контроля.
Из-за этого история получила ещё и корпоративное измерение. Для части наблюдателей это спор не только об этике ИИ на войне, но и о том, какие компании готовы идти на более широкие условия сотрудничества с государством, а какие пытаются оставить для себя право на собственные ограничения.
Что на самом деле нужно понимать
Главный вывод сейчас такой: система на базе Claude действительно применялась в военной инфраструктуре США и была частью более широкого процесса анализа и приоритизации целей. Удар по школе в Минабе действительно расследуется, а число погибших оценивается более чем в 160 человек. Конфликт между Anthropic и Пентагоном действительно произошёл из-за отказа компании снять ограничения на некоторые военные сценарии использования ИИ. Но утверждать как установленный факт, что именно Claude напрямую выбрал школу как цель, на сегодня нельзя.
Именно поэтому эта история так важна для всей индустрии. Она показывает, что эпоха «мирных чат-ботов» закончилась: крупнейшие ИИ-модели уже встроены в государственные и военные процессы, а вопрос о том, кто и где проводит красные линии, перестаёт быть теоретическим. Теперь это не дискуссия о будущем, а конфликт, который разворачивается в реальном времени — с человеческими жертвами, политическими последствиями и борьбой за контроль над самой чувствительной областью применения ИИ. Этот вывод является аналитической интерпретацией на основе подтверждённых фактов о Maven, Минабе и споре Anthropic с Пентагоном.


