Don Feria / AP / Scanpix / LETA
истории

Один из крупнейших в мире ИИ-стартапов — Anthropic — поссорился с Пентагоном. Компания отказалась давать военным полный доступ к своей модели Claude Теперь она под угрозой исчезновения

Источник: Meduza

В конце прошлой недели глава Пентагона Пит Хегсет поставил перед американским ИИ-стартапом Anthropic ультиматум. Он потребовал, чтобы компания сняла все ограничения на использование моделей искусственного интеллекта Claude в военных целях. Несмотря на то, что Anthropic уже полтора года сотрудничал с ведомством, на такой шаг стартап пойти отказался. В результате 27 февраля Дональд Трамп запретил использовать Claude во всех федеральных агентствах. «Медуза» рассказывает, чем известен Anthropic и почему один из крупнейших в мире ИИ-стартапов оказался на грани исчезновения.


Компания Anthropic была основана в 2021 году бывшими сотрудниками OpenAI. Среди них Дарио Амодеи и Даниэла Амодеи, брат и сестра. Первый присоединился к OpenAI в середине 2016-го, через полгода после основания компании. На момент увольнения он занимал должность вице-президента по исследованиям. Даниэла пришла позже, в конце 2018-го. В OpenAI она была вице-президентом по безопасности и политике.

Оба уволились в декабре 2020 года вместе с еще несколькими разработчиками искусственного интеллекта. Газета Financial Times со ссылкой на источники рассказывала, что между исследователями и руководством OpenAI возникли принципиальные разногласия по поводу развития компании. Это произошло после того, как организация привлекла первый миллиард долларов инвестиций от Microsoft. Cотрудники OpenAI опасались смены курса компании и активной коммерциализации продуктов (в конечном итоге их опасения оправдались).

Дарио и Даниэла Амодеи на мероприятии Bloomberg Technology Summit в Сан-Франциско. 9 мая 2024 года

David Paul Morris / Bloomberg / Getty Images

В Anthropic Даниэла Амодеи заняла должность президента компании, а ее брат стал генеральным директором. На официальном сайте подчеркивается, что при создании продуктов разработчики в первую очередь фокусируются на их безопасности. По своей структуре Anthropic — общественно полезная корпорация. То есть коммерческая компания, которая извлекает прибыль из своих продуктов, но обязана учитывать интересы общества.

Главная разработка Anthropic — семейство больших языковых моделей Claude, первая из которых вышла в марте 2023 года. Они подходят для решения широкого спектра задач, как и системы конкурентов (например, GPT от OpenAI или Gemini от Google). Однако данные бенчмарков подтверждают, что модели Claude лучше других справляются с вопросами, связанными с программированием. Некоторые журналисты также утверждают, что один из инструментов Anthropic, ИИ-агент Claude Code, спровоцировал в начале 2026-го новую волну интереса пользователей к вайб-кодингу за счет своей простоты и эффективности.

Конфликт руководства Anthropic с Пентагоном продолжается больше полугода. Ведомство требует полного доступа к ИИ-моделям Claude

С американскими военными структурами Anthropic сотрудничает уже почти полтора года. В ноябре 2024 года она объявила о партнерстве с разработчиком программного обеспечения Palantir и Amazon Web Services. В рамках этого соглашения ИИ-компания согласилась предоставить американским военным доступ к Claude, чтобы улучшить анализ разведданных и процесс принятия решений.

Сотрудничество с Palantir позволило Anthropic стать первой компанией, чья модель искусственного интеллекта использовалась при решении засекреченных задач, подчеркивают Associated Press и Financial Times.

В середине 2025 года Министерство обороны США заключило несколько контрактов на разработку ИИ с разными компаниями. Среди них были Google, OpenAI, xAI и все та же Anthropic. Сообщалось, что в рамках этих контрактов каждая из компаний получит до 200 миллионов долларов. Источники The Wall Street Journal в январе 2026-го рассказывали, что почти сразу после заключения контракта между сторонами возникла напряженность. Anthropic настаивала на безопасном применении своей ИИ-системы и выступала против того, чтобы Claude использовали в военных операциях, подразумевающих человеческие жертвы.

Кроме того, компания запретила использовать искусственный интеллект для любых активностей, связанных с наблюдением внутри США. Это ограничило применение Claude в операциях Иммиграционной и таможенной полиции США, ФБР и других правоохранительных ведомств. Уже тогда источники WSJ допускали расторжение контракта на 200 миллионов.

В середине февраля источники газеты сообщили, что Claude использовали во время операции по захвату президента Венесуэлы Николаса Мадуро в начале января 2026 года. Тогда американская армия нанесла серию авиаударов по объектам в Каракасе. Самого Мадуро и его жену Силию Флорес вывезли из страны и доставили в США, где предъявили обвинения (в том числе в «наркотерроризме»). По разным оценкам, в ходе операции погибли от 75 до 100 человек.

Как именно использовался Claude во время захвата Мадуро — не уточняется. Представитель Anthropic заявил WSJ, что не может комментировать применение любых ИИ-моделей в подобных операциях. «Наша страна требует, чтобы наши партнеры были готовы помогать нашим военным побеждать в любом бою», — подчеркнул в свою очередь пресс-секретарь Пентагона Шон Парнелл. Он также добавил, что Пентагон решил пересмотреть свои отношения с Anthropic.

Во вторник, 24 февраля, журналисты Axios узнали, что глава Пентагона Пит Хегсет поставил перед руководством компании ультиматум. От Anthropic потребовали снять все ограничения и предоставить военным беспрепятственный доступ к Claude. В противном случае Хегсет угрожал либо разорвать все связи с компанией, либо применить Закон об оборонном производстве. Он позволяет принудительно заставить компанию адаптировать ИИ-модель к потребностям военных.

Свое решение Anthropic должна была озвучить до вечера пятницы. 26 февраля Дарио Амодеи заявил, что компания не может удовлетворить требования Пентагона. Он подчеркнул, что военные требуют разрешить использование Claude для массового наблюдения внутри страны и для полностью автономного оружия. По словам Амодеи, эти запросы противоречат условиям оригинального контракта.

Источник The Atlantic при этом утверждает, что Anthropic была готова пойти на уступки через некоторое время. Кроме того, компания не утверждала, что автономное оружие, которое может выбирать цели без участия человека, не должно существовать (на это указывают и слова Амодеи). Однако на текущем этапе развития ИИ Anthropic не может гарантировать безопасность как для мирных жителей, так и для самих американских военных.

На следующий день Дональд Трамп назвал разработчиков Claude «левыми придурками». Президент заявил, что поручил всем федеральным агентствам прекратить использование технологий Anthropic. Для Пентагона и еще нескольких неназванных ведомств Трамп установил шестимесячный переходный период, во время которого они должны постепенно исключить разработки компании из внутренних процессов.

Буквально через несколько часов после поста Дональда Трампа американские военные использовали технологии Anthropic для нанесения удара по Ирану. Это подтверждают источники сразу нескольких новостных изданий: Reuters, WSJ и Axios. При этом ни одному из них не удалось выяснить, какие именно ИИ-инструменты и для каких конкретно задач задействовали американские военные.

Хотите понять, что происходит в Иране? Очень скоро в издательстве «Медузы» выйдет второе издание книги Никиты Смагина «Всем Иран» — важнейшая книга об этой стране. Вы можете оформить предзаказ уже сейчас.

Anthropic уже нашли замену — ею стала OpenAI. Хотя ее глава Сэм Альтман не в восторге от поведения американских властей 

В тот же день, когда Трамп объявил о прекращении сотрудничества с Anthropic, глава OpenAI Сэм Альтман объявил о заключении соглашения с Пентагоном о подключении моделей компании к засекреченной сети ведомства. Фактически это означает, что продукты его компании заменят Claude. Уже 2 марта сразу несколько американских ведомств перешли с Claude на модели OpenAI, пишет Reuters. Об этом, в частности, заявили представители Госдепартамента, Минфина и Министерства здравоохранения и социальных служб США.

Альтман подчеркнул, что в соглашении есть пункты, запрещающие использовать ИИ-системы для наблюдения внутри страны, а также сохраняющие за человеком ответственность за применение автономных систем вооружения. В отдельном твите глава OpenAI назвал произошедшее с Anthropic «крайне пугающим прецедентом» и возложил большую часть ответственности за разрыв соглашения на правительство.

Альтман также предположил, что конкуренты, вероятно, слишком сосредоточились на конкретных запретах и хотели больше контроля. Текущие формулировки соглашения OpenAI с Пентагоном его полностью устраивают.

Судьба 200-миллионного контракта Пентагона с Anthropic пока остается неясной. Однако у разрыва отношений между сторонами уже есть серьезные последствия. Ранее Пит Хегсет угрожал объявить компанию «угрозой для цепочки поставок». Эти слова нанесли определенный ущерб Anthropic, пишет TechCrunch со ссылкой на бывшего чиновника Дина Болла, работавшего в администрации Трампа.

По мнению Болла, компания может лишиться ключевых партнеров, из-за чего фактически окажется под угрозой исчезновения. Даже если Хегсет не выполнит эту угрозу или решение впоследствии будет отменено, процесс разбирательства может затянуться на длительное время. Учитывая стремительное развитие отрасли, это уничтожит Anthropic.

При этом компания сама загнала себя в эту ловушку, считает ученый и профессор Массачусетского технологического института Макс Тегмарк. В том числе потому, что вместе с другими лидерами в сфере искусственного интеллекта активно сопротивлялась регулированию отрасли. В результате разработчики ИИ оказались в ситуации, когда не существует никаких правил о том, где и как могут использоваться их системы. Фактически они никак не защищены законом от требований, аналогичных ультиматуму Пентагона.

Представители Anthropic уже заявили, что будут оспаривать возможное решение американских властей в суде. В частности, они собираются настаивать, что признание компании «угрозой для цепочки поставок» касается только контрактов с Пентагоном — но никак не соглашений с другими клиентами, в том числе в военной сфере. При этом официального уведомления о присвоении нового статуса Anthropic к началу недели так и не получила.

Обычные пользователи, в свою очередь, принципиальность компании оценили. На следующий день после того, как Дарио Амодеи отказался идти на уступки Пентагону, мобильное приложение Claude возглавило чарты американского App Store и удерживает первую строчку на момент публикации этого текста. В топе оно обошло ChatGPT, который находился там долгое время.

По данным аналитической компании Sensor Tower, количество установок Claude в США 28 февраля выросло на 51%, если сравнивать с предыдущим днем. А прирост удалений ChatGPT при этом подскочил в субботу до 295%, хотя в среднем этот показатель за последний месяц держался на отметке 9%. Схожая картина и в Великобритании, отмечает The Guardian. Причем Claude стремительно набирает популярность и в Google Play в обеих странах.

Однако это вряд ли поможет компании. На текущий момент Anthropic — один из крупнейших ИИ-стартапов в мире с оценкой в 380 миллиардов долларов. По этому показателю компания уступает только OpenAI. И обе они на текущем этапе очень сильно зависят не от количества пользователей, а в первую очередь от внешних инвестиций и партнеров. И, как мы писали выше, именно с последними у Anthropic могут начаться серьезные проблемы.

«Медуза»

Magic link? Это волшебная ссылка: она открывает лайт-версию материала. Ее можно отправить тому, у кого «Медуза» заблокирована, — и все откроется! Будьте осторожны: «Медуза» в РФ — «нежелательная» организация. Не посылайте наши статьи людям, которым вы не доверяете.