Контракт Anthropic с Министерством обороны на 200 миллионов долларов оказался под вопросом после того, как Anthropic, как сообщается, выразила обеспокоенность по поводу использования Пентагоном своей модели искусственного интеллекта Клода во время январского рейда Николаса Мадуро.
«Отношения военного министерства с Anthropic находятся на рассмотрении», — заявил в заявлении Fortune главный представитель Пентагона Шон Парнелл. «Наша страна требует, чтобы наши партнеры были готовы помочь нашим бойцам победить в любой битве. В конечном итоге речь идет о наших войсках и безопасности американского народа».
По данным The Hill, в последние недели напряженность возросла после того, как высокопоставленный чиновник Anthropic, как сообщается, подошел к высшему руководителю Palantir и спросил, как Клод использовался в рейде. Руководитель Palantir интерпретировал такой подход как неодобрение использования модели в рейде и отправил подробности обмена в Пентагон. (Президент Трамп заявил, что во время рейда военные использовали «разъединяющее оружие», которое вывело вражескую технику из строя.)
«Anthropic не обсуждала использование Клода для конкретных операций с военным министерством», — заявил представитель Anthropic в заявлении для Fortune. «Мы также не обсуждали это и не выражали озабоченности каким-либо отраслевым партнерам, за исключением обычных обсуждений чисто технических вопросов».
В центре этого спора находятся договорные барьеры, определяющие, как модели ИИ могут использоваться в оборонных операциях. Генеральный директор Anthropic Дарио Амодей последовательно выступает за строгие ограничения на использование и регулирование ИИ, даже признавая, что трудно сбалансировать безопасность и прибыль. В течение нескольких месяцев компания и Министерство обороны вели спорные переговоры о том, как можно использовать Клода в военных операциях.
По контракту с Министерством обороны Anthropic не позволит Пентагону использовать свои модели искусственного интеллекта для массовой слежки за американцами или использовать свои технологии в полностью автономном оружии. Компания также запретила использование своей технологии в «летальных» или «кинетических» военных целях. Любое прямое участие в активной стрельбе во время рейда на Мадуро, скорее всего, нарушит эти условия.
Среди компаний, занимающихся искусственным интеллектом, имеющих государственные контракты (включая OpenAI, Google и xAI), Anthropic занимает прибыльное положение, что делает Claude единственной крупной языковой моделью, разрешенной в секретных сетях Пентагона.
Эту позицию Anthropic осветила в заявлении Fortune. «Claude используется в самых разных случаях, связанных с разведкой, в правительстве, включая Министерство обороны, в соответствии с нашей Политикой использования».
Компания «стремится использовать передовой искусственный интеллект для поддержки национальной безопасности США», говорится в заявлении. «Мы добросовестно ведем продуктивные переговоры с военным министерством о том, как продолжить эту работу и решить эти сложные проблемы».
Palantir, OpenAI, Google и xAI не сразу ответили на запрос о комментариях.
ИИ идет на войну
Хотя министерство обороны ускорило усилия по интеграции ИИ в свою деятельность, только xAI разрешил использование своих моделей «для всех законных целей», в то время как остальные сохраняют ограничения на использование.
Amodei уже несколько месяцев бьет тревогу по поводу защиты пользователей, предлагая Anthropic в качестве альтернативы безопасности OpenAI и Google в отсутствие правительственных постановлений. «Я чувствую себя глубоко некомфортно из-за этих решений, принятых несколькими компаниями», — сказал он в ноябре. Хотя, по слухам, Anthropic планировала ослабить ограничения, теперь компания сталкивается с возможностью полного исключения из оборонной промышленности.
Высокопоставленный представитель Пентагона заявил, что министр обороны Axios Пит Хегсет «близок» к исключению Anthropic из военной цепочки поставок, что вынуждает всех, кто хочет вести дела с военными, также разорвать связи с компанией.
«Распутать их будет огромной головной болью, и мы позаботимся о том, чтобы они заплатили цену за то, что заставили нас действовать таким образом», — сказал высокопоставленный чиновник изданию.
Вопрос о риске военных поставок – это особое обозначение, обычно предназначенное только для иностранных противников. Ближайшим прецедентом является запрет правительства Huawei в 2019 году по соображениям национальной безопасности. В случае с Anthropic источники сообщили Axios, что представители Минобороны уже некоторое время пытаются затеять драку с базирующейся в Сан-Франциско компанией.
Комментарии Пентагона являются последними в публичном споре, который достигает пика. Правительство утверждает, что заставить компании устанавливать этические ограничения для своих моделей будет излишне ограничительно, а большое количество «серых зон» сделает технологии бесполезными. Поскольку Пентагон продолжает вести переговоры с субподрядчиками ИИ о расширении его использования, общественный спор превращается в стычку по доверенности по поводу того, кто будет диктовать способы использования ИИ.

