Во вторник юристы военного министерства и Anthropic столкнулись в федеральном суде Калифорнии по поводу иска Anthropic Пентагону, назвав его «риском цепочки поставок» для национальной безопасности и запретив всем правительственным подрядчикам использовать обширные инструменты искусственного интеллекта компании. Anthropic добивается постановления суда, препятствующего исполнению этого постановления.
Дело, ставшее историческим первым, поскольку Министерство обороны, неофициально переименованное администрацией Трампа в Министерство войны (DOW), назвало компанию, возглавляемую США, риском для цепочки поставок национальной безопасности, уходит корнями в переговоры по контракту, которые быстро обострились. Министерство обороны США хотело добавить в свои контракты с фирмой, занимающейся искусственным интеллектом, общий пункт о «всех законном использовании», чтобы военные могли использовать инструмент Claude от Anthropic для любых законных целей.
Судья, председательствовавший по делу, выразил сомнение в широких полномочиях Пентагона по этому делу. Окружной судья США Рита Лин заявила, что вынесет решение по иску Anthropic «в ближайшие дни», и провела слушания во вторник, задавая сторонам вопросы об их разногласиях.
Горячий спор о том, как использовать ИИ
Во время переговоров по контракту с Пентагоном в феврале Anthropic возражала против возможности использования Клода военными для смертельной автономной войны и массовой слежки за американцами и пыталась настаивать на положениях, прямо запрещающих такое использование. Anthropic, возглавляемая основателем Дарио Амодеи, заявила, что не проводила тщательного тестирования этих способов применения и не считает, что они работают безопасно. В DOW заявили, что эти барьеры неприемлемы и что военным командирам нужна свобода принимать решения относительно миссий.
27 февраля президент Трамп разместил на Truth Social приказ «ВСЕМ» федеральным агентствам «НЕМЕДЛЕННО ПРЕКРАТИТЬ» любое использование антропных инструментов. В тот же день в почта В день Метка риска обычно присваивается национальным государствам, иностранным противникам и другим угрозам.
Затем Anthropic подала иск 9 марта, утверждая, что правительство «применило против нее ответные меры» за выражение своего взгляда на перила безопасности и нарушило при этом Первую поправку. Он также заявил, что правительство нарушило процессуальный процесс, установленный Законом об административных процедурах и пятой поправкой к праву на надлежащую правовую процедуру.
В материалах по этому делу и в суде во вторник правительство заявило, что действия администрации были ответом на отказ Anthropic выполнить определенные условия своего контракта, и заявило, что свобода слова в этом деле не поставлена на карту. Заместитель генерального прокурора Эрик Гамильтон заявил, что правительство имеет неограниченные полномочия определять, с какими компаниями оно будет заключать контракты. Гамильтон сказал, что поведение Anthropic вызвало опасения, что будущие обновления программного обеспечения могут быть использованы в качестве «выключателя», препятствующего работе ИИ в военных операциях.
Окружной судья Рита Ф. Лин отнеслась к делу скептически, охарактеризовав это дело в своих вступительных заявлениях как «увлекательные дебаты о государственной политике» о позиции Anthropic и военных потребностях правительства, но сказала, что ее роль не в том, чтобы «решать, кто прав в этих дебатах».
Скорее, Лин сказал, что реальный вопрос, который должен решить суд, заключается в том, «нарушило ли правительство закон», когда оно вышло за рамки простого отказа от использования услуг искусственного интеллекта Anthropic и поиска более допустимого поставщика искусственного интеллекта для работы.
«После того, как Anthropic обнародовала этот спор по контракту, ответчики, похоже, довольно бурно на него отреагировали», — сказал Лин.
Реакция включала запрет Anthropic на получение государственного контракта, а также запрет другим организациям, таким как Национальный фонд искусств, использовать его для разработки веб-сайта; директива Хегсета о том, что любой, кто хочет вести дела с вооруженными силами США, должен разорвать свои деловые отношения с Anthropic; и определение Anthropic как риска цепочки поставок.
«Что меня беспокоит в этой реакции, так это то, что она, похоже, на самом деле не соответствует заявленной проблеме национальной безопасности», – сказал Линь. Если беспокойство вызывает субординация, DOW может просто прекратить использовать Клода и двигаться дальше, сказал он.
«В одном из докладов amicus использовался термин «покушение на корпоративное убийство», — добавил он. «Я не знаю, убийство ли это, но это похоже на попытку нанести вред Anthropic. И особенно меня беспокоит, наказывают ли Anthropic за критику договорной позиции правительства в прессе».
Партии объединяются вокруг Anthropic
Amicus, друг суда, в своей записке по этому делу высказал множество голосов, в том числе из Microsoft, офицеров в отставке, а также инженеров и исследователей из OpenAI и Google. Почти все поддерживают позицию Anthropic, требующую запрета на определение рисков в цепочке поставок.
Отчет, на который ссылается Линь, исходит от инвесторов и «Бизнес-ассоциации экономики свободы». В статье упоминается публикация X, написанная Дином Боллом, бывшим старшим политическим советником Трампа по вопросам искусственного интеллекта и новых технологий.
«Nvidia, Amazon и Google придется избавиться от Anthropic, если Хегсет добьется своего», — написал Болл. «Это просто попытка корпоративного убийства. Я не могу рекомендовать ни одному инвестору инвестировать в американский искусственный интеллект; я не могу рекомендовать основать компанию по искусственному интеллекту в Соединенных Штатах».
Американская федерация государственных служащих, профсоюз 800 000 федеральных служащих, заявила в своем отчете amicus, что администрация Трампа имела привычку использовать соображения национальной безопасности в качестве предлога для ответных мер против свободы слова.
Microsoft написала, что запрет Anthropic нанесет ущерб ее собственному бизнесу и может замедлить будущие инвестиции в оборонную промышленность и приверженность искусственному интеллекту.
В докладе Организации по правам человека и технологической справедливости не высказывалась позиция о том, кто должен выиграть в суде, а в общих чертах выступали против военизированного ИИ и говорилось, что его использование может привести к катастрофическим рискам для прав человека.
Лин сказал, что вынесет свое мнение на этой неделе.

