В борьбе с Hegseth Anthropic сталкивается, пожалуй, с самым большим кризисом за пять лет своего существования | Удача

Дата:

Компания Anthropic, занимающаяся искусственным интеллектом, сталкивается, пожалуй, с самым большим кризисом за свои пять лет существования, поскольку приближается крайний срок в пятницу, чтобы снять ограничения на то, как Военное министерство США может использовать ее технологии, или столкнуться с возможностью того, что Пентагон предпримет действия, которые могут нанести вред ее бизнесу.

Пит Хегсет, военный министр США, потребовал, чтобы Anthropic сняла ограничения, которые она в настоящее время предусматривает в своих контрактах, запрещающие использование ее моделей ИИ для массового наблюдения или включение в смертоносное автономное оружие, которое может принимать решения об атаке без вмешательства человека. Вместо этого Хегсет хочет, чтобы Anthropic оговорила, что ее технология может использоваться для «любых законных целей», которые желает преследовать военное министерство.

Если компания не выполнит требования к пятнице, Хегсет пригрозил не только расторгнуть существующий контракт Anthropic с его департаментом на 200 миллионов долларов, но и объявить компанию «риском цепочки поставок», а это означает, что ни одна компания, которая ведет бизнес с военным министерством, не сможет использовать модели Anthropic. Это может подорвать рост Anthropic, поскольку компания, которая в настоящее время оценивается в $380 млрд, демонстрирует значительный рост бизнеса и планирует провести первичное публичное размещение акций уже в следующем году.

Встреча во вторник между Хегсетом и генеральным директором Anthropic Дарио Амодеем в Вашингтоне, округ Колумбия, не привела к разрешению конфликта и закончилась тем, что Хегсет повторил свой ультиматум.

Спор возникает на фоне иногда открытой враждебности к Anthropic со стороны других чиновников администрации Трампа. Царь ИИ Дэвид Сакс, в частности, публично раскритиковал компанию в социальных сетях за то, что она представляет «пробуждённый ИИ» и «фаталистический промышленный комплекс». Сакс обвинил компанию в «сложной стратегии захвата регулирующих органов, основанной на разжигании страха». По сути, их аргумент заключается в том, что руководители Anthropic ложно предупреждают о чрезвычайных рисках систем искусственного интеллекта, чтобы оправдать правила в отношении технологии, которые могут легко соблюдать только Anthropic и некоторые другие компании, занимающиеся искусственным интеллектом.

Генеральный директор Anthropic Дарио Амодей назвал эти взгляды «неточными» и настаивал на том, что компания разделяет многие политические цели с администрацией Трампа, включая желание, чтобы Соединенные Штаты оставались в авангарде разработки технологий искусственного интеллекта.

Тем не менее, Сакс и другие члены администрации могут надеяться, что Хегсет выполнит свои угрозы внести Anthropic в черный список из цепочки поставок национальной безопасности.

Другие компании, занимающиеся искусственным интеллектом, такие как OpenAI и Google, очевидно, не ввели никаких ограничений на то, как военные США используют их технологии.

Принципы против прагматизма

Сотрудничество с военными вызывает споры среди некоторых технических специалистов. В 2018 году Google столкнулся с громким протестом со стороны сотрудников по поводу своего решения помочь Пентагону с «Проектом Maven» — попыткой использовать искусственный интеллект для анализа изображений с воздуха. Восстание сотрудников вынудило Google отказаться от продления контракта на работу над проектом. Но с тех пор интернет-гигант незаметно возобновил свои связи с оборонным ведомством, и в декабре военное министерство объявило, что будет использовать модели искусственного интеллекта Gemini от Google для ряда случаев использования.

Оуэн Дэниэлс, заместитель директора по анализу Центра безопасности и новых технологий (CSET) Джорджтаунского университета, сообщил Associated Press, что «коллеги Anthropic, включая Meta, Google и xAI, готовы соблюдать политику департамента по использованию моделей для всех юридических приложений. Таким образом, переговорные возможности компании здесь ограничены, и она рискует потерять влияние в стремлении департамента внедрить ИИ».

Но принципы могут быть необычайно мощным мотиватором для антропных сотрудников. Компания была основана группой исследователей, которые расстались с OpenAI отчасти потому, что были обеспокоены тем, что лаборатория позволяет коммерческому давлению отвлекать ее от своей первоначальной миссии по обеспечению разработки мощного ИИ на благо человечества. А совсем недавно Anthropic заняла принципиальную позицию: не включать рекламу в свои продукты Claude и не разрабатывать чат-ботов, предназначенных специально для романтических или эротических компаньонов.

Учитывая культуру компании, некоторые сторонние комментаторы предполагают, что по крайней мере часть сотрудников Anthropic уйдут в отставку, если компания уступит требованиям Hegseth и устранит ограничения, в настоящее время встроенные в ее государственные контракты.

Хегсет также заявил, что у Пентагона есть еще один вариант, если Anthropic не выполнит добровольно его запрос. Это потребует использования Закона об оборонном производстве 1950 года, чтобы заставить Anthropic предложить военным версию своей модели Claude без каких-либо ограничений.

Этот DPA, который изначально был разработан, чтобы позволить правительству взять на себя гражданское производство в случае войны, был использован во время пандемии Covid-19, чтобы заставить компании производить защитное оборудование и вакцины. С тех пор он использовался неоднократно, в первую очередь администрацией Байдена, даже при отсутствии явной чрезвычайной ситуации в стране. Например, в 2023 году Белый дом Байдена обратился к DPA с просьбой заставить технологические компании поделиться с правительством информацией о тестировании безопасности их передовых моделей искусственного интеллекта.

Кэти Суитен, которая до сентября 2025 года работала связующим звеном Министерства юстиции с Министерством обороны, а сейчас является партнером юридической фирмы Scale, рассказала CNN, что позиция Хегсета не имеет смысла с политической точки зрения. «Думаю, мы не хотим использовать технологии, которые представляют риск для цепочки поставок, не так ли? Так что я не знаю, как это объяснить», — сказал он.

Дин Болл, который работал советником по политике в области искусственного интеллекта в администрации Трампа, помогая разработать план действий в области искусственного интеллекта, а сейчас является старшим научным сотрудником Фонда американских инноваций, также назвал позицию Пентагона «бессвязной» в своем сообщении.

Болл рассказал Tech Crunch, что введение маркировки риска цепочки поставок станет ужасным сигналом для любой компании, ведущей дела с правительством. «По сути, правительство говорит: «Если вы не согласны с нами политически, мы попытаемся вывести вас из бизнеса», — сказал он.

Некоторые комментаторы-юристы отметили, что обе стороны в споре имели некоторые законные аргументы. «Мы бы не хотели, чтобы Lockheed Martin продавала военным F-35, а затем сообщала Пентагону, какие задачи он может выполнять», — сказал Алан Розенштейн, доцент права Университета Миннесоты и научный сотрудник Брукингса, в колонке, опубликованной на сайте Lawfare.

Но Розенштейн также утверждал, что Конгресс, а не Пентагон, должен устанавливать правила использования ИИ в вооруженных силах США. «Условия, определяющие, как военные используют самую революционную технологию века, устанавливаются посредством двусторонних переговоров между министром обороны и генеральным директором стартапа, без демократического участия или долгосрочных ограничений», — написал он.

В середине недели Anthropic не проявила никаких признаков отказа от своей позиции.

Будущее Клода под угрозой

И буквально на прошлой неделе Anthropic снова продемонстрировала, в другом контексте, что иногда она готова поставить прагматизм и бизнес-императивы выше альтруистических принципов. Компания обновила свою Политику ответственного масштабирования (RSP), отказавшись от предыдущего обязательства никогда не обучать модель ИИ, если она не может обеспечить адекватные меры безопасности. Вместо этого новый RSP просто обязывает Anthropic соответствовать или превосходить усилия конкурентов по обеспечению безопасности. В нем также говорится, что Anthropic отложит разработку модели, если компания считает, что имеет явное преимущество перед конкурентами, а также считает, что модель, которую она обучает, представляет значительный катастрофический риск. Джаред Каплан, руководитель исследовательского отдела Anthropic, заявил Time, что «односторонние обязательства» больше не имеют смысла, если «конкуренты продвигаются вперед».

Еще неизвестно, пойдет ли Anthropic на подобную уступку коммерческому давлению в борьбе с военным министерством.

Website |  + posts

Поделиться публикацией:

spot_imgspot_img

Популярный

Больше похожего
Связанный

Основательница представляет Конгрессу «выигрышную» борьбу за здоровье женщин | Удача

Алекс Тейлор по профессии не лоббист и не политик,...