Сэм Альтман сообщил сотрудникам OpenAI на общем собрании в пятницу днем, что возможная сделка с Военным министерством США по использованию моделей и инструментов ИИ стартапа, согласно источнику, присутствовавшему на встрече, и краткому изложению встречи, просмотренному Fortune. Контракт еще не подписан.
Встреча состоялась в конце недели, когда конфликт между военным министром Питом Хегсетом и конкурентом OpenAI Anthropic перерос в общественную ненависть и закончился очевидным прекращением контрактов Anthropic с Пентагоном и федеральным правительством в более широком смысле.
Альтман сказал, что правительство готово позволить OpenAI создать свой собственный «стек безопасности» (то есть многоуровневую систему технического, политического и человеческого контроля, которая находится между мощной моделью ИИ и ее реальным использованием) и что, если модель откажется выполнять задачу, то правительство не будет заставлять OpenAI заставлять ее выполнять эту задачу.
OpenAI сохранит контроль над тем, как реализуются технические меры безопасности, какие модели и где развертываются, и ограничит развертывание облачными средами, а не «периферийными системами». (В военном контексте периферийные системы — это категория, которая может включать самолеты и дроны.) Альтман сообщил сотрудникам, что это будет серьезной уступкой: правительство заявило, что оно готово включить в контракт так называемые «красные линии» OpenAI, включая отказ от использования ИИ для питания автономного оружия, запрет на массовое наблюдение внутри страны и принятие критически важных решений.
OpenAI и военное министерство не сразу ответили на запросы о комментариях.
По словам источника, на OpenAI также выступили Саша Бейкер, глава отдела политики национальной безопасности OpenAI, и Катрина Маллиган, возглавляющая отдел национальной безопасности OpenAI при правительстве. Один из этих чиновников заявил, что отношения с Anthropic и правительством испортились, потому что генеральный директор и соучредитель Anthropic Дарио Амодей оскорбил руководство военного министерства, в том числе опубликовал сообщения в блоге, которые «департамент возмутился».
Anthropic, компания, основанная людьми, покинувшими OpenAI из соображений безопасности, была единственным крупным коммерческим производителем ИИ, чьи модели были одобрены для использования в Пентагоне, а внедрение осуществлялось в рамках партнерства с Palantir. Но руководство Anthropic и Пентагон уже несколько дней ведут спор по поводу ограничений, которые Anthropic хотела наложить на использование своей технологии. По сути, эти ограничения те же самые, с которыми, по словам Альтмана, Пентагон столкнулся бы, если бы использовал технологию OpenAI.
Anthropic отклонила требования Пентагона снять с модели Claude гарантии, ограничивающие такие виды использования, как массовое наблюдение внутри страны или полностью автономное оружие, даже несмотря на то, что представители министерства обороны настаивали на том, что модели ИИ должны быть доступны для «всех законных целей». Пентагон, включая военного министра Пита Хегсета, предупредил Anthropic, что может потерять контракт на сумму до 200 миллионов долларов, если не выполнит его условия. Альтман ранее заявлял, что OpenAI разделяет «красные линии» Anthropic в ограничении определенных видов использования искусственного интеллекта в военных целях, подчеркивая, что, хотя OpenAI ведет переговоры с правительством США, она сталкивается с той же основной напряженностью, которая сейчас публично разыгрывается между Anthropic и Пентагоном.
Вмешательство OpenAI произошло сразу после того, как президент Трамп объявил, что федеральное правительство прекратит сотрудничество с Anthropic, что привело к резкой эскалации конфликта правительства с компанией по поводу ее моделей искусственного интеллекта.
«Я приказываю всем федеральным агентствам правительства США немедленно прекратить любое использование технологий Anthropic. Нам это не нужно, мы не хотим этого, и мы больше не будем иметь с ними дело!» Об этом Трамп заявил в своем посте на Truth Social. По его словам, военное министерство и другие ведомства, использующие модели Anthropic Claude, получат шестимесячный период поэтапного отказа.
По словам источника, на встрече OpenAI сотрудникам сообщили, что самым сложным аспектом сделки для руководства являются опасения по поводу иностранной слежки и что существуют серьезные опасения, что слежка с помощью ИИ может угрожать демократии, по словам источника. Однако руководители компаний, похоже, также признали реальность того, что правительства будут шпионить за своими противниками на международном уровне, признав утверждения о том, что сотрудники национальной безопасности «не могут выполнять свою работу» без возможности международного наблюдения. Были сделаны ссылки на отчеты разведки об угрозах, показывающие, что Китай уже использует модели искусственного интеллекта для нападения на диссидентов за рубежом.

