Компания Anthropic, занимающаяся искусственным интеллектом, разрабатывает и начала тестирование на клиентах раннего доступа новой модели искусственного интеллекта, более эффективной, чем все предыдущие модели, сообщила компания после утечки данных, которая выявила существование этой модели.
Представитель Anthropic заявил, что новая модель представляет собой «шаговый шаг» в производительности ИИ и является «наиболее функциональной, которую мы создали на сегодняшний день». Компания заявила, что модель в настоящее время тестируется «клиентами раннего доступа».
Описания моделей были случайно сохранены в общедоступном кэше данных и проверены Fortune.
В черновом сообщении блога, которое было доступно в незащищенном общедоступном хранилище данных до вечера четверга, говорилось, что новая модель называется «Claude Mythos» и что компания считает, что она представляет беспрецедентные риски кибербезопасности.
Тот же тайник незащищенных, общедоступных документов раскрыл подробности запланированного саммита генеральных директоров в Европе, на который можно попасть только по приглашениям, что является частью усилий компании по продаже своих моделей искусственного интеллекта крупным корпоративным клиентам.
В настоящее время Anthropic продает каждую из своих моделей в трех разных размерах: версии самой большой и наиболее функциональной модели имеют торговую марку Opus, немного более быстрые и дешевые, но менее функциональные версии имеют торговую марку Sonnet, а меньшие, более дешевые и быстрые модели называются Haiku. Однако в своем блоге Anthropic описывает Capybara как модель нового уровня, которая даже больше и мощнее, чем Opus, но и более дорогая.
«По сравнению с нашей предыдущей лучшей моделью, Claude Opus 4.6, Capybara, среди прочего, получила значительно более высокие оценки в программном кодировании, академических рассуждениях и тестах на кибербезопасность», — говорится в блоге компании.
В документе также говорится, что компания прошла обучение «Claude Mythos», которое в черновом сообщении блога описывается как «безусловно самая мощная модель искусственного интеллекта, которую мы когда-либо разрабатывали».
В ответ на вопросы о черновике сообщения в блоге компания признала, что прошла обучение и тестирование новой модели. «Мы разрабатываем модель общего назначения со значительными достижениями в области рассуждений, кодирования и кибербезопасности», — заявил представитель Anthropic. «Учитывая мощь его возможностей, мы обдумываем, как его запустить. Как это является стандартной практикой во всей отрасли, мы работаем с небольшой группой клиентов с ранним доступом для тестирования модели. Мы считаем, что эта модель меняет правила игры и является самой функциональной из всех, что мы создали на сегодняшний день».
Документ, который рассмотрели эксперты Fortune и кибербезопасности, состоит из структурированных данных веб-страницы с заголовками и датой публикации, что позволяет предположить, что он является частью запланированного запуска продукта. В нем изложена осторожная стратегия развертывания модели, начиная с небольшой группы пользователей раннего доступа. В проекте блога отмечается, что эксплуатация модели дорогая и она еще не готова к массовому выпуску.
Основные новые риски кибербезопасности
Согласно просочившемуся документу, новая модель ИИ представляет значительные риски для кибербезопасности.
«Готовясь к выпуску Claude Capybara, мы хотим действовать с особой осторожностью и понимать риски, которые она представляет, даже помимо того, что мы узнали в ходе нашего собственного тестирования. В частности, мы хотим понять потенциальные краткосрочные риски модели в сфере кибербезопасности и поделиться результатами, чтобы помочь киберзащитникам подготовиться», — говорится в документе.
Anthropic, похоже, особенно обеспокоен последствиями этой модели для кибербезопасности, отмечая, что система «в настоящее время намного опережает любую другую модель ИИ по кибервозможностям» и «предвещает грядущую волну моделей, которые могут использовать уязвимости способами, которые намного превосходят усилия защитников». Другими словами, Anthropic обеспокоена тем, что хакеры могут использовать эту модель для проведения крупномасштабных кибератак.
В черновом блоге компания заявила, что из-за этого риска ее план по выпуску модели будет сосредоточен на киберзащитниках: «Мы выпускаем ее в раннем доступе для организаций, давая им преимущество в повышении устойчивости своих кодовых баз против надвигающейся волны эксплойтов, управляемых ИИ».
Последнее поколение передовых моделей от Anthropic и OpenAI преодолело порог, который, по словам компаний, создает новые риски кибербезопасности. В феврале, когда OpenAI выпустила GPT-5.3-Codex, компания заявила, что это первая модель, которую она классифицировала как «высокопроизводительную» для задач, связанных с кибербезопасностью, в рамках своей платформы готовности, и первую, которую она непосредственно обучила выявлять уязвимости программного обеспечения.
Тем временем Anthropic столкнулась с аналогичными рисками в связи со своей версией Opus 4.6, выпущенной на той же неделе. Модель продемонстрировала способность обнаруживать ранее неизвестные уязвимости в базах производственного кода. Эта возможность, по признанию компании, имеет двойное назначение, то есть может помочь хакерам и защитникам кибербезопасности находить и закрывать уязвимости в коде.
Компания также сообщила, что хакерские группы, в том числе связанные с правительством Китая, пытались использовать Клода для реальных кибератак. В одном задокументированном случае Anthropic обнаружила, что спонсируемая китайским государством группа уже провела скоординированную кампанию с использованием Claude Code для проникновения примерно в 30 организаций (включая технологические компании, финансовые учреждения и правительственные учреждения) до того, как компания обнаружила это. В течение следующих десяти дней Anthropic расследовала весь масштаб операции, заблокировала участвующие аккаунты и уведомила пострадавшие организации.
Эксклюзивный отдых для руководителей
По мнению специалистов по кибербезопасности, утечка еще не опубликованной информации, по-видимому, произошла из-за ошибки пользователей системы управления контентом (CMS) компании, которая представляет собой программное обеспечение, используемое для публикации общедоступного блога компании.
Цифровые активы, созданные с помощью системы управления контентом, по умолчанию становятся общедоступными, и при загрузке им обычно назначается общедоступный URL-адрес, если только пользователь явно не меняет настройку, чтобы сохранить эти активы конфиденциальными. В результате большое количество изображений, PDF-файлов и аудиофайлов, по-видимому, было ошибочно опубликовано на незащищенный и общедоступный URL-адрес через коммерческую систему управления контентом.
В заявлении для журнала Fortune Anthropic признала, что «из-за проблемы с одним из наших внешних инструментов CMS стал доступен черновой вариант контента». Он объяснил эту проблему «человеческой ошибкой».
Многие документы оказались выброшенными или неиспользованными ресурсами из предыдущих публикаций в блоге, такими как изображения, баннеры и логотипы. Однако некоторые из них оказались частными или внутренними документами. Например, у актива есть заголовок, который описывает «отпуск по уходу за ребенком» сотрудника.
Документы также включали PDF-файл, содержащий информацию о предстоящем выездном семинаре для руководителей европейских компаний, который будет проводиться только по приглашениям в Соединенном Королевстве и на котором примет участие генеральный директор Anthropic Дарио Амодей. Имена других участников не указаны, но они описаны как самые влиятельные бизнес-лидеры Европы.
Двухдневный ретрит описывается как «интимная встреча» для «размышляющей беседы» в особняке 18-го века, превращенном в отель и спа-центр в английской сельской местности. В документе говорится, что участники услышат от законодателей и политиков о том, как компании внедряют ИИ, и познакомятся с нереализованными возможностями Клода.
Представитель Anthropic сообщил Fortune, что это мероприятие «является частью серии мероприятий, которые мы проводили за последний год. Мы с нетерпением ждем возможности принять у себя лидеров европейского бизнеса для обсуждения будущего искусственного интеллекта».

