Эксклюзив: Anthropic оставил в общедоступной базе данных подробную информацию о неизданной модели, предстоящем эксклюзивном мероприятии для генеральных директоров | Удача

Дата:

Компания Anthropic, занимающаяся искусственным интеллектом, непреднамеренно раскрыла подробности предстоящего запуска модели, эксклюзивного мероприятия для генеральных директоров и другие внутренние данные, включая изображения и PDF-файлы, что, по всей видимости, является серьезным нарушением безопасности.

Информация, которая еще не является общедоступной, стала доступна через систему управления контентом (CMS) компании, которую Anthropic использует для публикации информации в разделах веб-сайта компании.

Прежде чем принять эти меры, Anthropic хранила весь контент своего веб-сайта, такой как сообщения в блогах, изображения и документы, в центральной системе, доступ к которой можно было получить без входа в систему. Любой, кто обладает техническими знаниями, мог отправлять запросы в эту общедоступную систему с просьбой вернуть информацию о содержащихся в ней файлах.

Хотя некоторая часть этого контента не была опубликована на веб-сайте Anthropic, базовая система все равно возвращала хранившиеся в ней цифровые активы любому, кто знал, как спросить. Это означает, что к неопубликованным материалам, включая черновики и внутренние ресурсы, можно получить прямой доступ.

Похоже, проблема связана с тем, как работает система управления контентом (CMS), используемая Anthropic. Все ресурсы (например, логотипы, графика или исследовательские статьи), загруженные в центральное хранилище данных, по умолчанию были общедоступными, если только явно не был установлен статус «частный». Компания, судя по всему, забыла ограничить доступ к некоторым документам, которые не должны были быть общедоступными, в результате чего в общедоступном озере данных компании появилось большое количество файлов, сообщили Fortune специалисты по кибербезопасности, проанализировавшие данные. Некоторые из активов компании также имели общедоступные адреса браузера.

«Проблема с одним из наших внешних инструментов CMS сделала черновик контента доступным», — сообщил Fortune представитель Anthropic. Представитель объяснил проблему «человеческой ошибкой в ​​конфигурации CMS».

В последнее время произошло несколько громких случаев, когда технологические компании столкнулись с техническими сбоями и проблемами из-за проблем с кодом, сгенерированным ИИ, или агентами ИИ. Но Anthropic, которая производит популярные модели Claude AI и может похвастаться автоматизацией большей части собственной внутренней разработки программного обеспечения с использованием агентов кодирования AI на основе Claude, заявила, что в этом случае ИИ не виноват.

Проблема с ее CMS «не была связана с Claude, Cowork или какими-либо инструментами Anthropic AI», заявил представитель Anthropic.

Компания также попыталась преуменьшить значение некоторых материалов, которые не были защищены. «Эти материалы представляли собой первоначальные проекты контента, рассмотренные для публикации, и не затрагивали нашу базовую инфраструктуру, системы искусственного интеллекта, данные клиентов или архитектуру безопасности», — сказал представитель.

Хотя многие документы кажутся выброшенными или неиспользованными активами из предыдущих публикаций в блоге, такими как изображения, баннеры и логотипы, некоторые данные, по-видимому, содержат подробную конфиденциальную информацию.

Документы содержат подробную информацию о предстоящих анонсах продуктов, в том числе информацию о невыпущенной модели искусственного интеллекта, которая, по словам Anthropic в документах, является наиболее эффективной моделью, которую она когда-либо обучала.

После обращения в Fortune компания признала, что она разрабатывает и тестирует с клиентами раннего доступа новую модель, которая, по ее словам, представляет собой «шаговое изменение» в возможностях искусственного интеллекта, обладая значительно лучшими характеристиками в «рассуждении, кодировании и кибербезопасности», чем предыдущие модели Anthropic.

В общедоступных данных также содержится информация о предстоящем выездном семинаре для руководителей крупных европейских компаний, который пройдет в Соединенном Королевстве и на котором должен присутствовать генеральный директор Anthropic Дарио Амодей. Представитель Anthropic заявил, что выездное мероприятие было «частью продолжающейся серии мероприятий, которые мы проводили в течение прошлого года» и что компания «разрабатывает модель общего назначения со значительными достижениями в области рассуждений, кодирования и кибербезопасности».

Среди документов были также изображения, которые, судя по всему, предназначались для внутреннего использования, в том числе изображение с подписью, описывающей «отпуск по уходу за ребенком» сотрудника.

Это не первый случай, когда технологическая компания непреднамеренно раскрывает внутренние или предпусковые активы, делая их общедоступными до официальных объявлений.

Apple дважды сливала информацию через свой собственный веб-сайт: один раз в 2018 году, когда имена будущих iPhone появились в общедоступном файле карты сайта за несколько часов до запуска, и второй раз в конце 2025 года, когда разработчик обнаружил, что Apple выпустила обновленный App Store с активными файлами отладки, что сделало весь внутренний код сайта доступным для чтения любому пользователю браузера.

Игровые компании, такие как Epic Games и Nintendo, также наблюдали утечку предварительных изображений, игровых ресурсов и других медиафайлов через системы сети доставки контента (CDN) или промежуточные серверы, аналогично озеру данных Anthropic, использованному в этом случае. Даже более крупные компании, такие как Google, случайно разместили внутреннюю документацию по общедоступным URL-адресам, а данные, связанные с автомобилями Tesla, были раскрыты через неправильно настроенные сторонние серверы.

Однако проблема, вероятно, будет усугубляться доступными сейчас на рынке инструментами кодирования искусственного интеллекта, включая собственный код Claude Code от Anthropic.

Эти инструменты могут автоматизировать сканирование, обнаружение шаблонов и корреляцию общедоступных ресурсов, что значительно упрощает обнаружение этого типа контента и снижает барьеры для доступа к нему. Инструменты искусственного интеллекта, такие как Claude Code или Codex, также могут генерировать сценарии или запросы, которые сканируют целые наборы данных, быстро выявляя шаблоны или соглашения об именах файлов, которые человек может пропустить.

Website |  + posts

Поделиться публикацией:

spot_imgspot_img

Популярный

Больше похожего
Связанный

Юго-Восточная Азия может стать быстро развивающимся рынком искусственного интеллекта, если ее центры обработки данных смогут справиться с жарой | Удача

Юго-Восточная Азия стремится создать инфраструктуру, которая подстегнет бум искусственного...

Эксклюзив: Anthropic тестирует «Mythos», свою «самую мощную модель искусственного интеллекта, когда-либо разработанную» | Удача

Компания Anthropic, занимающаяся искусственным интеллектом, разрабатывает и начала тестирование...