Новейшая модель Anthropic превосходно обнаруживает уязвимости безопасности, но представляет риски для кибербезопасности | Удача

Дата:

Модели искусственного интеллекта Frontier больше не просто помогают инженерам быстрее писать код или автоматизировать рутинные задачи. Они все более способны обнаруживать свои ошибки.

Anthropic утверждает, что их новейшая модель Claude Opus 4.6 превосходно справляется с выявлением типов слабых мест программного обеспечения, лежащих в основе крупных кибератак. Согласно отчету компании Frontier Red Team, в ходе тестирования Opus 4.6 выявил более 500 ранее неизвестных уязвимостей нулевого дня (недостатков, неизвестных людям, написавшим программное обеспечение, или стороне, ответственной за его исправление или исправление) в библиотеках программного обеспечения с открытым исходным кодом. В частности, модели не было явно указано искать недостатки безопасности, а вместо этого она обнаруживала и помечала проблемы самостоятельно.

Anthropic заявляет, что «результаты показывают, что языковые модели могут добавить реальную ценность к существующим инструментам обнаружения», но признает, что эти возможности по своей сути также имеют «двойное назначение».

Злоумышленники могут легко использовать те же возможности, которые помогают компаниям находить и устранять недостатки безопасности, чтобы обнаруживать и использовать уязвимости до того, как их смогут обнаружить защитники. Модель искусственного интеллекта, способная автономно выявлять эксплойты нулевого дня в широко используемом программном обеспечении, может ускорить обе стороны гонки вооружений в области кибербезопасности, потенциально передавая преимущество тому, кто действует быстрее.

Логан Грэм, руководитель пограничной красной команды Anthropic, рассказал Axios, что компания рассматривает кибербезопасность как соревнование между атакой и защитой и хочет в первую очередь обеспечить защитникам доступ к этим инструментам.

Чтобы управлять некоторыми рисками, Anthropic внедряет новые системы обнаружения, которые отслеживают внутреннюю активность Claude по мере того, как она генерирует ответы, используя то, что компания называет «зондами», чтобы выявлять потенциальные злоупотребления в режиме реального времени. Компания заявляет, что также расширяет свои правоохранительные возможности, включая возможность блокировать трафик, идентифицированный как вредоносный. Anthropic осознает, что такой подход создаст трения для законных исследователей безопасности и защитной работы, и стремится сотрудничать с сообществом безопасности для решения этих проблем. По словам компании, эти меры безопасности представляют собой «важный шаг вперед» в обнаружении и быстром реагировании на злоупотребления, хотя работа над ними продолжается.

OpenAI, напротив, занял более осторожный подход со своей новой моделью кодирования GPT-5.3-Codex, также выпущенной в четверг. Компания подчеркнула, что, хотя эта модель привела к повышению производительности шифрования, эти достижения сопряжены с серьезными рисками кибербезопасности. Генеральный директор OpenAI Сэм Альтман заявил в своем сообщении на

В результате OpenAI внедряет GPT-5.3-Codex с более жестким контролем. Хотя модель доступна платным пользователям ChatGPT для ежедневных задач разработки, компания откладывает полный доступ к API и ограничивает сценарии использования с высоким уровнем риска, которые могут обеспечить масштабную автоматизацию. Наиболее конфиденциальные приложения защищены дополнительными мерами безопасности, включая программу доверенного доступа для проверенных специалистов по безопасности. В сообщении в блоге, сопровождающем запуск, OpenAI заявила, что у нее пока нет «окончательных доказательств» того, что эта модель может полностью автоматизировать кибератаки, но она придерживается осторожного подхода, внедряя то, что она назвала своим наиболее полным набором средств обеспечения безопасности кибербезопасности на сегодняшний день, включая расширенный мониторинг, обучение безопасности и механизмы обеспечения безопасности, основанные на информации об угрозах.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

Поделиться публикацией:

spot_imgspot_img

Популярный

Больше похожего
Связанный