OpenAI оспаривает обвинение надзорной организации в том, что она нарушила новый закон Калифорнии об искусственном интеллекте публикацией GPT-5.3-Codex | Удача

Дата:

Согласно утверждениям группы по наблюдению за искусственным интеллектом, OpenAI, возможно, нарушила новый закон Калифорнии о безопасности ИИ, выпустив свою последнюю модель кодирования.

Нарушение потенциально может подвергнуть компанию штрафам в миллионы долларов, и это дело может стать первой прецедентной проверкой положений нового закона.

Представитель OpenAI оспорил позицию надзорного органа, заявив Fortune, что компания «уверена в том, что мы соблюдаем законы о пограничной безопасности, включая SB 53».

Споры сосредоточены вокруг GPT-5.3-Codex, новейшей модели кодирования OpenAI, которая была выпущена на прошлой неделе. Эта модель является частью усилий OpenAI по восстановлению своего лидерства в кодировании с использованием искусственного интеллекта и, согласно данным тестирования, опубликованным OpenAI, показывает заметно более высокую производительность при выполнении задач кодирования, чем предыдущие версии моделей как от OpenAI, так и от конкурентов, таких как Anthropic. Однако эта модель также вызвала беспрецедентные проблемы кибербезопасности.

Генеральный директор Сэм Альтман заявил, что эта модель первой достигла категории «высокого» риска кибербезопасности в Readiness Framework компании, внутренней системе оценки рисков, которую OpenAI использует для выпусков моделей. Это означает, что OpenAI, по сути, классифицирует модель как достаточно способную к кодированию, чтобы потенциально способствовать значительному кибер-ущербу, особенно если она автоматизирована или используется в большом масштабе.

Группа по наблюдению за искусственным интеллектом Project Midas утверждает, что OpenAI не выполнила свои собственные обязательства по безопасности, которые теперь являются юридически обязательными в соответствии с законодательством штата Калифорния, с запуском новой модели высокого риска.

Калифорнийский закон SB 53, вступивший в силу в январе, требует от крупных компаний, занимающихся искусственным интеллектом, публиковать и обеспечивать соблюдение своих собственных систем безопасности, подробно описывая, как они будут предотвращать катастрофические риски (определяемые как инциденты, которые приводят к более чем 50 смертям или имущественному ущербу на сумму 1 миллиард долларов) для своих моделей. Он также запрещает этим компаниям делать вводящие в заблуждение заявления о соблюдении требований.

Структура безопасности OpenAI требует специальных мер безопасности для моделей кибербезопасности с высоким уровнем риска, которые предназначены для предотвращения того, чтобы ИИ стал мошенником и делал такие вещи, как обманные действия, саботаж исследований в области безопасности или сокрытие своих истинных возможностей. Однако в Project Midas заявили, что, несмотря на активацию порога кибербезопасности «высокого риска», OpenAI, похоже, не реализовал конкретные меры защиты от несогласованности до его реализации.

OpenAI заявляет, что интерпретация Project Midas формулировки в ее структуре готовности неверна, хотя она также заявила, что формулировка в этой структуре «двусмысленна», и что она стремилась прояснить смысл формулировки в этой структуре с помощью заявления в отчете о безопасности, опубликованном компанией вместе с GPT-5.3-Codex. В этом отчете по безопасности OpenAI заявила, что дополнительные меры безопасности необходимы только тогда, когда высокий киберриск возникает «в сочетании» с автономией на большие расстояния — способностью работать независимо в течение длительных периодов времени. Поскольку компания считает, что GPT-5.3-Codex лишен такой автономии, они заявляют, что в таких гарантиях нет необходимости.

«GPT-5.3-Codex завершил наш полный процесс тестирования и управления, как подробно описано в публично выпущенной системной карте, и не продемонстрировал возможности долгосрочной автономии на основе прокси-оценок и подтвержденных заключениями внутренних экспертов, включая нашу консультативную группу по безопасности», — сказал представитель. Однако компания также заявила, что у нее нет четкого способа оценить долгосрочную автономию модели, и поэтому она полагается на тесты, которые, по ее мнению, могут выступать в качестве индикаторов этого показателя, поскольку она работает над разработкой более эффективных методов оценки.

Однако некоторые исследователи безопасности поставили под сомнение интерпретацию OpenAI. Натан Кальвин, вице-президент по государственным вопросам и главный юрисконсульт Encode, заявил в сообщении на

Project Midas также утверждает, что OpenAI не может окончательно доказать, что модели не хватает автономности, необходимой для дополнительных измерений, поскольку предыдущая, менее продвинутая модель компании уже превысила мировые стандарты выполнения автономных задач. Группа утверждает, что даже если бы правила были неясны, OpenAI следовало бы уточнить их перед выпуском модели.

Тайлер Джонстон, основатель Project Midas, назвал потенциальное нарушение «особенно постыдным, учитывая, насколько низок установленный план SB 53: по сути, просто примите добровольный план безопасности по вашему выбору и честно сообщайте о нем, изменяя его по мере необходимости, но не нарушая его и не лгая об этом».

Если расследование будет начато и обвинения подтвердятся, SB 53 допускает существенные штрафы за нарушения, которые могут составлять миллионы долларов в зависимости от серьезности и продолжительности несоблюдения. Представитель генеральной прокуратуры Калифорнии сообщил Fortune, что ведомство «привержено обеспечению соблюдения законов нашего штата, в том числе тех, которые приняты для повышения прозрачности и безопасности в развивающемся пространстве искусственного интеллекта». Однако они заявили, что департамент не может комментировать или даже подтверждать или опровергать потенциальные или текущие расследования.

Обновлено 10 февраля: Эта статья была обновлена, чтобы переместить заявление OpenAI о том, что она считает, что она соответствует законам Калифорнии об искусственном интеллекте, выше в статье. Заголовки также были изменены, чтобы дать понять, что OpenAI оспаривает обвинения группы наблюдателей. Кроме того, статья была обновлена, чтобы уточнить, что заявление OpenAI в отчете о безопасности GPT-5.3-Codex было призвано прояснить то, что, по мнению компании, было двусмысленным языком в ее платформе готовности.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

Поделиться публикацией:

spot_imgspot_img

Популярный

Больше похожего
Связанный

Почему Кодекс находится в центре планов OpenAI по продаже компаниям агентов ИИ | Удача

OpenAI заявляет, что наблюдает значительный рост своего инструмента кодирования...