Anthropic сталкивается с негативной реакцией пользователей по поводу сообщений о проблемах с производительностью своего чат-бота Claude AI | Удача

Дата:

Высококлассная компания в области искусственного интеллекта Anthropic сталкивается с негативной реакцией со стороны некоторых из своих наиболее плодовитых пользователей из-за предполагаемого снижения производительности ее моделей Claude AI.

Из-за проблем компания, недавно оцененная в $380 млрд и, как сообщается, готовящаяся к первичному публичному размещению акций, изо всех сил пытается отреагировать на протесты пользователей и онлайн-спекуляции о ее мотивах и ее способности обслуживать новую волну клиентов.

По мнению многих разработчиков и обычных пользователей, в популярной модели искусственного интеллекта Claude от Anthropic в последнее время наблюдается значительное снижение производительности. Модель все чаще не следует инструкциям, выбирает иногда неподходящие ярлыки и допускает больше ошибок в сложных рабочих процессах.

Жалобы, по-видимому, связаны с недавними изменениями, которые Anthropic незаметно внесла в работу Клода, уменьшив уровень «усилий» модели по умолчанию, чтобы сэкономить на количестве токенов или единиц данных, которые модель обрабатывает в ответ на каждый запрос. (Представитель Anthropic публично заявил, что изменение было указано в журнале изменений — обновленном списке обновлений, доступных пользователям.)

Чем больше токенов обрабатывается за задачу, тем больше вычислительной мощности потребляет эта задача. Широко распространены предположения, что Anthropic, которая объявила о меньшем количестве многомиллиардных сделок по мощностям центров обработки данных, чем некоторые ее конкуренты, возможно, испытывает нехватку вычислительных ресурсов после резкого роста популярности ее продуктов в последние месяцы.

Недовольство пользователей внезапным падением производительности Claude и гнев по поводу предполагаемого отсутствия прозрачности Anthropic потенциально могут подорвать стремительный рост компании, так же как она надеется привлечь инвесторов для потенциального IPO. Утверждения о том, что Anthropic не была правдивой об изменениях, которые она внесла в методы работы Claude, или о том, как эти изменения могут увеличить стоимость использования Claude, особенно угрожают Anthropic, поскольку больше, чем любая другая компания, занимающаяся искусственным интеллектом, она стремилась создать репутацию бренда, будучи более прозрачной, чем другие компании, занимающиеся искусственным интеллектом, и в большей степени соответствующей интересам своих пользователей.

Anthropic отказалась отвечать на конкретные вопросы Fortune по поводу жалобы пользователя Клода. Борис Черный, исполнительный директор Anthropic, который возглавляет продукт Claude Code, ответил на жалобы онлайн-пользователей, заявив, что Anthropic сократил «усилия», которые Клод по умолчанию прилагает для ответа на запросы пользователей, до «средних» в ответ на отзывы пользователей о том, что Клод ранее потреблял слишком много токенов на задачу. Но многие пользователи жаловались, что компания не сообщила пользователям об этом изменении.

Ситуация вызвала множество спекуляций и обвинений, в том числе со стороны некоторых конкурентов, в том, что компания намеренно снижает производительность из-за нехватки вычислительных мощностей.

Во всей отрасли компании, занимающиеся искусственным интеллектом, сталкиваются с ростом затрат на графические процессоры, ограниченным расширением центров обработки данных и трудными компромиссами, в отношении которых продукты должны быть приоритетными, поскольку спрос на «агентные» системы искусственного интеллекта растет быстрее, чем может масштабироваться инфраструктура. Хотя представитель Anthropic публично заявил, что лаборатория искусственного интеллекта не снижает версию своих моделей, чтобы лучше удовлетворить спрос, есть основания полагать, что компания сталкивается с более серьезными ограничениями, чем некоторые конкуренты.

В последнее время у Anthropic произошла серия сбоев в работе сети, поскольку объем использования увеличился и были введены более строгие ограничения на использование в часы пик, что вызвало жалобы со стороны некоторых пользователей. Во внутренней записке, опубликованной CNBC, директор по доходам OpenAI также заявил, что Anthropic допустила «стратегическую ошибку», не обеспечив достаточную вычислительную мощность, и «работала по значительно меньшей кривой», чем ее конкуренты. (Anthropic отказалась отвечать на вопросы CNBC по поводу этих утверждений.)

Между тем, на прошлой неделе Anthropic также объявила, что обучила новую, еще не выпущенную модель под названием Mythos, которая значительно более эффективна, чем ее модель Opus AI, но при этом больше и дороже в эксплуатации, а это означает, что она, вероятно, потребляет больше вычислительной мощности, чем предыдущие модели. Anthropic подчеркнула, что пока не представляет модель широкой публике из соображений безопасности, но некоторые задаются вопросом, не хватает ли Anthropic вычислительной мощности для поддержки широкого развертывания Mythos.

Жертва собственного успеха

Исследование Anthropic подчеркивает быстро меняющуюся природу рынка ИИ и то, что поставлено на карту. На прошлой неделе Anthropic удивила отрасль, объявив, что ее годовой периодический доход, или ARR, сейчас составляет 30 миллиардов долларов по сравнению с 9 миллиардами долларов в конце 2025 года. В прошлом месяце OpenAI заявила, что генерирует доход в 2 миллиарда долларов в месяц, или 24 миллиарда долларов в год, хотя обе компании не сообщают о доходах одинаково, что делает прямые сравнения проблематичными.

Недавно Anthropic получила выгоду от потока новых пользователей, сначала благодаря популярности своего инструмента кодирования искусственного интеллекта Claude Code, а затем благодаря волне поддержки потребителей после спора с Министерством обороны США. Многие пользователи перешли на Claude от конкурентов, таких как ChatGPT от OpenAI, после того, как администрация Трампа назвала Anthropic «риском цепочки поставок». Anthropic заявила, что спор возник из-за того, что она настаивала на том, чтобы правительство США согласилось в своем контракте не использовать технологии компании в смертоносном автономном оружии или для массовой слежки за гражданами США.

В последние годы Anthropic добилась значительных успехов в гонке ИИ, став лидером в области корпоративного ИИ и завоевав значительную доброжелательность среди разработчиков и корпоративных пользователей. Но если гнев по поводу проблем с производительностью Клода сохранится, это рискует подорвать часть этой доброй воли и может привести к тому, что компания оступится в критический момент.

В ответ на некоторые разногласия вокруг недавних проблем с производительностью Клода Черный, глава Claude Code, сказал, что в Claude Opus 4.6 (флагманская модель Anthropic) в начале февраля было введено «адаптивное мышление», позволяющее модели решать, сколько рассуждений следует применить к данной задаче, а не использовать фиксированный бюджет. По словам Черного, в начале марта Anthropic также изменила настройку по умолчанию на уровень «средних усилий». Хотя пользователи Claude Code могут вручную изменять уровни усилий инструмента, пользователи, которые платят за Pro-версии Cowork или настольную версию Claude, в настоящее время не могут изменить настройки по умолчанию.

По словам Черного, чтобы решить некоторые проблемы пользователей, компания будет тестировать «стандартных пользователей Teams и Enterprise с большими усилиями, чтобы получить выгоду от расширенного мышления, даже если это будет происходить за счет дополнительных токенов и задержек» в будущем.

Он также отверг предположения о том, что модель была намеренно упрощена, и жалобы пользователей на то, что изменение было реализовано с недостаточной прозрачностью, утверждая, что изменения были внесены в ответ на отзывы пользователей и были доведены до сведения пользователей через всплывающее окно в интерфейсе Claude Code.

«Непригодно для сложных инженерных задач»

Большинство жалоб пользователей сосредоточено на Claude Code, инструменте кодирования Anthropic на основе искусственного интеллекта, который стал одним из самых популярных и быстрорастущих продуктов компании.

Выпущенный в начале 2025 года, Claude Code работает как агент командной строки, который может читать, записывать и выполнять код автономно в среде разработчика. С момента своего дебюта он широко использовался отдельными разработчиками и инженерными группами крупных предприятий, которые полагаются на него для решения сложных многоэтапных задач кодирования.

Недавние изменения производительности Клода Кода привлекли широкое внимание в социальных сетях благодаря анализу GitHub, который, судя по всему, был проведен Стеллой Лауренсо, старшим директором по искусственному интеллекту AMD. В широко распространенном анализе Лауренсо заявил, что изменения сделали Клода «непригодным для решения сложных инженерных задач».

В своем анализе он обнаружил, что с конца февраля по начало марта Клод перешел от подхода «сначала исследование» (чтение нескольких файлов и сбор контекста перед внесением изменений) к более прямому стилю «сначала редактирование». Согласно анализу, модель читает меньше контекста, прежде чем действовать, допускает больше ошибок и требует значительно большего вмешательства пользователя. Анализ также указывает на увеличение таких моделей поведения, как слишком преждевременная остановка, уклонение от ответственности или спрашивание ненужного разрешения, что связано с уменьшением глубины «мышления» в тот же период.

«Клод регрессировал до такой степени, что ему нельзя доверять выполнение сложных инженерных работ», — написал он.

В комментарии к анализу Черный из Anthropic говорит, что анализ, скорее всего, неправильно интерпретирует, по крайней мере, некоторые данные, заявляя, что рассуждения модели не были сокращены, но Anthropic внесла изменения, так что полный «след рассуждений» модели больше не виден пользователю.

Но Лауренсо далеко не единственный человек, у которого проблемы с инструментом.

«За последние две недели у меня были невероятно разочаровывающие сеансы с Клодом Кодом», — написал в X Димитрис Папалиопулос, старший директор по исследованиям Microsoft. «Я старался изо всех сил, но он крайне небрежен, игнорирует инструкции и повторяет ошибки».

Website |  + posts

Поделиться публикацией:

spot_imgspot_img

Популярный

Больше похожего
Связанный

Текущая цена на нефть по состоянию на 17 апреля 2026 г. | Удача

Сегодня в 8:30 утра по восточному времени цена на...

Познакомьтесь с гуру криптовалют из списка Fortune 500 | Удача

Добрый день. Компании из списка Fortune 500 уже экспериментируют...