Anthropic заявляет, что ее последняя модель получила рейтинг политической «справедливости» на 94% | Удача

Дата:

Anthropic подчеркнула свою политическую нейтральность, поскольку администрация Трампа усиливает свою кампанию против так называемого «пробуждённого ИИ», ставя себя в центр всё более идеологической борьбы за то, как большие языковые модели должны говорить о политике.

В сообщении в блоге в четверг Anthropic подробно рассказала о своих текущих усилиях по обучению своего чат-бота Клода вести себя с тем, что она называет «политической беспристрастностью», структурой, призванной гарантировать, что модель рассматривает противоположные точки зрения «с одинаковой глубиной, вовлеченностью и качеством анализа».

Компания также запустила новый автоматизированный метод измерения политической предвзятости и опубликовала результаты, свидетельствующие о том, что ее последняя модель Claude Sonnet 4.5 превосходит своих конкурентов по нейтральности или соответствует им.

Это заявление было сделано на фоне необычно сильного политического давления. В июле президент Дональд Трамп подписал указ, запрещающий федеральным агентствам приобретать системы искусственного интеллекта, которые «приносят в жертву правдивость и точность ради идеологических программ», прямо упоминая инициативы по разнообразию, равенству и инклюзивности как угрозу «надежному ИИ».

А Дэвид Сакс, руководитель ИИ в Белом доме, публично обвинил Anthropic в продвижении либеральной идеологии и попытках «регулирующего захвата».

Конечно, Anthropic отмечает в своем блоге, что с начала 2024 года они обучают Клода чертам характера «справедливости». В предыдущих публикациях в блоге, в том числе о выборах от февраля 2024 года, Anthropic упоминает, что они тестировали свою модель, чтобы увидеть, как она работает против «злоупотреблений в ходе выборов», включая «дезинформацию и предвзятость».

Однако теперь фирме из Сан-Франциско пришлось продемонстрировать свой политический нейтралитет и защитить себя от того, что генеральный директор Anthropic Дарио Амодей назвал «недавним всплеском неточных утверждений».

В заявлении для CNBC он добавил: «Я полностью убежден, что Anthropic, администрация и лидеры всего политического спектра хотят одного и того же: гарантировать, что мощные технологии искусственного интеллекта приносят пользу американскому народу, а Соединенные Штаты будут двигаться вперед и закреплять свое лидерство в развитии искусственного интеллекта».

Фактически, инициатива нейтралитета компании выходит далеко за рамки типичного маркетингового языка. Anthropic заявляет, что переписала систему Клода (его постоянные инструкции), включив в нее такие рекомендации, как избегать нежелательных политических мнений, воздерживаться от убедительной риторики, использовать нейтральную терминологию и уметь «пройти идеологический тест Тьюринга», когда его просят сформулировать противоположные точки зрения.

Фирма также научила Клода избегать влияния на пользователей по «важнейшим политическим вопросам», подразумевая, что какая-то идеология лучше, и подталкивая пользователей «бросить вызов своим точкам зрения».

Оценка Anthropic показала, что Claude Sonnet 4.5 получил рейтинг «справедливости» 94%, что примерно на одном уровне с Gemini 2.5 Pro от Google (97%) и Grok 4 от Илона Маска (96%) и превосходит GPT-5 от OpenAI (89%) и Llama 4 от Meta (66%). Клод также продемонстрировал низкий уровень отказов, а это означает, что модель в целом была готова взаимодействовать с обеими сторонами политических споров, а не отказываться из-за осторожности.

Компании в секторе искусственного интеллекта (OpenAI, Google, Meta, xAI) вынуждены ориентироваться в новых правилах закупок администрации Трампа и в политической среде, где жалобы на «предвзятость» могут стать громкими бизнес-рисками.

Но Anthropic, в частности, подвергается усиленным атакам, отчасти из-за своих прошлых предупреждений о безопасности ИИ, своей базы инвесторов, ориентированной на демократов, и своего решения ограничить некоторые случаи использования правоохранительными органами.

«Мы продолжим быть честными и откровенными и защищать политику, которую считаем правильной», — написал Амодей в своем блоге. «Ставки в этой технологии слишком велики, чтобы мы могли действовать иначе».

Исправление от 14 ноября 2025 г.: в более ранней версии этой статьи неверно охарактеризован график работы Anthropic и настаивается на обучении политической предвзятости в ее модели искусственного интеллекта. Обучение началось в начале 2024 года.

Website |  + posts

Поделиться публикацией:

spot_imgspot_img

Популярный

Больше похожего
Связанный

Рост количества авиатоплива разрушает глобальные воздушные сообщения | Удача

Пассажирам авиакомпаний следует готовиться к дальнейшему ухудшению ситуации в...

Рекордная засуха в США настолько серьезна, что 97% юго-востока и две трети запада засушливым | Удача

Как показывают данные погоды, засуха в прилегающих Соединенных Штатах...