Anthropic подчеркнула свою политическую нейтральность, поскольку администрация Трампа усиливает свою кампанию против так называемого «пробуждённого ИИ», ставя себя в центр всё более идеологической борьбы за то, как большие языковые модели должны говорить о политике.
В сообщении в блоге в четверг Anthropic подробно рассказала о своих текущих усилиях по обучению своего чат-бота Клода вести себя с тем, что она называет «политической беспристрастностью», структурой, призванной гарантировать, что модель рассматривает противоположные точки зрения «с одинаковой глубиной, вовлеченностью и качеством анализа».
Компания также запустила новый автоматизированный метод измерения политической предвзятости и опубликовала результаты, свидетельствующие о том, что ее последняя модель Claude Sonnet 4.5 превосходит своих конкурентов по нейтральности или соответствует им.
Это заявление было сделано на фоне необычно сильного политического давления. В июле президент Дональд Трамп подписал указ, запрещающий федеральным агентствам приобретать системы искусственного интеллекта, которые «приносят в жертву правдивость и точность ради идеологических программ», прямо упоминая инициативы по разнообразию, равенству и инклюзивности как угрозу «надежному ИИ».
А Дэвид Сакс, руководитель ИИ в Белом доме, публично обвинил Anthropic в продвижении либеральной идеологии и попытках «регулирующего захвата».
Конечно, Anthropic отмечает в своем блоге, что с начала 2024 года они обучают Клода чертам характера «справедливости». В предыдущих публикациях в блоге, в том числе о выборах от февраля 2024 года, Anthropic упоминает, что они тестировали свою модель, чтобы увидеть, как она работает против «злоупотреблений в ходе выборов», включая «дезинформацию и предвзятость».
Однако теперь фирме из Сан-Франциско пришлось продемонстрировать свой политический нейтралитет и защитить себя от того, что генеральный директор Anthropic Дарио Амодей назвал «недавним всплеском неточных утверждений».
В заявлении для CNBC он добавил: «Я полностью убежден, что Anthropic, администрация и лидеры всего политического спектра хотят одного и того же: гарантировать, что мощные технологии искусственного интеллекта приносят пользу американскому народу, а Соединенные Штаты будут двигаться вперед и закреплять свое лидерство в развитии искусственного интеллекта».
Фактически, инициатива нейтралитета компании выходит далеко за рамки типичного маркетингового языка. Anthropic заявляет, что переписала систему Клода (его постоянные инструкции), включив в нее такие рекомендации, как избегать нежелательных политических мнений, воздерживаться от убедительной риторики, использовать нейтральную терминологию и уметь «пройти идеологический тест Тьюринга», когда его просят сформулировать противоположные точки зрения.
Фирма также научила Клода избегать влияния на пользователей по «важнейшим политическим вопросам», подразумевая, что какая-то идеология лучше, и подталкивая пользователей «бросить вызов своим точкам зрения».
Оценка Anthropic показала, что Claude Sonnet 4.5 получил рейтинг «справедливости» 94%, что примерно на одном уровне с Gemini 2.5 Pro от Google (97%) и Grok 4 от Илона Маска (96%) и превосходит GPT-5 от OpenAI (89%) и Llama 4 от Meta (66%). Клод также продемонстрировал низкий уровень отказов, а это означает, что модель в целом была готова взаимодействовать с обеими сторонами политических споров, а не отказываться из-за осторожности.
Компании в секторе искусственного интеллекта (OpenAI, Google, Meta, xAI) вынуждены ориентироваться в новых правилах закупок администрации Трампа и в политической среде, где жалобы на «предвзятость» могут стать громкими бизнес-рисками.
Но Anthropic, в частности, подвергается усиленным атакам, отчасти из-за своих прошлых предупреждений о безопасности ИИ, своей базы инвесторов, ориентированной на демократов, и своего решения ограничить некоторые случаи использования правоохранительными органами.
«Мы продолжим быть честными и откровенными и защищать политику, которую считаем правильной», — написал Амодей в своем блоге. «Ставки в этой технологии слишком велики, чтобы мы могли действовать иначе».
Исправление от 14 ноября 2025 г.: в более ранней версии этой статьи неверно охарактеризован график работы Anthropic и настаивается на обучении политической предвзятости в ее модели искусственного интеллекта. Обучение началось в начале 2024 года.

