Когда в начале января одно из крупнейших финансовых учреждений страны объявило, что оно прекратит использовать сторонние консалтинговые фирмы и вместо этого будет полагаться на внутреннюю систему искусственного интеллекта для управления голосованием по вопросам акционеров, этот шаг был широко представлен как история инвесторов. Но его последствия выходят далеко за рамки управления активами.
Для советов директоров корпораций этот сдвиг сигнализирует о чем-то более фундаментальном: управление все чаще интерпретируется не только людьми, но и машинами. И большинство советов до сих пор не до конца поняли, что это значит.
Почему прокси-советники стали такими мощными
Прокси-консультационные фирмы не ставили перед собой задачу стать влиятельными брокерами. Они возникли для решения практических проблем масштаба и координации.
Когда институциональные инвесторы стали владеть акциями тысяч компаний, голосование по доверенности резко расширилось, охватив все: от выборов директоров и вознаграждений руководителей до слияний и разнообразных предложений акционеров. Ответственное голосование во всем этом мире требовало времени, опыта и инфраструктуры, которых не было у многих компаний.
Консультанты по голосованию заполнили этот пробел, добавляя данные, анализируя раскрытую информацию и предлагая рекомендации по голосованию. Со временем на рынке стало доминировать небольшое количество компаний. Их влияние росло не потому, что инвесторы были обязаны следовать за ними, а потому, что согласование было эффективным, оправданным и поддающимся проверке.
Не менее важно и то, что доверенные советники решили проблему координации, из-за которой акционеры остались без голоса. Его интеллектуальные корни лежат в таких активистах, как Роберт Монкс, который считал, что рассредоточенная собственность позволила корпоративной власти оказаться изолированной от проблем. Целью было не автоматизировать голосование, а помочь акционерам действовать коллективно; донесение до руководства неудобных истин, которые в противном случае никогда бы не дошли до вершины. Однако со временем механизмы, созданные для применения этого суждения, все чаще заменяли его, поскольку масштаб, стандартизация и эффективность вытеснили конфронтацию.
То, что начиналось как метод координации решений акционеров, на практике стало его заменой.
Почему модель меняется?
Силы, которые позволили доверенным советникам расти, также выявили противоречие между эффективностью и рассудительностью.
Стандартизированная политика обеспечила последовательность, но часто за счет контекста. Сложные управленческие решения, сроки смены генерального директора, стратегическое вознаграждение и смена членов совета директоров все больше сводились к двоичным результатам. Политический и нормативный контроль усилился. И управляющие активами начали задавать фундаментальный вопрос: если голосование по доверенности является фундаментальной фидуциарной ответственностью, почему так много решений передается на аутсорсинг?
Результатом стала постепенная реконфигурация. Советники по голосованию отходят от универсальных рекомендаций. Крупные инвесторы развивают возможности внутреннего управления. И вот на сцену вышел искусственный интеллект.
Что меняет ИИ, а что нет
ИИ обещает то же, что когда-то делали прокси-советники: масштаб, последовательность и скорость. Системы предназначены для эффективной обработки тысяч встреч, презентаций и раскрытий информации.
Но ИИ не устраняет суждения. Он перемещает его.
Решение теперь зависит от конструкции модели, обучающих данных, переменных весов и протоколов обнуления. Этот выбор не менее важен, чем политика голосования консультанта по голосованию. Они просто менее заметны.
Если раньше прокси-консультанты добавляли голос акционеров, чтобы бросить вызов управленческой власти, ИИ рискует сделать эту задачу более тихой, чистой и трудной для отслеживания.
Для советов директоров это меняет аудиторию раскрытия информации о корпоративном управлении. Между строк читают уже не только люди-аналитики. Все чаще эти алгоритмы читаются буквально, исторически и без контекста, если только доски сами не предоставляют этот контекст.
Советы директоров не задавали вопросы управления
Это изменение поднимает ряд вопросов, которые многие советы еще не полностью рассмотрели.
Как они нас оценивают? Системы искусственного интеллекта могут использовать презентации, звонки о прибылях и убытках, веб-сайты, освещение в СМИ и другие общедоступные источники. Сигналы управления теперь накапливаются постоянно, а не только во время прокси-сезона.
Где нас могут неправильно понять? Язык, который работает для читателей-людей – нюансы, осмотрительность, развивающиеся компромиссы – может сбить с толку машины. Двусмысленность можно интерпретировать как противоречивость. Молчание можно рассматривать как риск.
А если что-то пойдет не так, кто будет нести ответственность? Не существует универсального процесса апелляции для голосов по доверенности, о которых сообщает ИИ. В конечном итоге ответственность может лежать на управляющем активами, но пути эскалации могут быть непрозрачными, неформальными или медленными, особенно в случае обычных голосований.
Советы директоров должны исходить из того, что если алгоритм неправильно интерпретирует их управление, может не быть аналитика, которому можно было бы позвонить, и не было бы четкого способа исправить запись перед голосованием.
Рассмотрим этот сценарий
Председатель совета директоров одной компании имеет то же имя, что и бывший руководитель другой компании, который несколько лет назад был вовлечен в спор о корпоративном управлении. Система искусственного интеллекта, которая сканирует общественную информацию, связывает разногласия не с тем человеком, незаметно повышая предполагаемый риск управления перед выборами директора.
В то же время совет директоров откладывает смену генерального директора на год, чтобы сохранить стабильность во время крупного приобретения. Решение продуманное и целенаправленное, но его обоснование разбросано по презентациям, телефонным звонкам и разговорам с инвесторами. Система искусственного интеллекта указывает на задержку как на слабость управления.
За несколько дней до ежегодного собрания сторонний блог публикует спекулятивную критику независимости совета директоров. Претензии необоснованны, но публичны. Система искусственного интеллекта поглощает контент до того, как произойдет его проверка человеком.
Совет никогда не видит ошибок. Нет аналитика, с которым можно было бы взаимодействовать, есть только результаты голосования, на которые можно было бы отреагировать постфактум.
Ничто из этого не требует плохих актеров или злых намерений. Это просто то, что происходит, когда пересекаются масштаб, автоматизация и неопределенность.
Что советы директоров могут и чего не могут делать
Советы директоров не могут контролировать, как управляющие активами проектируют свои системы искусственного интеллекта. Им также не следует пытаться оптимизировать раскрытие алгоритмов.
Но советы директоров могут управлять по-разному.
Некоторые советы директоров уже экспериментируют с более четкими раскрытиями информации, которые включают более подробные объяснения философии управления, того, как идут компромиссы и как выносятся суждения. Не потому, что алгоритмы «заботятся», а потому, что люди все еще проектируют, контролируют и иногда игнорируют эти системы.
Ясность снижает риск неправильного толкования. Последовательность снижает затраты на проверку человеком. Контекст позволяет суждениям пережить автоматизацию.
Это не означает, что советы директоров должны публично объяснять каждое решение или исключать свободу действий. Чрезмерное раскрытие информации несет в себе свои риски. Но это означает, что необходимо тщательно обдумать, какие суждения требуют контекста для понимания, а какие нельзя безопасно оставлять на усмотрение.
Советам директоров также следует переосмыслить взаимодействие. Разговоры с инвесторами больше не могут фокусироваться исключительно на политике и результатах. Они должны включать вопросы о процессе: где проявляется человеческое суждение, что вызывает проверку, как разрешаются фактические споры и как быстро можно исправить ошибки.
Речь не идет об освоении ИИ. Речь идет о понимании того, где лежит ответственность, когда управленческие решения принимаются через машины.
Управление в эпоху алгоритмов
В среде голосования с помощью искусственного интеллекта некоторые привычные предположения больше не верны.
Молчание редко бывает нейтральным. Двусмысленность редко бывает благоприятной. А согласованность с течением времени, на разных платформах и в раскрытии информации станет активом управления.
Это изменение важно сейчас, потому что результаты голосования по доверенности все чаще формируются до того, как советы директоров поймут, что необходимо провести разговор.
Форумы, которые лучше всего справятся с этим переходом, не будут теми, которые оптимизируют оценки или контрольные списки. Это будут советы, которые документируют решения, объясняют компромиссы и рассказывают последовательную историю управления, которая будет актуальна независимо от того, читается ли она аналитиком-человеком, доверенным советником или машиной.
Это не технологическая задача.
Это вопрос управления.
Мнения, выраженные в комментариях Fortune.com, являются исключительно точками зрения их авторов и не обязательно отражают мнения и убеждения Fortune.

