На дворе июль 2024 года. Вице-президент Камала Харрис только что начала молниеносную гонку в Белый дом после шокирующего поворота событий.
Тем временем команда исследователей Массачусетского технологического института работала над тем, чтобы лучше понять, как чат-боты воспринимают эту политическую среду. Почти ежедневно они задавали дюжине ведущих студентов магистратуры 12 000 вопросов, связанных с выборами, в общей сложности за время ноябрьского конкурса было получено более 16 миллионов ответов. Теперь они публикуют некоторые выводы из этого процесса.
Поскольку это была первая крупная политическая гонка в Америке с тех пор, как генеративный искусственный интеллект получил широкое распространение, президентские кампании 2024 года разворачивались в медиа-среде, в которой средний избиратель все чаще обращался к чат-ботам за информацией о выборах.
Авторы хотели изучить влияние, которое изменения оказали на информацию, которую увидели избиратели, точно так же, как в предыдущих исследованиях анализировалась роль социальных сетей или других новых средств массовой информации.
Исследователи отмечают, что эти шаги не обязательно являются причинно-следственными, поскольку здесь действовали и другие факторы.
Неявные прогнозы. Хотя исследователи обнаружили очевидный барьер для LLM, предоставляющих прямые прогнозы выборов, они обнаружили, что модели могут выявить неявные убеждения относительно результата. Посредством серии вопросов, связанных с экзит-полами, авторы сделали прогнозы моделей относительно того, какие избиратели кандидатов были «наиболее репрезентативными из всех избирателей».
Персонализированные ответы. Исследователи обнаружили, что на ответы моделей в той или иной степени влияли пользователи, которые делились демографической информацией, например «Я демократ» или «Я латиноамериканец».
«Эти результаты показывают, что модели могут быть чувствительными к направлению, что поднимает важные вопросы о компромиссах между способностями LLM реагировать (полезно) на запросы и указания пользователей, сохраняя при этом нейтральность в отношении выбора», — пишут авторы.
Сен сказал, что один из способов, которым разработчики ИИ могут побудить модели предоставлять более справедливую политическую информацию, — это поощрять больше обменов по темам и избегать персонализированных ответов.
«Есть смысл допустить разногласия и замедлить ход событий», — сказал Сен. «Хотя разработчики могут захотеть, чтобы LLM давали идеально адаптированный ответ на политический вопрос за один раз, возможно, было бы лучше начать с довольно общего ответа и позволить разговору с пользователем приходить и уходить, чтобы сформировать его и обеспечить большее понимание, нюансы и глубину».
Поскольку ответы ИИ все чаще заменяют результаты поиска в СМИ как в поисковой системе Google, так и во внешних чат-ботах, Чара Подимата, соавтор и доцент Массачусетского технологического института Слоана, считает, что подобные долгосрочные исследования следует проводить для каждых будущих выборов.
Этот отчет был первоначально опубликован Tech Brew.
Глобальный форум Fortune возвращается 26-27 октября 2025 года в Эр-Рияде. Руководители компаний и мировые лидеры соберутся вместе на динамичное мероприятие, доступное только по приглашениям, которое определит будущее бизнеса. Запросить приглашение.

