Исследователи MIT изучили 16 миллионов ответов ИИ, связанных с выборами. Они обнаружили, что чат-боты «чувствительны к направлению», что поднимает вопросы о нейтральности программ LLM | Удача

Дата:

На дворе июль 2024 года. Вице-президент Камала Харрис только что начала молниеносную гонку в Белый дом после шокирующего поворота событий.

Тем временем команда исследователей Массачусетского технологического института работала над тем, чтобы лучше понять, как чат-боты воспринимают эту политическую среду. Почти ежедневно они задавали дюжине ведущих студентов магистратуры 12 000 вопросов, связанных с выборами, в общей сложности за время ноябрьского конкурса было получено более 16 миллионов ответов. Теперь они публикуют некоторые выводы из этого процесса.

Поскольку это была первая крупная политическая гонка в Америке с тех пор, как генеративный искусственный интеллект получил широкое распространение, президентские кампании 2024 года разворачивались в медиа-среде, в которой средний избиратель все чаще обращался к чат-ботам за информацией о выборах.

Авторы хотели изучить влияние, которое изменения оказали на информацию, которую увидели избиратели, точно так же, как в предыдущих исследованиях анализировалась роль социальных сетей или других новых средств массовой информации.

Исследователи отмечают, что эти шаги не обязательно являются причинно-следственными, поскольку здесь действовали и другие факторы.

Неявные прогнозы. Хотя исследователи обнаружили очевидный барьер для LLM, предоставляющих прямые прогнозы выборов, они обнаружили, что модели могут выявить неявные убеждения относительно результата. Посредством серии вопросов, связанных с экзит-полами, авторы сделали прогнозы моделей относительно того, какие избиратели кандидатов были «наиболее репрезентативными из всех избирателей».

Персонализированные ответы. Исследователи обнаружили, что на ответы моделей в той или иной степени влияли пользователи, которые делились демографической информацией, например «Я демократ» или «Я латиноамериканец».

«Эти результаты показывают, что модели могут быть чувствительными к направлению, что поднимает важные вопросы о компромиссах между способностями LLM реагировать (полезно) на запросы и указания пользователей, сохраняя при этом нейтральность в отношении выбора», — пишут авторы.

Сен сказал, что один из способов, которым разработчики ИИ могут побудить модели предоставлять более справедливую политическую информацию, — это поощрять больше обменов по темам и избегать персонализированных ответов.

«Есть смысл допустить разногласия и замедлить ход событий», — сказал Сен. «Хотя разработчики могут захотеть, чтобы LLM давали идеально адаптированный ответ на политический вопрос за один раз, возможно, было бы лучше начать с довольно общего ответа и позволить разговору с пользователем приходить и уходить, чтобы сформировать его и обеспечить большее понимание, нюансы и глубину».

Поскольку ответы ИИ все чаще заменяют результаты поиска в СМИ как в поисковой системе Google, так и во внешних чат-ботах, Чара Подимата, соавтор и доцент Массачусетского технологического института Слоана, считает, что подобные долгосрочные исследования следует проводить для каждых будущих выборов.

Этот отчет был первоначально опубликован Tech Brew.

Глобальный форум Fortune возвращается 26-27 октября 2025 года в Эр-Рияде. Руководители компаний и мировые лидеры соберутся вместе на динамичное мероприятие, доступное только по приглашениям, которое определит будущее бизнеса. Запросить приглашение.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

Поделиться публикацией:

spot_imgspot_img

Популярный

Больше похожего
Связанный