OpenAI заявляет, что миру необходимо переосмыслить все, от налоговой системы до продолжительности рабочего дня, чтобы подготовиться к мучительным изменениям в технологиях сверхразума, моменту, когда системы искусственного интеллекта способны превзойти самых умных людей.
В понедельник в 13-страничной статье под названием «Промышленная политика в эпоху интеллекта» OpenAI заявила, что хочет «начать» разговор со «списка политических идей, которые ставят людей на первое место». Однако насколько доверять словам и мотивам OpenAI, похоже, является одним из ключевых вопросов для многих людей, читающих статью. Документ был опубликован в тот же день, когда The New Yorker опубликовал результаты полуторалетнего расследования OpenAI, которое подняло вопросы о надежности генерального директора Сэма Альтмана по ряду вопросов, включая безопасность ИИ.
В документе, написанном командой по международным связям OpenAI, описываются многие ожидаемые экономические последствия сверхинтеллекта и предлагается несколько подходов к их устранению. «Мы предлагаем их не как всеобъемлющий или окончательный набор рекомендаций, а как отправную точку для обсуждения, которую мы приглашаем других разработать, усовершенствовать, бросить вызов или сделать выбор посредством демократического процесса», — говорится во вступительном сообщении в блоге.
Самопровозглашенный «список идей» в документе (который варьируется от государственного финансирования до сокращения рабочих недель) мало что может сделать, чтобы успокоить общественность, которая все больше нервничает и разочаровывается в темпах и последствиях перемен, вызванных ИИ. И OpenAI, конечно, является одной из наименее нейтральных сторон в этой продолжающейся дискуссии, которая является центральным противоречием в документе, сказала Люсия Веласко, старший экономист и руководитель политики в области искусственного интеллекта в Межамериканском банке развития в Вашингтоне и бывший руководитель отдела политики в области искусственного интеллекта в Управлении цифровых и новых технологий ООН.
«OpenAI — сторона, наиболее заинтересованная в том, чем закончится этот разговор, и предложения, которые она представляет, формируют среду, в которой OpenAI работает со значительной свободой в условиях ограничений, которые она в значительной степени помогла определить», — сказал он, добавив, что это не повод отказываться от статьи, а «это причина гарантировать, что разговор, который он пытается начать, не закончится той же самой компанией, которая его начала».
Тем не менее, он подчеркнул, что OpenAI прав, говоря, что правительства отстают в продвижении политических решений. «Большинство по-прежнему рассматривает ИИ как технологическую проблему, хотя на самом деле это структурные экономические изменения, требующие соответствующей промышленной политики», — сказал он. «Это полезный вклад, и документ заслуживает того, чтобы его воспринимали серьезно как упражнение по определению повестки дня, даже если это отправная точка».
Сорибель Фелис, независимый советник по политике в области ИИ, ранее работавшая старшим советником по политике в области ИИ и технологий в Сенате США, согласилась, что OpenAI заслуживает похвалы за то, что «изложила это на бумаге». По его словам, признание того, что как американские учреждения, так и сети безопасности отстают в разработке и внедрении ИИ, является правильным, «и разговор на этом уровне должен произойти прямо сейчас».
Однако он подчеркнул, что большая часть предложенного не является чем-то новым: «Некоторые из этих принципов («широкое распространение процветания, снижение рисков, демократизация доступа») были основой для каждого крупного разговора об управлении ИИ с момента выхода ChatGPT в ноябре 2022 года.
“Я работал в Сенате США в 2023-2024 годах, и у нас было девять сессий форума по политике в области ИИ, где все это было сказано. У меня это есть в моих рукописных заметках! Все это уже было сказано, все это”, – написал он Fortune в прямом сообщении. «Теория о государственно-частном партнерстве, грамотности в области искусственного интеллекта и голосе работников кажется чем-то из отчета ЮНЕСКО или ОЭСР по политике в области искусственного интеллекта. Идеи не ошибочны. Проблема заключается в разрыве между наименованием решений и созданием реальных механизмов для их достижения».
Очевидно, что целевая аудитория — это не сотни миллионов еженедельных пользователей ChatGPT. Вместо этого именно политики Beltway различными способами настаивают на регулировании ИИ (или сдерживают его) с момента запуска ChatGPT в ноябре 2022 года. В этом смысле некоторые считают, что это представляет собой улучшение по сравнению с предыдущими усилиями.
«Я считаю, что этот документ является реальным улучшением по сравнению с предыдущими документами, которые были еще более гибкими и высокого уровня», — сказал Натан Кальвин, вице-президент по государственным делам и главный юрисконсульт Encode AI. «Я думаю, что некоторые конкретные предложения о таких вещах, как аудиты или отчеты об инцидентах, а также правительственные ограничения на определенные виды использования ИИ, являются хорошими идеями».
Но он также указал на усилия по лоббированию, возглавляемые руководителями OpenAI, с PAC Leading the Future, который продвигает политику, благоприятную для индустрии искусственного интеллекта. Глава международных отношений Крис Лихейн считается движущей силой этих усилий, а президент Грег Брокман был крупнейшим донором.
«Я надеюсь, что этот документ сигнализирует о движении к более конструктивному взаимодействию, а не к нападкам на политиков, которые продвигают ту же политику, которую сейчас поддерживает OpenAI», — сказал Кэлвин, в частности, указав на лоббирование «Лидерами будущего» против кандидата в Конгресс от Нью-Йорка Алекса Бореса, автора и ведущего спонсора закона RAISE Act, нью-йоркского закона о безопасности и прозрачности искусственного интеллекта, недавно подписанного губернатором Кэти Хоукул.
Кэлвин также обвинил OpenAI в использовании тактики запугивания для подрыва калифорнийского закона SB 53, Закона о прозрачности калифорнийских границ с использованием искусственного интеллекта, пока он все еще обсуждался. В нем также утверждается, что OpenAI использовала продолжающуюся судебную тяжбу с Илоном Маском как предлог для нападения и запугивания критиков, в том числе Encode, который, как предполагала компания, тайно финансировался Маском.
Тем не менее, хотя генеральный директор OpenAI Сэм Альтман сравнил представленный в понедельник список политических идей с Новым курсом в интервью Axios, некоторые говорят, что он меньше похож на законодательство эпохи Рузвельта, а больше на мысленный эксперимент Кремниевой долины, который волшебным образом не превратится в действие.
Например, Антон Лейхт, приглашенный ученый из группы технологий и международных отношений Фонда Карнеги, написал: «Они не собираются просто стать органической альтернативой». «В этом смысле это коммуникационная попытка прикрыть нормативный нигилизм».
Лучшим вариантом, по его словам, было бы перенаправление политического финансирования и лоббистских навыков индустрии искусственного интеллекта на продвижение такого типа политической повестки дня. Однако он сказал, что «неопределенный характер и сроки» принятия документа «не вселяют во меня чрезмерного оптимизма».

