Вы не ненавидите ИИ из-за искренней неприязни. Нет, «Промышленный комплекс Думер» замышляет заговор стоимостью в миллиард долларов, чтобы промыть вам мозги, говорит царь Трампа по искусственному интеллекту | Удача

Дата:

Этот разрыв, утверждает Дэвид Сакс, происходит не потому, что ИИ угрожает их рабочим местам, их конфиденциальности и будущему самой экономики. Нет, по словам венчурного капиталиста, ставшего советником Трампа, все это часть заговора стоимостью в миллиард долларов, организованного тем, что он называет «Промышленным комплексом Думера», теневой сетью эффективных альтруистических миллиардеров, финансируемой такими людьми, как осужденный основатель FTX Сэм Бэнкман Фрид и соучредитель Facebook Дастин Московиц.

В своем посте на этой неделе Сакс утверждал, что общественное недоверие к ИИ вовсе не является органическим: оно искусственно создано. Он указал на исследование исследователя технической культуры Нирит Вайс-Блатт, который потратил годы на составление карты экосистемы «ИИ-гибель» аналитических центров, некоммерческих организаций и футуристов.

Вайс-Блатт документирует сотни групп, выступающих за строгое регулирование или даже мораторий на передовые системы искусственного интеллекта. Она утверждает, что большая часть денег, стоящих за этими организациями, принадлежит небольшому кругу доноров движения «Эффективный альтруизм», включая соучредителя Facebook Дастина Московица, Яана Таллина из Skype, создателя Ethereum Виталика Бутерина и осужденного основателя FTX Сэма Бэнкмана-Фрида.

По словам Вайс-Блатта, эти филантропы коллективно вложили более 1 миллиарда долларов в усилия по изучению или смягчению «экзистенциального риска» ИИ. Однако он выделил организацию Московица Open Philanthropy как «безусловно» крупнейшего донора.

Организация решительно отвергла идею о том, что они разрабатывают пессимистические сценарии в стиле научной фантастики.

«Мы считаем, что технологии и научный прогресс значительно улучшили благосостояние людей, поэтому большая часть нашей работы сосредоточена на этих областях», — сказал Fortune представитель Open Philanthropy. «ИИ обладает огромным потенциалом для ускорения науки, стимулирования экономического роста и расширения человеческих знаний, но он также создает некоторые беспрецедентные риски, и эту точку зрения разделяют лидеры всего политического спектра. Мы поддерживаем вдумчивую, беспристрастную работу, чтобы помочь управлять этими рисками и реализовать огромные потенциальные преимущества ИИ».

Но Сакс, который имеет тесные связи со стартап-сообществом Кремниевой долины и был одним из первых руководителей PayPal, говорит, что финансирование Open Philanthropy сделало больше, чем просто предупреждение о рисках: оно купило глобальную пиар-кампанию, предупреждающую о «богоподобном» ИИ. Он привел опросы, показавшие, что 83% респондентов в Китае считают, что преимущества ИИ перевешивают его вред (по сравнению с 39% в США), как свидетельство того, что то, что он называет «деньгами на пропаганду», изменило американские дебаты.

Сакс уже давно выступает за дружественный отрасли и свободный от регулирования подход к искусственному интеллекту (и технологиям в целом), созданный для борьбы за победу над Китаем.

Венчурная компания Сакса Craft Ventures не сразу ответила на просьбу о комментариях.

Что такое эффективный альтруизм?

«Деньги на пропаганду», о которых говорит Сакс, поступают в основном от сообщества «Эффективный альтруизм» (ЭА), нестабильной группы идеалистов, философов и технологических миллиардеров, которые считают, что высший моральный долг человечества — предотвращать будущие катастрофы, включая мошеннический ИИ.

Движение ЭА, основанное десять лет назад оксфордскими философами Уильямом МакАскиллом и Тоби Ордом, призывает дающих использовать данные и разум, чтобы принести как можно больше пользы.

Эта концепция побудила некоторых членов сосредоточиться на «долгосрочности», идее о том, что предотвращение экзистенциальных рисков, таких как пандемии, ядерные войны или мошеннический искусственный интеллект, должно иметь приоритет над краткосрочными причинами.

В то время как некоторые организации, связанные с EA, выступают за жесткое регулирование ИИ или даже «паузу» в разработке моделей, другие, такие как Open Philanthropy, придерживаются более технического подхода и финансируют исследования по согласованию в таких компаниях, как OpenAI и Anthropic. Влияние движения быстро росло до краха FTX в 2022 году, основатель которой Банкман-Фрид был одним из крупнейших благотворителей EA.

Мэтью Адельштейн, 21-летний студент колледжа, выдающийся специалист по Substack в EA, отмечает, что ситуация далека от той монолитной машины, которую описывает Сакс. Собственная карта Вайс-Блатта «экосистемы экзистенциального риска ИИ» включает сотни отдельных организаций (от университетских лабораторий до некоммерческих организаций и блогов), которые используют схожий язык, но не обязательно координируются. Однако Вайс-Блатт приходит к выводу, что, хотя «раздутая экосистема» не является «массовым движением. Это движение сверху вниз».

Адельштейн не согласен, отмечая, что реальность «более фрагментирована и менее зловеща», чем изображают Вайс-Блатт и Сакс.

«Большинство страхов людей по поводу ИИ — это не те страхи, о которых говорят миллиардеры», — сказал Адельштейн журналу Fortune. «Людей больше беспокоит мошенничество, предрассудки и потеря работы (немедленный ущерб), чем экзистенциальный риск».

Он утверждает, что выделение богатых доноров совершенно бессмысленно.

«Искусственный интеллект представляет очень серьезные риски», — сказал он. «Даже разработчики ИИ считают, что существует небольшой процент вероятности того, что это может привести к вымиранию человечества. Тот факт, что некоторые богатые люди согласны с тем, что это серьезный риск, не является аргументом против этого».

Для Адельштейна долгосрочность — это не сектантская одержимость отдаленным будущим, а прагматическая основа для оценки глобальных рисков.

«Мы разрабатываем очень продвинутый ИИ, сталкиваясь с серьезными ядерными и биологическими рисками, а мир к этому не готов», — сказал он. «Долгосрочность просто говорит, что мы должны делать больше, чтобы предотвратить их».

Он также отверг обвинения в том, что EA стала квазирелигиозным движением.

«Я хотел бы увидеть культ, который будет эффективно заниматься альтруизмом и спасать 50 000 жизней в год», — сказал он, смеясь. «Это было бы своего рода культом».

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

Поделиться публикацией:

spot_imgspot_img

Популярный

Больше похожего
Связанный