Пентагон назвал генерального директора Anthropic «лжецом» с «комплексом Бога» по мере приближения крайнего срока | Удача

Дата:

Компания Anthropic, занимающаяся искусственным интеллектом, заявила, что не может принять «последнее и лучшее» предложение Пентагона по разрешению спора по поводу ограничений, которые компания имеет в отношении того, как американские военные могут использовать ее модели искусственного интеллекта. Всего за несколько часов до крайнего срока в пятницу, когда необходимо выполнить требования Пентагона или столкнуться с действиями, которые могут помешать Anthropic вести дела с любой компанией, которая также ведет дела с военными США, спор становился все более уродливым.

Чиновники Пентагона публично поставили под сомнение личность генерального директора Anthropic Дарио Амодеи. Тем временем сотрудники конкурирующих лабораторий искусственного интеллекта подписали открытые письма в поддержку позиции Anthropic. Генеральный директор OpenAI Сэм Альтман сообщил сотрудникам в служебной записке в четверг, согласно сообщению Axios, что OpenAI будет налагать те же ограничения на автономное оружие и массовое наблюдение, что и Anthropic, поскольку ведет переговоры о расширении использования ChatGPT, который в настоящее время доступен военным для неконфиденциальных случаев использования, на более секретные домены.

Борьба между Anthropo и Пентагоном теперь грозит перерасти в общеотраслевое восстание среди технических работников компаний, занимающихся искусственным интеллектом, по поводу того, как военные используют системы искусственного интеллекта, которые они создают. По данным New York Times, в четверг более 100 сотрудников Google направили письмо Джеффу Дину, главному ученому компании, также с просьбой ввести аналогичные ограничения на то, как американские военные используют модели искусственного интеллекта Gemini компании.

В четверг Амодей опубликовал длинное заявление, объясняющее, почему компания считает, что должны быть ограничения на использование технологии искусственного интеллекта его компании для автономного оружия и массового наблюдения. Это две области, в которых Anthropic в настоящее время ограничивает использование своих моделей военными, как по условиям контракта, так и посредством гарантий, встроенных непосредственно в свои модели Claude. Пентагон хочет, чтобы эти ограничения были сняты, а Anthropic согласилась с тем, что американские военные могут использовать ее модели «в любых законных целях».

Системы искусственного интеллекта Frontier «недостаточно надежны, чтобы питать полностью автономное оружие», и без надлежащего надзора им «нельзя доверять в выработке критического суждения, которое наши высококвалифицированные профессиональные войска демонстрируют каждый день», – написал Амодей в своем заявлении. Что касается наблюдения, он утверждал, что мощный ИИ теперь может объединять отдельные безобидные общедоступные данные, такие как журналы местоположений, историю просмотров и социальные ассоциации, в полную картину жизни любого американского гражданина в масштабе.

Эмиль Майкл, заместитель военного министра США, в ответ назвал Амодея «лжецом» с «комплексом Бога», обвинив генерального директора в желании «лично контролировать вооруженные силы США» в постах в социальной сети.

Пентагон потребовал, чтобы Anthropic сняла договорные ограничения, против которых она выступает, к 17:01. В противном случае компания столкнется с расторжением контракта на 200 миллионов долларов с военными США или, в более крайней мере, будет названа «риском цепочки поставок», что фактически помешает любой компании, которая ведет дела с военными, использовать технологии Anthropic.

Этот тип шага обычно предназначен для иностранных противников, таких как китайская компания Huawei или российская компания по кибербезопасности Касперский.

«Использование этого против национальной компании по причине нежелания идти на компромисс по некоторым принципам такого рода действительно является эскалацией и беспрецедентным», — сказал Fortune Шон О Хейгеартай, исполнительный директор Кембриджского центра по изучению экзистенциального риска.

Военное министерство также пригрозило применить Закон об оборонном производстве времен холодной войны, используя закон, чтобы заставить Anthropic выпустить неограниченную версию Claude на том основании, что правительство считает это важным для национальной безопасности. Если Пентагон пойдет по этому пути, он будет использовать только чрезвычайные полномочия для разрешения спора по контракту в мирное время. Для этого есть некоторый прецедент: администрация Байдена также обратилась к DPA в 2023 году, чтобы заставить пограничные лаборатории ИИ передать информацию о безопасности своих моделей ИИ. Но принуждение компании производить продукт, а не просто предоставлять информацию, приближается к национализации ведущей технологической компании.

«Если их фактически вынуждают позволять использовать свои технологии способами, которые даже они сами считают ненадежными в ситуациях высокого риска для жизни и смерти, например, на поле боя», — сказал О Хейгертай, — «это создает очень опасный прецедент».

Военное министерство публично заявило, что оно не намерено проводить массовое наблюдение или исключать людей из принятия решений о нацеливании оружия, но спор может зависеть от того, как каждая из сторон определяет «автономность» или «наблюдение» на практике. Представители ведомства не сразу ответили на запрос Fortune о комментариях.

Представитель Anthropic сообщил Fortune, что компания продолжает «добросовестно работать» с военным министерством. Однако представитель заявил, что текст контракта, полученный накануне, «практически не привел к прогрессу» по основным вопросам. Новая формулировка, «представленная как компромисс», была «сочетана с юридическим жаргоном, который позволял бы игнорировать эти гарантии по своему желанию», заявили они. Амодей назвал угрозы военного министерства «противоречивыми по своей сути», поскольку «один называет нас угрозой безопасности, другой называет Клода существом, необходимым для национальной безопасности».

Anthropic заслужила похвалу в некоторых кругах за свою готовность стоять на своем. Профессор права Гарвардского университета Лоуренс Лессиг назвал заявление компании «прекрасным актом честности и принципиальности» и назвал его «невероятно редким для нашего времени».

Конкуренты OpenAI и xAI заключили контракты с Пентагоном, которые позволяют использовать их модели для всех законных целей, а xAI идет еще дальше, соглашаясь развертывать свои системы в некоторых секретных средах. Но более 330 нынешних сотрудников конкурирующих лабораторий Google DeepMind и OpenAI также опубликовали открытое письмо в поддержку Anthropic, призывая своих руководителей последовать примеру компании. “Они пытаются развалить каждую компанию, опасаясь, что другая сдастся”, – говорится в письме. «Эта стратегия работает только в том случае, если никто из нас не знает, где находятся другие». Среди подписавшихся были старшие ученые-исследователи, а также названные и анонимные исследователи из обеих компаний.

О Хейгеартайг сказал, что результаты спора могут выйти далеко за рамки самой Anthropic. «Если Пентагону это сойдет с рук, — сказал он, — это создаст прецеденты, которые не пойдут на пользу независимости этих компаний или их способности соблюдать этические стандарты».

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

Поделиться публикацией:

spot_imgspot_img

Популярный

Больше похожего
Связанный

Как война в Иране может «обрушить мировую экономику», прекратив поставки энергоносителей | Удача

Война в Иране не имеет признаков окончания, а поскольку...