По мнению экспертов, искусственный интеллект вошел в боевую зону и никуда не денется в ближайшее время.
По данным Wall Street Journal, несмотря на то, что президент Дональд Трамп приказал федеральным агентствам и военным подрядчикам прекратить вести дела с Anthropic, американские военные предположительно использовали модель искусственного интеллекта компании Claude в своей атаке на Иран.
Сейчас некоторые эксперты выражают обеспокоенность по поводу использования ИИ в военных операциях. «Машина ИИ дает рекомендации о том, какие цели атаковать, что на самом деле в некоторых отношениях намного быстрее, чем скорость мысли», — рассказал The Guardian Крейг Джонс, автор книги «Военные юристы: Соединенные Штаты, Израиль и юридическая война», в которой исследуется роль военных юристов в современной войне.
В разговоре с Fortune Джонс, профессор войны и конфликтов в Университете Ньюкасла, сказал, что ИИ значительно ускорил «цепочку убийств», сократив время от первоначального определения цели до окончательного уничтожения. Он сказал, что нападения США и Израиля на Иран, которые привели к смерти аятоллы Али Хаменеи, возможно, не произошли бы без ИИ.
«Было бы невозможно или почти невозможно сделать это таким образом», — сказал Джонс журналу Fortune. «Скорость, с которой они были осуществлены, а также масштабы и объем атак, я считаю, стали возможными благодаря ИИ».
Пентагон заручился помощью компаний, занимающихся искусственным интеллектом, чтобы ускорить и улучшить планирование войны, установив партнерство с Anthropic в 2024 году, которое развалилось на прошлой неделе из-за разногласий по поводу использования модели искусственного интеллекта компании Claude. Но OpenAI быстро подписала соглашение с Пентагоном, а xAI Илона Маска заключила соглашение об использовании модели искусственного интеллекта компании Grok в секретных системах. Американские военные также используют программное обеспечение компании Palantir, занимающейся интеллектуальным анализом данных, для получения информации на основе искусственного интеллекта для целей принятия решений.
ИИ на поле боя
Джонс сказал, что ВВС США уже много лет используют «скорость мысли» в качестве ориентира для скорости принятия решений. Он сказал, что время от сбора разведывательных данных, таких как воздушная разведка, до выполнения бомбардировки может занять до шести месяцев во время Второй мировой войны и войны во Вьетнаме. ИИ значительно сжал этот график.
Ключевая роль инструментов ИИ в военной комнате — быстрый анализ больших объемов данных. «Мы говорим о терабайтах, терабайтах и терабайтах данных», — сказал Джонс, — «все, начиная с аэрофотоснимков, человеческого интеллекта, интернет-разведки, отслеживания мобильных телефонов и всего остального».
Амир Хусейн, соавтор книги «Гипервойна: конфликты и конкуренция в веке искусственного интеллекта», сказал, что искусственный интеллект используется для сжатия системы принятия решений в вооруженных силах США, известной как цикл OODA, аббревиатуры от «наблюдать, направлять, принимать решения и действовать». Он сказал, что ИИ уже играет важную роль в наблюдении или интерпретации электронных и спутниковых данных, принятии решений на тактическом уровне и на этапе «действия», в частности, с помощью автономных дронов, которые должны действовать без руководства человека, когда сигналы заглушены. Некоторые из этих дронов на самом деле являются копиями иранских автономных дронов «Шахед».
ИИ также появлялся на других полях сражений. Сообщается, что Израиль использовал искусственный интеллект для идентификации целей Хамаса во время войны между Израилем и Хамасом. А автономные дроны находятся на передовой линии войны между Россией и Украиной, причем и Россия, и Украина используют некоторые варианты автономных технологий.
Умножение рисков
Тем не менее, Джонс указал на ряд проблем, связанных с войной на основе искусственного интеллекта. «Проблема, когда вы добавляете ИИ, заключается в том, что степень ошибки увеличивается, я бы сказал, на порядки», — сказал Джонс.
Конечно, сказал Джонс, человеческие ошибки существуют независимо от наличия технологии искусственного интеллекта, назвав вторжение США в Ирак в 2003 году конфликтом, основанным на ошибочном сборе разведданных. Но он сказал, что ИИ может усугубить эти ошибки из-за объема данных, которые анализирует технология.
Существует также ряд этических вопросов, которые поднимает война с искусственным интеллектом, в первую очередь вокруг вопроса об ответственности, что, по словам Хусейна, Женевские конвенции и законы о вооруженных конфликтах уже требуют от государств соблюдения. Поскольку ИИ стирает грань между принятием решений на уровне человека и машины, он сказал, что международное сообщество должно гарантировать, что ответственность за все действия на поле боя возлагается на человека.
«Законы вооруженных конфликтов требуют, чтобы мы обвиняли человека», – сказал Хусейн. «Человек должен нести ответственность независимо от того, какой уровень автоматизации используется на поле боя».

