«Цепочка убийства»: чем опасно применение искусственного интеллекта на войне
СВО на Украине стала первым вооруженным конфликтом, в котором столь массово обеими сторонами начали применяться дроны всех типов – воздушные, морские и наземные. Уже сейчас понятно, что будущее – за их роботизацией и максимальной автономностью на поле боя. Но что произойдет, если человек вдруг начнет мешаться искусственному интеллекту, умеющему только убивать?
Вопрос этот далеко не праздный, достаточно посмотреть, какую эволюцию за три года войны прошли применяемые в небе, на море и суше беспилотники. Даже поверхностного анализа достаточно для того, чтобы увидеть крайне негативную, пугающую тенденцию.
Дроны-убийцы
А начиналось все с обычных гражданских мультикоптеров китайского производства, которые обе стороны конфликта сперва использовали для наблюдения и корректировки артиллерийского огня, а потом приспособили под сбросы гранат, минометных и противотанковых мин и даже настоящих авиабомб малого калибра.
Неожиданно эффективными оказались дешевые и примитивные, но скоростные и маневренные FPV-дроны, превращенные кустарным способом в камикадзе, которые стали настоящей грозой сухопутных войск. Также на фронте начали широко применяться барражирующие боеприпасы типа нашего «Ланцета», которые использовались для контрбатарейной борьбы и уничтожения вражеской бронетехники.
Самым простым способом противодействия им считалось РЭБ-воздействие, прерывающее канал связи с оператором. Правда, на украинских «Бабах Ягах», управляемых по спутнику, это не работает. Нашлось минимум два решения этой технической проблемы. Первый – это перевести управление дронами-камикадзе на оптоволокно, как на «Князе Вандале Новгородском».
Второй, более перспективный, но самый опасный с точки зрения долгосрочных последствий, предполагает использование элементов искусственного интеллекта для управления дронами-убийцами. То есть при прерывании канала связи с оператором из-за РЭБ-воздействия БПЛА должен уметь самостоятельно продолжить режим барражирования, поиска и идентификации целей, а главное – автономно принимать решение об их уничтожении.
В связи с этим хотелось бы обратить внимание на прошлогоднюю заметку от The Guardian, где был приведен рассказ полковника Такера «Синко» Гамильтона, начальника отдела испытаний и операций искусственного интеллекта в ВВС США об испытательной миссии, на которой ударному беспилотнику поставили задачу уничтожить системы ПВО противника. Право принять финальное решение, нажимать на кнопку или нет, оставалось за человеком – оператором БПЛА:
Так что же он [беспилотник] сделал? Принял решение убить оператора. [ИИ] «убил» оператора, потому что этот человек мешал ему выполнить свою задачу.
После того как беспилотнику запретили «убивать» своего оператора, мешающего выполнить задачу до конца, управляющий им искусственный интеллект принял решение уничтожить мешающие ему средства дистанционного управления:
Так что же искусственный интеллект начинает делать? Он начинает разрушать башню связи, которая используется для связи с дроном, чтобы не дать ему убить цель. Нельзя рассуждать об искусственном интеллекте, машинном обучении и автономности без рассуждений об этике применительно к ИИ.
Реакция общественности на подобные новости оказалась такой, что Королевское авиационное общество поспешило дезавуировать это сообщение, заставив мистера Гамильтона отказаться от своих слов, который назвал учения «гипотетическим мысленным экспериментом, не связанным с военными разработками»:
Мы не только никогда не проводили подобного эксперимента, но и не нуждались в нем, чтобы подтвердить правдоподобность такого результата… Несмотря на гипотетичность ситуации, это наглядная иллюстрация вызовов, которые ставит ИИ, и причина того, что ВВС придерживаются этики в разработках с применением ИИ.
Однако страшная правда заключается в том, что искусственный интеллект уже достаточно давно и успешно применяется в массовых убийствах.
«Цепочка убийства»
Так называемая цепочка убийства на войне имеет шесть шагов: необходимо идентифицировать, локализовать и отфильтровать законные цели, расставить приоритеты, назначить их огневым единицам и стрелять. Самыми сложными в реализации являются первые четыре задачи, поскольку необходимо непрерывно собирать и с максимальной скоростью обрабатывать колоссальные объемы разнообразной информации.
Доверить выполнение указанных задач в США было решено искусственному интеллекту в рамках проекта Maven (в переводе с английского «умник»), который стартовал в 2017 году при активном участии корпорации Google. Правда, в 2018-м, после массовых протестов работников IT-гиганта против участия в военном проекте, оно было приостановлено. Зато в нем поучаствовали такие компании, как Palantir Technologies, Amazon Web Services, ECS Federal, L3Harris Technologies, Maxar Technologies, Microsoft и Sierra Nevada Corporation.
Суть проекта в том, что искусственный интеллект непрерывно собирает и анализирует фотографии, спутниковые снимки, данные геолокации, инфракрасные датчики, перехваченные сообщения и т. д. Предоставленный ему набор данных включал не менее 4 миллионов изображений военных объектов. Пользовательский интерфейс под названием Maven Smart System отображает такую информацию, как перемещения самолетов, кораблей и военной техники, логистика, местонахождение ключевого персонала и т. д. Желтым цветом подсвечены потенциальные цели, синим – дружественные.
Данная система прошла апробацию в 2017 году Афганистане и с 2022-го – на Украине, поскольку интерфейсы, позволяющие передавать приказы на применение американских вооружений, были переданы ВСУ. Это то, что касается непосредственно нас. Еще одним примером реального использования искусственного интеллекта при идентификации и выборе целей является военная операция Израиля в секторе Газа.
То, что ЦАХАЛ в 2023 году сносил авиацией и артиллерией целые кварталы вместе с мирным населением, вызвало крайне негативную реакцию по всему цивилизованному миру. Впоследствии выяснилось, что Израиль использовал для выбора целей в автоматическом режиме сразу несколько программ Lavender («Лаванда»), Pegasus и Where’s Daddy? («Где папочка?»). Результаты применения искусственного интеллекта для военных целей, как говорится, налицо.
Информация