«Обращение» Путина и молчаливый Буданов: нейросети становятся оружием в украинском конфликте
Сгенерированное нейросетью изображение Буданова
Прошедшая неделя украинского конфликта отмечена целым рядом фейковых пропагандистских вбросов особого рода с участием (точнее, якобы участием) высокопоставленных лиц обеих сторон. 5 июня в приграничных регионах России через взломанные сети теле- и радиовещания распространялось «экстренное обращение Путина»: смонтированный из кусочков старых записей фейк рассказывал о глубоком прорыве ВСУ, массовой эвакуации населения вглубь страны и всеобщей мобилизации. Многие ли купились на этот вброс – неясно, но пресс-службе Кремля всё равно пришлось выпускать опровержение.
11 июня ГУР Украины опубликовало любопытное продолжение уже полюбившейся телезрителям серии роликов «Планы любят тишину», посвящённой «наступу всех наступов». На этот раз в кадре многозначительно молчал не какой-нибудь очередной безымянный фашист, а сам начальник абвера Буданов, который не появлялся на публике с начала июня... И в этот раз тоже не появился: сидящая за столом фигура с лицом главного украинского разведчика явно сгенерирована средствами ИИ. По-видимому, киевский режим этим коротким роликом хотел показать, что слухи о гибели Буданова в результате российского ракетного удара немного преувеличены, но результат вышел обратным: сомнения в его добром здравии лишь усилились.
Наконец, 12 июня в эфире одного из каналов украинского ТВ появился ролик по случаю Дня России, в котором Зеленский извинялся перед жителями Донбасса за «всё хорошее» сразу. Тут уж, понятное дело, постарались российские тролли, нарезавшие это «кино» из бесчисленных видеомесседжей киевского фюрера, и хакеры, запустившие ролик в украинский телевизор.
Хотя творчество нейросетей по мотивам портрета Буданова – самый слабый из этих трёх фейков и по качеству, и по эффекту, оно всё же является вехой: это, пожалуй, первый в ходе СВО случай, когда одна из сторон использовала в пропаганде материал, почти целиком созданный ИИ (точнее, тем, что называет «искусственным интеллектом» обыватель). Поскольку художественные навыки нейросетей растут если не по часам, то по дням уж точно, в ближайшем будущем количество и, главное, качество подобного «контента» может увеличиться на два-три порядка.
(Не) учли хвалёные инженеры
Как известно, ещё Владимир Ильич Ленин заявил, что главная проблема цитат из Интернета в лёгкости, с которой люди верят в их подлинность. Не только возможная, но и доступная в наше время всякому желающему автоматизированная генерация практически любых статичных изображений уже возвела эту проблему в квадрат, а ведь в ближайшие месяцы можно ожидать появления нейросетей-генераторов качественного видео.
Нетрудно представить себе, какие фантастические возможности по манипуляции сознанием открывает эта сфера технологий: как говорил один киноперсонаж, одними и теми же инструментами можно создать и прелесть, и мерзость. В частности, известную своим «талантом» к рисованию нейросеть Stable Diffusion уже использовали для генерации «фото» жёсткого ареста Трампа 22 марта и взрыва неподалёку от Пентагона 22 мая, которые создали в Штатах определённый общественный резонанс (правда, нарисованная ИИ порнография пользуется куда большим спросом). Вокабуляторы, способные воспроизводить любой голос по короткой эталонной записи, уже взяты на вооружение телефонными мошенниками всего мира, включая Россию.
Возвращаясь к украинскому конфликту, можно сходу назвать с десяток шаблонных сценариев для нейросетевых фейков. Это могут быть переможные кадры с подъёмом жёлто-синего флага в «отбитом» населённом пункте, рисование на ровном месте куч убитых русских солдат и горелой техники, опять же выступления российских официальных лиц в поддержку Киева и т. д.
Само собой, профи могут создавать такого рода материалы и по старинке, «вручную», но производство большого объёма туфты классическими методами потребует соответствующих затрат времени и средств. С другой стороны, хотя качественная генерация нейросетями тоже требует от оператора специфических навыков, в теории использование ИИ набитой рукой позволяет выдавать буквально тонны «контента» очень быстро и практически бесплатно.
Недооценивать потенциал полностью виртуальной фабрики фейков не стоит. Как показали хотя бы некоторые российские военблогеры, широкую аудиторию можно бросать из шока в экстаз и обратно даже при помощи простого текста, что уж говорить о картинке со звуком. Конечно, просто настроение масс мало на что влияет, но грамотным вбросом фейков можно, например, дестабилизировать реагирующие на любой чих биржи или заставить население спешно покинуть какую-нибудь местность.
Три закона ChatGPTехники
На сегодняшний день такие сценарии кажутся утрированными, но дальнейшее развитие технологии нейросетей позволит создавать с их помощью масштабные мистификации уже через пару-тройку лет. Этот потенциал виден уже сейчас, так что неудивительно, что после всеобщего всплеска интереса к нейросетям в начале этого года повсеместно стали появляться законодательные инициативы по регулировке использования ИИ.
Забавно, что новости на этот счёт посыпались практически одновременно: то ли просто совпало, то ли парламентарии всего мира сознательно подражают друг другу. 31 марта впервые заблокировали наделавшего шуму бота ChatGPT, что характерно, на «демократической» стороне глобуса – в Италии. Причинами были объявлены нарушения местного законодательства в части безопасности личных данных пользователей и возрастных ограничений: чат-ботом могли пользоваться дети младше тринадцати лет, что не допускается.
Следующий месяц оказался весьма нервным для разработчиков нейросетей. 11 апреля китайская Администрация киберпространства представила законопроект о регуляции использования нейросетей на территории страны: от разработчиков теперь требуется вводить технические ограничения на генерацию различного неприемлемого контента, а от конечных пользователей – авторизоваться по паспорту. В Евросоюзе с требованиями к ИИ определились к 28 апреля: там также будут требовать от нейросетей следования «генеральной линии партии», а также раскрытия всего перечня защищённых авторским правом материалов (текстов, изображений и т. д.), которые использовались для обучения алгоритмов.
Россия не осталась в стороне от общих тенденций. 13 апреля зампред комитета Госдумы по инфополитике Горелкин заявил, что ведётся работа над пакетом документов о регуляции использования нейросетей в тех же аспектах, что и в остальном мире: исключение создания с их помощью экстремистских материалов, защита личных данных пользователей и авторских прав.
Особняком стоят США и Великобритания, правительства которых рассчитывают использовать новые информационные технологии для контроля за собственным населением и «союзниками» по всему миру. В начале апреля Вашингтон заявил о планах создания специального фонда, на средства которого будет поддерживаться кибербезопасность в дружественных государствах. А 23 мая корпорация Microsoft объявила о запуске нового нейросетевого «детектора дезинформации» Azure AI Content Safety: по сути, это будет автоматизированный модератор вроде тех, что используются в YouTube и других соцсетях, но универсальный. Предполагается, что сторонние платформы будут подключать его и пользоваться услугами за плату, а вот проводить границу между правдой и ложью в настройках своего ИИ Microsoft станет сама (но по советам американских спецслужб, конечно же).
На осень запланировано проведение первого глобального саммита по безопасности ИИ, который будет проходить на территории и под эгидой британского правительства с максимальным деятельным участием США. Принципиальная договорённость о проведении саммита была достигнута Байденом и Сунаком 7 июня, когда последний находился с визитом в Вашингтоне.
Штаты пока что являются мировым лидером в области коммерческих нейросетей, а Великобритания занимает третье место по объёму этого рынка (второе у Китая). Вполне очевидно, что саммит будет не столько про безопасность, сколько про делёж рынка между американскими и британскими игроками и навязывание прочим «союзникам» англо-американских отраслевых стандартов, как технических, так и законодательных.
Собственно, процесс уже идёт, хотя немного в ином, но типично американском ключе. В мае американский полупроводниковый гигант Intel активно выдавливал из немецкого правительства увеличение субсидий на строительство завода по производству чипов под Магдебургом: первоначальная договорённость была на 6,8 миллиарда евро, а затем аппетит подскочил до 10 миллиардов. Смена условий ещё не утверждена, но ряд немецких политиков и экспертов уже заявил, что так получается слишком дорого и лучше будет... закупать готовые чипы в Штатах.
Есть мнение, что на это демарш Intel с удорожанием строительства и направлен. А ведь намечавшиеся к выпуску передовые процессоры нужны как раз для создания мощных дата-центров, в которых и обретаются алгоритмы Midjourney и прочих нейросетей, – но зачем американским монополиям этой сферы конкуренты в Европе? Тем временем Microsoft 11 июня объявила о начале ликвидации своего исследовательского центра ИИ в Китае и вывозе персонала оттуда в Канаду. Словом, дистиллированная «рыночная конкуренция» как она есть.
Впрочем, это ещё вопрос, удастся ли американским производителям и разработчикам обскакать китайских, ведь в самих Штатах развернулась достаточно мощная кампания по ограничению коммерческого использования нейросетей. В частности, этого требуют многочисленные профсоюзы Голливуда, угрожая остановить кинопроизводство, и кое-каких результатов они уже добились: 3 июня в Конгресс был внесён законопроект о специальном знаке качества для произведений, созданных при помощи ИИ. Но вот в чём сомневаться не приходится, так это в том, что американское правительство и информационные гиганты продолжат самое активное внедрение нейросетей для манипуляций общественным мнением.
Информация