Летальный искусственный интеллект: в чем опасность «оружия будущего»
С начала времен человечество ведет войны. Изначально конфликты были примитивными. Племена древних людей воевали палками и камнями за землю и еду.
В современных войнах мы уже применяем дроны, ракеты с системой самонаведения, системы РЭБ и прочее высокотехнологичное оружие. Но и это еще не предел.
Прямо сейчас десятки крупнейших компаний ВПК по всему миру работают над автономными системами, которые смогли бы выполнять военные задачи без участия человека. Нет, речь идет не об антропоморфных роботах подобно терминатору из одноименного фильма. Инженеры пытаются создать программный алгоритм, который в будущем будет внедряться в существующие системы и сведет на нет участие человека в их управлении.
Например, сегодня в вооруженных конфликтах массово используются беспилотники. При этом каждым отдельным дроном управляет оператор, и именно человек принимает решение об использовании тех или иных возможностей БПЛА на поле боя.
В свою очередь, система на базе ИИ могла бы выполнять поставленную задачу автономно, опираясь на загруженные в нее данные о потенциальной цели, а также анализируя окружающую обстановку.
Звучит как фантастика. Между тем некоторые страны уже близки к внедрению подобных систем в свои войска.
Остается лишь открытым вопрос, к чему приведет подобная эволюция армий.
Очевидно, что системы на базе ИИ имеют ряд достоинств. В частности, использование автономного вооружения полностью исключает человеческий фактор, который нередко приводит к дополнительным жертвам среди мирного населения и разрушениям. Кроме того, роботизированные системы позволят сохранить жизнь военным, которым не придется участвовать в боевых действиях непосредственно.
Впрочем, есть у «летального искусственного интеллекта» и существенные недостатки. Одним из них является риск взлома подобной системы хакерами, что приведет к самым непредсказуемым последствиям. Кроме того, массовое производство автономного вооружения неизбежно сделает его доступным для негосударственных и террористических организаций.
Прямо сейчас в ООН ведется обсуждение возможности ограничения или даже запрета подобного вооружения по этическим и прочим причинам. Однако процесс идет настолько медленно, что еще до принятия вышеупомянутого решения оружие с ИИ может появиться не у одной армии мира.
Информация