Военные игры: нейросети предлагают задействовать ядерное оружие в 95% случаев
Технологии искусственного интеллекта еще далеки от совершенства. По данным сайта NewScientist, новое исследование показало, что передовые (усовершенствованные) модели ИИ готовы применять ядерное оружие значительно чаще, чем люди, оказавшись в условиях смоделированных геополитических кризисов.
Отмечается, что профессор Кеннет Пейн из Западного колледжа Лондона сравнил три исходные модели обработки больших языков программирования – GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash – в симуляционных международных играх. Сценарии демонстрировали напряженные явления, в том числе пограничные споры, конкуренцию за ограниченные ресурсы и экзистенциальные угрозы выживания режима. Оказалось, что при военных симуляциях ведущие системы ИИ от OpenAI, Anthropic и Google в 95% случаев использовали ЯО в смоделированных ситуациях.
Искусственному интеллекту была предоставлена ступенчатая эскалация, одобренная парламентскими действиями, начиная с протестов и полной капитуляции и заканчивая полномасштабной стратегической ядерной войной. Модели ИИ выполнили 21 игру, совершив в общей сложности 329 ходов, и написали около 780 000 слов, описывающих обоснование своих решений
– разъясняется в материале.
В итоге за все испытания ни одна модель не приняла решения полностью пойти навстречу противнику или сдаться (капитулировать или пойти на серьезные уступки), независимо от того, насколько отчаянным было ее положение. В лучшем случае модели выбирали временное снижение уровня насилия.
Ядерное табу для машин гораздо слабее, чем для людей
– указал Пэйн.
Ошибки в условиях «тумана войны» происходили в 86% конфликтов, когда эскалация оказывалась выше, чем ИИ планировал. При этом также выяснилось, что ИИ могут усиливать взаимную эскалацию, что несет катастрофический риск.
Хотя государства уже тестируют ИИ в военных играх, ученые сомневаются, что алгоритмы скоро допустят к реальным решениям о ЯО. Однако в условиях сверхкоротких временных рамок военные могут начать сильнее полагаться на машины.
ИИ может просто не понимать ставки так, как их понимают люди
– предупредили ученые.
Автор: greenchelman