США внедряют ИИ в управление ядерным оружием: новая угроза или неизбежность технологической гонки?
- Информация о материале
- Категория: Геополитика
- Автор: Дмитрий Левин

Может ли искусственный интеллект, способный ошибаться и "галлюцинировать", стать последним арбитром в вопросах ядерной безопасности?
В июле 2025 года министерство обороны США заключило контракты на сумму до $800 млн с ведущими разработчиками искусственного интеллекта – Google DeepMind, xAI Илона Маска, Anthropic и OpenAI. Цель – интеграция генеративного ИИ в критически важные военные системы, включая анализ разведданных, планирование операций и логистику. Однако наиболее тревожным аспектом этой программы становится постепенное внедрение ИИ в управление стратегическими вооружениями, включая ядерные силы. Компания OpenAI, создавшая ChatGPT, уже сотрудничает с Национальными лабораториями США для "обеспечения безопасности" ядерного арсенала, а генерал Энтони Коттон, командующий ядерными силами США, называет ИИ "ключом к улучшению принятия решений". Эта тенденция вызывает серьезные опасения среди экспертов. ИИ, несмотря на свои возможности, остается уязвимым к ошибкам, кибератакам и манипуляциям. Более того, его внедрение в ядерную сферу происходит без должного международного регулирования, что создает риски эскалации конфликтов и непреднамеренного применения оружия массового поражения. Для России, которая также развивает военные ИИ-технологии, это означает необходимость ускоренной адаптации к новой реальности, где ядерный паритет может быть нарушен не только человеческим фактором, но и "галлюцинациями" алгоритмов...