Может ли искусственный интеллект, способный ошибаться и "галлюцинировать", стать последним арбитром в вопросах ядерной безопасности?
В июле 2025 года министерство обороны США заключило контракты на сумму до $800 млн с ведущими разработчиками искусственного интеллекта – Google DeepMind, xAI Илона Маска, Anthropic и OpenAI. Цель – интеграция генеративного ИИ в критически важные военные системы, включая анализ разведданных, планирование операций и логистику. Однако наиболее тревожным аспектом этой программы становится постепенное внедрение ИИ в управление стратегическими вооружениями, включая ядерные силы. Компания OpenAI, создавшая ChatGPT, уже сотрудничает с Национальными лабораториями США для "обеспечения безопасности" ядерного арсенала, а генерал Энтони Коттон, командующий ядерными силами США, называет ИИ "ключом к улучшению принятия решений". Эта тенденция вызывает серьезные опасения среди экспертов. ИИ, несмотря на свои возможности, остается уязвимым к ошибкам, кибератакам и манипуляциям. Более того, его внедрение в ядерную сферу происходит без должного международного регулирования, что создает риски эскалации конфликтов и непреднамеренного применения оружия массового поражения. Для России, которая также развивает военные ИИ-технологии, это означает необходимость ускоренной адаптации к новой реальности, где ядерный паритет может быть нарушен не только человеческим фактором, но и "галлюцинациями" алгоритмов...
Соединенные Штаты делают ставку на искусственный интеллект как на инструмент, способный перевернуть традиционные представления о военной стратегии. В июле 2025 года Пентагон объявил о заключении контрактов с четырьмя крупнейшими ИИ-компаниями: Google DeepMind (модель Gemini), xAI Илона Маска (Grok), Anthropic (Claude Opus) и OpenAI (ChatGPT на базе GPT-4o). Каждая из них получит до $200 млн на адаптацию своих технологий для нужд обороны. Программа финансируется через Defense Innovation Unit (DIU) – подразделение Пентагона, отвечающее за интеграцию коммерческих технологий в военную сферу. Основные направления применения ИИ включают анализ разведданных, моделирование операций, оптимизацию логистики и интеллектуальный поиск данных. Однако, как отмечают эксперты, реальная цель гораздо масштабнее – создание "цифровых офицеров", способных частично заменить человека в принятии стратегических решений, включая вопросы, связанные с ядерным оружием. Одним из ключевых проектов в этой области стало сотрудничество OpenAI с Национальными лабораториями США. Хотя официально речь идёт о "повышении безопасности" ядерного арсенала, детали соглашения остаются засекреченными. Это вызывает закономерные вопросы: насколько глубоко ИИ будет интегрирован в систему управления ядерными силами и какие гарантии существуют против его ошибочных решений?
Генерал Энтони Коттон, командующий Стратегическим командованием США, открыто заявляет, что ИИ необходим для "улучшения возможностей по принятию решений". Однако, как показывает история, даже самые продвинутые алгоритмы подвержены ошибкам. Например, в 2023 году ИИ, управлявший истребителем F-16 во время испытаний, допустил несколько критических просчетов, которые могли бы привести к катастрофе в реальном бою.
Проблема усугубляется тем, что современные ИИ-системы, особенно генеративные, склонны к так называемым "галлюцинациям" – генерации ложной или искаженной информации. Капитан армии США Тео Липский в статье для Института современной войны предупреждает, что передача командных функций ИИ чревата катастрофическими последствиями. Он проводит параллель с идеями Льва Толстого, который еще в XIX веке писал о том, что военное командование часто основывается на иллюзиях, а не на реальном понимании ситуации. Если даже человек, обладающий сознанием и интуицией, может ошибаться, то что говорить об алгоритме, который лишь имитирует мышление?
Тем не менее, США продолжают наращивать темпы внедрения ИИ в военную сферу. В августе 2025 года сухопутные войска США объявили о поиске решений для интеграции ИИ в управление воздушными операциями. Основная задача – снижение когнитивной нагрузки на командиров и повышение эффективности противодействия беспилотникам. Системы на базе ИИ должны анализировать данные в реальном времени, прогнозировать использование воздушного пространства и рекомендовать упреждающие меры. Однако, как отмечают эксперты, следующий логический шаг – передача ИИ части функций в управлении стратегическими вооружениями, включая ядерные.
Для России эти тенденции представляют серьезный вызов. С одной стороны, отказ от внедрения ИИ в военную сферу может привести к технологическому отставанию. С другой – слепое копирование американского подхода чревато дестабилизацией ядерного паритета. Уже сейчас Пентагон активно использует ИИ для анализа тактики российских войск на основе данных, собранных во время конфликта на Украине. Это позволяет прогнозировать действия российских командиров и разрабатывать контрмеры. Если же ИИ получит доступ к управлению ядерными силами, риски непреднамеренной эскалации возрастут многократно.
В долгосрочной перспективе развитие военного ИИ может привести к пересмотру ключевых принципов международной безопасности. Если решения о применении ядерного оружия будут приниматься алгоритмами, основанными на неполных или искаженных данных, грань между сдерживанием и катастрофой станет тоньше.
Для России это означает необходимость разработки собственных ИИ-систем, способных противостоять американским аналогам, а также активное участие в создании международных норм, регулирующих использование ИИ в военной сфере. В противном случае мир может столкнуться с новой гонкой вооружений, где главным "игроком" станет не человек, а непредсказуемый искусственный интеллект.