Искусственный интеллект к 2040 году может подорвать ядерную стабильность и нивелировать стратегию ядерного сдерживания.

К такому выводу пришли эксперты по искусственному интеллекту и ядерной безопасности, опрошенные исследователями американского Центра стратегических исследований RAND Corporation. По мнению некоторых экспертов, дисбаланс не потребует даже включения искусственного интеллекта в ядерное оружие; само его существование может спровоцировать члена ядерного клуба нанести удар первым.

Власти государств — членов ядерного клуба считают, что они имеют ядерное оружие в качестве гарантии безопасности. Считается, что наличие такого оружия защищает от нападения со стороны других стран, которые могут опасаться ядерного удара по их территории. Это описывается стратегией ядерного сдерживания. Существует также понятие ядерного паритета (или ядерной стабильности), согласно которому ядерные державы вряд ли будут наносить удары друг по другу из страха взаимного уничтожения.

Естественно, концепции ядерной стабильности и ядерного сдерживания более сложны и носят скорее спекулятивный характер, поскольку реальных военных конфликтов с применением ядерного оружия в мире не было со времени бомбардировок японских городов Хиросима и Нагасаки (вскоре после бомбардировок японское правительство капитулировало). Описанные концепции усложняются гибридной войной, разработкой высокоточного ядерного оружия, формированием ядерной триады (баллистических ракет, подводных лодок с баллистическими ракетами и бомбардировщиками) и созданием новых систем противоракетной обороны.

Эксперты, опрошенные исследователями RAND Corporation, разделились на несколько лагерей. Умеренные предполагали, что искусственный интеллект только улучшит существующие системы ядерного оружия, но не повлияет на стратегию ядерного сдерживания и ядерный паритет. В то же время они пришли к выводу, что к 2040 году сбор и обработка разведывательных данных о подготовке противника к применению ядерного оружия, а также приоритизация целей противника по-прежнему будут серьезной проблемой для искусственного интеллекта.

В свою очередь, паникеры говорят, что искусственный интеллект в любом случае представляет опасность для ядерной стабильности. По мнению этого лагеря экспертов, одна из ядерных держав просто решит (правда это или нет), что искусственный интеллект в системах защиты противника может свести на нет ответный удар в случае ядерного конфликта, чтобы эта держава отказалась от тактики второго удара и переключилась на стратегию упреждающего удара, попутно начав наращивать ядерный Арсенал.

Другая группа экспертов заявила, что искусственный интеллект в системах ядерного оружия может применяться и что он может как укреплять ядерную стабильность, так и разрушать ее. С одной стороны, страны, обладающие «умным» ядерным оружием и системами защиты, могут решить, что применение такого оружия приведет к гарантированному взаимному уничтожению. Это может оказаться сдерживающим фактором. С другой стороны,» умные » системы могут дать правительствам ощущение технологического превосходства, гарантирующего победу в возможной войне. В этом случае ядерная война станет более реальной.

В то же время все опрошенные Корпорацией RAND эксперты пришли к выводу, что к 2040 году ни одна из стран-членов ядерного клуба не сможет создать машину Судного дня с искусственным интеллектом. Гипотетическая машина Судного дня рассматривается теоретиками как некая боевая система, способная инициировать ответный ядерный удар, даже если все руководство страны будет уничтожено ядерным ударом противника. Такая машина обычно рассматривается как часть стратегии гарантированного взаимного уничтожения.

В июле 2015 года Илон Маск, Стивен Хокинг, Ноам Хомский, Стив Возняк и многие другие ученые, бизнесмены, знаменитости, исследователи и эксперты в области робототехники и искусственного интеллекта подписали открытое письмо с предупреждением производителям оружия о создании боевых систем с искусственным интеллектом. В письме говорится, что до создания полностью автономных боевых систем, способных самостоятельно принимать решение об открытии огня, было всего несколько лет.

В то же время авторы текста опасаются, что если кто-то начнет углубленное производство автономных боевых систем, то новой эры гонки вооружений не избежать. «Когда такие устройства появятся на черном рынке, это лишь вопрос времени — они попадут в руки террористов, диктаторов, желающих лучше контролировать своих людей, полевых командиров, которые используют их для этнических чисток и так далее. Автономное оружие идеально подходит для убийств, уничтожения Наций, подавления восстаний и этнических чисток.»

Материалы по теме:

С чего начинается сайт
С чего начинается сайт Для создания даже самого примитивного сайта нам не обойтись без HTML. Рассмотрим основные HTML-теги и их значение. ...
Решаем широкий спектр задач с помощью сервера
Спектр задач с помощью сервера Серверное оборудование стало одним из необходимых для нормального функционирования разных организаций и реализации бизнес-процессов разного уровня. По ...
Работа и кризис
Работа и кризис Правила поиска работы и написания резюме в период экономического спада немного все-таки отличаются от правил, которые распространены в ...
Как действовать при использовании стратегий торговли бинарными опционами на 15 минут?
Торговля опционами В сети с легкостью можно найти множество статей на тему бинарных опционов (о том, что такие бинарные опционы читайте ...
Тонкие световые панели Фреймлайт
Фреймлайт Фреймлайт является рекламно-информационной панелью, в которой постер закрепляется контурным профилем из алюминия. Тонкие световые панели фреймлайт предопределены для быстрой смены информации ...