Бывший заместитель министра обороны США Роберт Уорк заявил, что внедрение ИИ в системы ядерного вооружения может привести к катастрофе.
Из-за участия искусственного интеллекта в использовании ядерного оружия есть вероятность возникновения серьезной опасности. В некоторых ситуациях искусственный интеллект может расценить безвредные факторы как представляющие угрозу, и это является "тревожной перспективой".
В качестве примера Уорк привел российскую систему "Периметр". Она способна принять сейсмическую активность за ядерные взрывы, после чего может направить запрос в штаб войск, и, если вдруг не получит ответа, отдаст команду на запуск межконтинентальных баллистических ракет.
По словам бывшего замминистра минобороны США, применение искусственного интеллекта в военных целях может привести к плачевным последствиям и без его прямого участия в управлении ядерным оружием. Например, опасность может быть при анализе разведывательных данных, а также в системах раннего предупреждения. Об этом пишет издание Breaking Defense.
Однако "катастрофический сценарий" можно предотвратить, если применение искусственного интеллекта будет ограниченно и не распространится на ядерное вооружение.