image 3

Серьезная опасность использования военными систем искусственного интеллекта заключается в его участии при принятии решения о нанесении ядерного удара. Об этом пишет издание Breaking Defense со ссылкой на бывшего заместители министра обороны США Роберта Уорка. 

По его словам, системы искусственного интеллекта не должны участвовать в контроле ядерного вооружения, поскольку они запускаются по определенным параметрам и показателям. В некоторых ситуациях искусственный интеллект может расценить неопасные факторы как представляющие угрозу, и это является "тревожной перспективой".

В частности, приводится в пример российская система "Периметр", которая может принять сейсмическую активность за ядерные взрывы, после чего направит запрос в штаб войск, и если вдруг не получит ответа, может отдать команду на запуск межконтинентальных баллистических ракет.

Кроме того, Уорк добавил, что военное применение искусственного интеллекта может привести к плачевным последствиям и без его прямого участия в управлении ядерным оружием. В частности, такой сферой может быть его использование при анализе разведывательных данных, а также в системах раннего предупреждения.

"Представьте, система искусственного интеллекта в командном центре китайских войск, проанализировав оперативные данные, заявляет, что США готовятся нанести удар по Китаю и рекомендует нанести превентивный удар", — сказал Уорк.

Тем не менее, он отмечает, что искусственный интеллект несомненно может принести пользу для военных, однако его применение должно быть ограничено, и не должно распространяться на ядерное вооружение, поскольку это может привести к "катастрофическому сценарию".

Источник: РИА Новости

А также читайте: