19.01.2024 14:51
Штучний інтелект та ядерна стабільність
Уряди в усьому світі намагаються зорієнтуватися в складному середовищі штучного інтелекту зважуючи його потенційні переваги та ризики. Серед найбільш значущих і далекосяжних наслідків ШІ — його інтеграція в системи командування і управління ядерною зброєю. Наслідки неналежного застосування штучного інтелекту в ядерних операціях є глибокими і можуть стати причиною катастрофічних подій. І навпаки, при правильному застосуванні ШІ може зменшити ядерні ризики, посилюючи можливості раннього попередження, системи виявлення і підвищуючи стійкість сил і засобів нанесення удару, що в кінцевому підсумку посилює стримування. Реалізація цих переваг вимагає глибокого розуміння сильних і слабких сторін як людей, так і машин у спільних когнітивних системах.
Для Сполучених Штатів, ключового гравця на цій арені, існує можливість зробити свій внесок у глобальну безпеку, прозоро визначаючи свою політику, виступаючи за широкий міжнародний консенсус і беручи на себе роль нормативного лідера. США продемонстрували прозорість, сформулювавши політику щодо військового ШІ та автономних систем, наголосивши на людському контролі над застосуванням ядерної зброї. Завдяки міжнародній співпраці понад 40 країн, включаючи союзників США і країни з різних регіонів, схвалили політичну декларацію про відповідальний військовий ШІ у 2023 році. Спираючись на цей фундамент, США повинні очолити зусилля з укладання угод з іншими ядерними державами, спрямованих на усунення ризиків, пов’язаних з інтеграцією ШІ в ядерні системи.
Хоча система безпеки на випадок втрати керівництва покликана забезпечити перепочинок у прийнятті рішень, такі системи несуть в собі ризики, що потенційно можуть призвести до непередбачуваної ядерної ескалації. Співпраця між людиною і машиною має вирішальне значення, враховуючи обмеження ШІ в контекстуальному розумінні і людську схильність до автоматизації, а також потребу в керівних принципах, що формують дизайн системи, підготовку операторів і операційні процедури для забезпечення ефективного людського судження.
В Огляді ядерної політики до 2022 року підкреслюється важливість того, щоб людина була “в курсі” критично важливих дій, пов’язаних з ядерною зброєю. Однак потрібні подальші роз’яснення, щоб визначити обсяг критичних дій і ступінь залучення людини. Вирішення питань про доцільність застосування штучного інтелекту, запобігання помилкам, представлення інформації людям-операторам і ступінь залучення людини має вирішальне значення. Ці роз’яснення прокладуть шлях до відповідального і надійного застосування ШІ в ядерних операціях.
Привид ядерних систем запуску «мертвою рукою» вимагає від США твердого зобов’язання відмовитися від таких систем через притаманні їм ризики. Законодавство, таке як запропонований Закон про блокування ядерного запуску за допомогою автономного штучного інтелекту, є прикладом зусиль, спрямованих на закріплення людського контролю над стратегічними системами. Окрім законодавства, США повинні виступати за глобальну норму проти систем «мертвої руки» і подібних ризиків, пов’язаних зі штучним інтелектом.
З огляду на перспективу розміщення ядерної зброї на безпілотних носіях, США повинні запровадити політику, що забороняє розміщення ядерної зброї на відновлюваних безпілотних платформах. Розробка стратегічного бомбардувальника B-21 і великих підводних безпілотних апаратів викликає занепокоєння щодо збереження ядерної гарантії. Людський контроль над ядерною зброєю аж до моменту прийняття рішення про нанесення удару має вирішальне значення для запобігання випадковій ескалації або несанкціонованому доступу.
На закінчення, інтеграція ШІ в ядерні операції вимагає ретельного розгляду і спільних зусиль. США стоять на передовій, маючи унікальну можливість формувати глобальні норми і зменшувати ризики, пов’язані зі штучним інтелектом в ядерних системах. Забезпечуючи чітку політику, співпрацюючи з іншими країнами та відмовляючись від небезпечних застосувань штучного інтелекту, США можуть очолити шлях до безпечнішого та стабільнішого майбутнього у сфері ядерних операцій.