Штучний інтелект загрожує ядерній безпеці світу: аналіз
Алгоритми можуть спровокувати випадкову ядерну війну
Штучний інтелект стрімко інтегрується в оборонні системи, проте його роль у ядерному стримуванні викликає серйозне занепокоєння експертів. Як повідомляє «Главком» із посиланням на впливовий журнал Foreign Affairs, технології генерації контенту та автоматизованого аналізу даних можуть стати каталізатором ненавмисного ядерного конфлікту через ризик створення дезінформації та помилкових сигналів тривоги.
Головна небезпека полягає в здатності ШІ вводити в оману осіб, які приймають стратегічні рішення. Сучасні алгоритми вже мають потенціал для маніпулювання вищим військовим керівництвом, створюючи видимість атаки там, де її насправді немає.
Видання нагадує про історичний інцидент 1983 року, коли радянський офіцер Станіслав Петров зміг розпізнати помилкове спрацьовування системи попередження про ракетний напад. У світі, де рішення аналізуються штучним інтелектом, критично важливий «людський фактор» може бути нівельований швидкістю обробки фальшивих даних.
Сьогодні технологія дипфейків дозволяє створювати настільки реалістичні відео та аудіо звернення світових лідерів, що вони здатні паралізувати дипломатичні канали зв'язку. Вже фіксувалися випадки створення фейкових роликів з президентами України та Росії, спрямованих на дестабілізацію ситуації.
У критичній ситуації підроблене повідомлення про капітуляцію або наказ про запуск ракет може спровокувати реальний удар у відповідь до того, як інформація буде верифікована.
Попри те, що США та Китай вже досягли попередніх домовленостей про збереження виключно людського контролю над ядерною «кнопкою», технічна інтеграція ШІ в системи раннього попередження триває. Основною вразливістю залишається схильність алгоритмів до «галюцинацій» – генерування помилкових висновків на основі неповних або спотворених даних.
Аналітики наголошують: у минулому лише прямий діалог та дипломатія запобігали катастрофам. Сьогодні ж швидкість роботи ШІ може залишити на дипломатію лічені секунди, перетворюючи помилку коду на глобальну загрозу.
До слова, чат-бот Grok, створений компанією xAI Ілона Маска, очолив грудневий рейтинг надійності штучного інтелекту за 2025 рік. Згідно з дослідженням аналітичної компанії Relum, ця модель продемонструвала найнижчий рівень «галюцинацій», тоді як популярні сервіси від Google та OpenAI показали значно гірші результати.