Глава ООН попередив про ризики штучного інтелекту для глобального миру
Гутерреш попросив країни-члени Ради безпеки укласти юридично зобов’язуючий пакт про заборону летальних автономних систем зброї до кінця 2026 року
Штучний інтелект може становити загрозу глобальному миру та безпеці. Про це заявив генеральний секретар ООН Антоніу Гутерреш, закликавши всі країни-члени терміново встановити обмеження, щоб контролювати цю технологію. Про це передає France24.
«Очевидно, що штучний інтелект матиме вплив на кожну сферу нашого життя. Генеративний штучний інтелект має величезний потенціал для добра і зла в масштабах», – сказав Гутерріш.
Генсек додав, що штучний інтелект може мати «дуже серйозні наслідки для глобального миру та безпеки».
Британський міністр закордонних справ Джеймс Клеверлі, чия країна зараз головує в Раді безпеки, сказав, що штучний інтелект «вплине на роботу цієї ради. Він може посилити або порушити глобальну стратегічну стабільність». Міністр зазначив, що уряд Сполученого Королівства пізніше 2023 року прийме саміт зі штучного інтелекту.
Гутерреш попросив країни-члени укласти юридично зобов’язуючий пакт про заборону летальних автономних систем зброї до кінця 2026 року. І попередив, що використання штучного інтелекту терористами або урядами з недобрими намірами може спричинити жахливий рівень смерті та руйнувань.
Крім того, неправильна робота нейромережі може спричинити хаос, особливо якщо ця технологія використовується у зв’язку з системами ядерної зброї чи біотехнологіями.
Нагадаємо, раніше Ілон Маск повідомив, що розробляє штучний інтелект, щоб «зрозуміти справжню природу Всесвіту».
Коментарі — 0