Польща просить Єврокомісію покарати TikTok через відео, згенеровані штучним інтелектом

За словами заступника міністра цифровізації, контент становить загрозу громадському порядку, інформаційній безпеці та цілісності Польщі
фото: East News

Польські урядовці стверджують, що TikTok не запровадив належних механізмів для модерації контенту, створеного штучним інтелектом

Заступник міністра цифровізації Польщі Даріуш Стандерський закликав Єврокомісію розпочати провадження проти TikTok через масове поширення контенту, створеного штучним інтелектом, із закликами до виходу країни з ЄС. Про це повідомляє «Главком» з посиланням на заяву урядовця.

За словами Стандерського, відео, які поширюються у польському сегменті платформи, мають характеристики скоординованої кампанії з дезінформації. Він наголосив, що цей контент становить загрозу громадському порядку, інформаційній безпеці та цілісності демократичних процесів у Польщі та ЄС.

«Наявна інформація свідчить про те, що TikTok не запровадив належних механізмів для модерації контенту, створеного штучним інтелектом, а також не забезпечив ефективних заходів прозорості щодо походження таких матеріалів, що підриває цілі Закону про цифрові послуги (DSA) щодо запобігання дезінформації та захисту користувачів», – заявив він.

Польська сторона пропонує Європейській комісії зобовʼязати TikTok надати детальний звіт про масштаби та характер поширеного контенту, його охоплення та вжиті заходи для видалення та запобігання подальшому поширенню, а також розглянути можливість застосування тимчасових заходів, спрямованих на обмеження поширення подібного контенту.

Речник польського уряду Адам Шлапка заявив, що поширені ролики є російською дезінформацією. Він зазначив, що ця кампанія «абсолютно несумісна з інтересами Польщі, і на 100 відсотків відповідає російським інтересам».

До слова, штучний інтелект стрімко інтегрується в оборонні системи, проте його роль у ядерному стримуванні викликає серйозне занепокоєння експертів. Як повідомляє «Главком» із посиланням на впливовий журнал Foreign Affairs, технології генерації контенту та автоматизованого аналізу даних можуть стати каталізатором ненавмисного ядерного конфлікту через ризик створення дезінформації та помилкових сигналів тривоги.

Головна небезпека полягає в здатності ШІ вводити в оману осіб, які приймають стратегічні рішення. Сучасні алгоритми вже мають потенціал для маніпулювання вищим військовим керівництвом, створюючи видимість атаки там, де її насправді немає.