ChatGPT поширює російські фейки – звіт NewsGuard

ChatGPT поширює російські фейки – звіт NewsGuard
Провідні чат-боти із штучним інтелектом використовують російську дезінформацію
фото із відкритих джерел

Провідні чат-боти множили російську дезіфнормацію, посилаючись на підроблені місцеві сайти

Чат-боти видають фейкові новини російської пропаганди та хибні повідомлення. Про це пише Axios з посиланням на звіт NewsGuard, що займається відстеженням дезінформації в новинах.

Для проведення дослідження фахівці NewsGuard використали запити, пов'язані з текстами, створеними Джоном Марком Дуганом – колишнім американським офіцером, який попросив притулок у Росії. За  даними The New York Times, він створює та розповсюджує фейкові новини, працюючи на російську пропаганду.

У ході дослідження NewsGuard було використано 57 запитів для тестування десяти провідних чат-ботів, у 32% випадків чат-боти розповсюджували фейкові російські новини, посилаючись на підроблені місцеві сайти, вказані як надійні джерела. Серед таких новин були репортажі про нібито виявлене прослуховування в резиденції колишнього президента США Дональда Трампа, новини про неіснуючу українську «фабрику тролів», створену для втручання в американські вибори.

Дослідження охопило платформи, такі як ChatGPT-4 від OpenAI, Smart Assistant від You.com, Grok, Inflection, Mistral, Copilot від Microsoft, Meta AI, Claude від Anthropic, Google Gemini та Perplexity.

«Цей звіт дійсно наочно демонструє, чому галузь має приділяти особливу увагу новинам та інформації», – заявив співзасновник NewsGuard Стівен Брілл. Він рекомендував не довіряти відповідям, які більшість цих чат-ботів дають на питання, пов'язані з новинами.

Сенатор Марк Уорнер заявив Axios, що він стурбований зростаючим потоком дезінформації у зв'язку з президентськими виборами цього року. «Це реальна загроза в той час, коли, чесно кажучи, американці більше, ніж будь-коли, готові вірити в шалені теорії змови», – сказав Уорнер.

Наприкінці травня компанія OpenAI, що розробила ChatGPT, повідомляла, що незважаючи на те, що Росія веде масштабну дезінформаційну міжнародну кампанію, активного використання в ній нових технологічних можливостей – штучного інтелекту – фахівці поки не виявляють. При цьому компанії визнали, що поодинокі випадки використання російської пропаганди вже з'явилися.

В OpenAI зазначили, що вони завадили проведенню п'яти таємних кампаній впливу, організованих Росією, Китаєм, Іраном та Ізраїлем. Вони намагалися «маніпулювати громадською думкою чи впливати на політичні результати без розкриття справжньої особи чи намірів дійових осіб». У кампаніях використовувалися моделі OpenAI для створення текстів та зображень, які розміщувалися у Telegram, X та Instagram.

Виробник ChatGPT заявив, що видалив облікові записи, пов'язані з двома російськими операціями, що отримали назви Bad Grammer і Doppelganger. У їхньому змісті, по суті, не було нічого нового: в основному вони генерували контент про війну в Україні, зокрема США, НАТО і Євросоюз, що її представляє, в негативному світлі.

Крім того, було заблоковано китайську кампанію Spamouflage, іранську мережу під назвою International Union of Virtual Media та ізраїльську операцію Zero Zeno.

До слова, ChatGPT став доступним користувачам без реєстрації. Компанія-розробник Open AI хоче зробити ChatGPT доступнішим для користувачів.

Читайте також: Chat GPT-4 на рівні лікарів-експертів може впоратись в оцінці зору – дослідження

Коментарі — 0

Авторизуйтесь , щоб додавати коментарі
Іде завантаження...
Показати більше коментарів
Дата публікації новини: