Котики під завалами: як штучний інтелект ввів в оману українців
Деякі користувачі стверджували, що тварини постраждали через російські атаки на Україну: так, створені нейромережею світлини поширили нардепки
Користувачі соціальних мереж поширюють фотографії, на яких нібито зображено двох котів у паніці під завалами. Однак зображення було створено штучним інтелектом. Цікаво, що на ілюстрації тварини зображені нібито в Секторі Гази, проте українці стверджують, що світлини справжні й зроблені в Україні.
Так, українці опублікували сотні дописів зі згенерованими світлинами. Мережа співчуває тваринам та акцентує на стражданнях від війни. Такі пости набрали тисячі лайків та сотні поширень.
Деякі стверджували, що зображені на картинці котики постраждали через російські атаки на Україну. Так, народна депутатка від фракції «Європейська солідарність» Софія Федина також запостила згенеровані ШІ світлини, звинувативши окупантів.
Поширення цих фотографій відбулося в той час, коли міністерство охорони здоров’я ХАМАС оголосило, що кількість загиблих від ізраїльських бомбардувань і наземних операцій у Секторі Гази зросла до 27 тис. загиблих, зокрема жінок та дітей. У міністерстві підтвердили, що низка постраждалих досі перебувають під завалами та на дорогах, а «окупація не дає до них дістатися бригадам швидкої допомоги та цивільної оборони».
Фотографії котів у Газі першою поширила в Instagram жінка, яка працює над розробкою зображень у своєму обліковому записі за допомогою програм штучного інтелекту.
Зауважимо, чимало українців розпізнали роботу ШІ.
Під дописами з фейковим зображенням десятки коментарів від свідомих українців.
Між деякими користувачами виникли запеклі дискусії. Так, народна депутатка від «Європейської солідарності» Вікторія Сюмар також повірила в автентичність бідолашних котів.
Деякі українці розуміють глобальність проблеми та вбачають у цьому неабиякі наслідки. Адже межа між реальним та віртуальним дедалі більше розмивається.
Штучний інтелект стирає межу між реальністю та вигадкою. Створені ним зображення дуже важко відрізнити від реальних. Проте все ж таки поки що це можливо.
Ще ніколи не було так просто втілювати фантазії. Для цього потрібен лише доступ до інтернету та інструментів штучного інтелекту (ШІ). Нейромережі за лічені секунди згенерують фотореалістичну картинку або створять оригінальне зображення, причому високої якості.
Нейромережа здатна самостійно робити абсолютно новий контент або трансформувати вже наявний: змінювати кольори, форму і розташування предметів на картинці, додавати нові елементи та видаляти непотрібні, перемальовувати зображення в іншому стилі, жанрі тощо.
Послуги штучного інтелекту майже нічого не коштують, а іноді вони і взагалі безплатні. Саме тому сьогодні в соцмережах так багато різних зображень, які миттєво розповсюджуються по всьому світу. Бізнесменам, маркетологам, дизайнерам, копірайтерам та багатьом іншим нейромережі справді полегшують працю та звільняють час. Але водночас ШІ почали все частіше стали використовувати на шкоду людині, для пропаганди та дезінформації.
Упродовж кількох останніх місяців в інтернеті все частіше з'являються фотографії, створені за допомогою штучного інтелекту або ним самим. Усі ці знімки виглядають дуже правдоподібними, якщо говорити про їхнє технічне виконання. При цьому на них – події, яких насправді не було. Це говорить про те, що все більш досконалі алгоритми та нейронні мережі вже зараз здатні стерти межу між реальністю та вигадкою. Фотографії більшості видовищних подій на кшталт автомобільних перегонів або космічних польотів, а також арештів знаменитостей користувачі можуть досить швидко перевірити. Достатньо звернутися до авторитетних ЗМІ або інших джерел у мережі, що заслуговують на довіру.
Найбільш проблематичними та небезпечними з погляду поширення дезінформації є картинки, у яких зображені менш відомі люди. Однак нині можна відрізнити справжні фотографії від штучно створених. Адже так само як і людині, ШІ властиво помилятися. Як виявити маніпуляцію?
1. Масштаб та деталі
Багато зображень, створених ШІ, на перший погляд, дуже реальні. Розпізнати підробку можна лише під час розгляду зблизька. Для цього знайдіть версії знімка з максимально можливою роздільною здатністю та збільште деталі. Тоді і стане видно можливі невідповідності, нестикування ліній та тіней, помилки кольору, клони зображення тощо.
2. Джерело зображення
Якщо ви не впевнені, чи є зображення реальним, спробуйте більше дізнатися про його походження. Наприклад, іноді інші користувачі діляться своїми думками у коментарях, і завдяки цьому можна вийти на джерело або першу публікацію картинки. Може допомогти й зворотний пошук зображення. Для цього завантажте зображення в такі інструменти, як зворотний пошук зображень Google або TinEye. У результаті часто знаходиться додаткова інформація про знімок, а іноді – і його походження. Можливо, авторитетні джерела вже здійснили фактчекінг, і тоді пошуковик видасть роз'яснення у результатах пошуку.
3. Пропорції тіла
Чи правильні пропорції тіла зображених людей? Саме в цьому пункті ШІ часто робить помилки: згенеровані руки можуть бути занадто маленькими, а пальці – занадто довгими. Або голова та ноги не відповідають решті тіла. Наприклад, на фейковій фотографії Путіна і Сі Цзіньпіна задній черевик російського президента надто великий і широкий. Литка тієї ж ноги здається подовженою. Та й голова при уважному розгляді надто велика і непропорційна щодо тіла.
4. Типові помилки ШІ
На цей час деякі програми обробки зображень з ШІ ніяк не навчаться правильно зображати частини тіла людини, особливо руки. Часто вони малюють шостий палець. Або забирають п'ятий. Як, наприклад, у поліцейського зліва від Путіна, на згенерованому зображенні з його «арештом». Та сама помилка і на знімку Папи Франциска в білому пуховику – на його лівій руці в білій рукавичці лише чотири пальці, а на знімку без рукавички пальці непропорційно довгі.
Дуже часто у «підроблених людей» буває надто багато зубів. Або дивної форми вуха та очі. Окуляри, які люблять одягати людям ШІ, як правило, деформовані й неприродно сидять. Відображення, такі як вікна, забрала шоломів тощо, теж створюють проблеми програмам ШІ і полегшують їхнє викриття.
5. Чи не здається зображення неприродним?
Часто картинки ШІ надто ідеальні, щоб бути правдою. Довіртеся своїй інтуїції: чи може таке бездоганне з естетичного погляду зображення бути реальним? Якщо говорити про портретні фотографії, то підозру може викликати занадто гладка шкіра людини, занадто рівні й гармонійні пропорції обличчя, бездоганні зуби та волосся. Слід уважніше придивитися до фотографій, ідеального художнього вигляду яких важко досягти навіть професійним фотографам при зйомці у студії та подальшій обробці зображення. ШІ створює ідеали, які мають сподобатися всім.
6. Тло зображення
На тлі об'єкти можуть відображатися спотвореними, наприклад, ліхтарі. Часто буває, що програми ШІ клонують людей та предмети, використовуючи їх на одному знімку двічі. Крім того, тло нерідко буває розмитим.
Нагадаємо, пропагандисти Путіна залучили штучний інтелект до розповсюдження брехні. Проте нейромережа обдурила російського пропагандиста, який хотів висміяти Байдена (фото).
Крім того, штучний інтелект показав, який вигляд міг би мати Путін у 2030 році (фото).
Раніше повідомлялося, що до ЗСУ «мобілізують» штучний інтелект. Це дозволить скоротити використання боєприпасів.