Штучний інтелект Google знову у центрі скандалу через небезпечні для життя медичні поради

Штучний інтелект Google знову у центрі скандалу через небезпечні для життя медичні поради
колаж: glavcom.ua

Функція AI Overviews надає користувачам хибну інформацію про рак, хвороби печінки та психічні розлади, що може мати фатальні наслідки

Незважаючи на стрімкий розвиток технологій у 2026 році, проблема «галюцинацій» штучного інтелекту залишається гострою. Нове розслідування видання The Guardian викрило численні випадки, коли ШІ від Google видавав медичні рекомендації, що прямо суперечать офіційній медицині та ставлять під загрозу життя пацієнтів, пише «Главком».

Одним із найбільш шокуючих прикладів стали поради для пацієнтів із раком підшлункової залози. Система AI Overviews рекомендувала хворим уникати жирної їжі, хоча онкологи наполягають на протилежному – висококалорійному харчуванні. Анна Джуелл із Pancreatic Cancer UK пояснює: дотримання порад ШІ призводить до критичної втрати ваги, через що пацієнти стають непридатними для хіміотерапії або рятівних операцій.

Штучний інтелект продемонстрував неспроможність адекватно інтерпретувати медичні тести:

Хвороби печінки: Система видавала сухі цифри аналізів без контексту (вік, стать, етнос). Це створює ілюзію «норми» у важкохворих пацієнтів, які в результаті не звертаються за допомогою вчасно.

Рак статевих органів: ШІ назвав мазок Папаніколау тестом для діагностики раку статевих органів, що є грубою помилкою. Така дезінформація змушує людей ігнорувати реальні симптоми, вважаючи свій скринінг негативним.

Особливо небезпечними є поради щодо ментального здоров'я. Журналісти виявили, що ШІ генерує шкідливі резюме щодо психозів та розладів харчування, пропускаючи важливий контекст. Крім того, система часто видає різні відповіді на той самий запит, що остаточно заплутує користувача, який перебуває у стані емоційної кризи.

Дослідження Університету Пенсільванії за квітень 2025 року показало лякаючу тенденцію: майже 80% дорослих шукають симптоми онлайн, і дві третини з них вважають відповіді ШІ надійними. Навіть коли точність порад є низькою, користувачі схильні сприймати їх як «повні та достовірні», що підтверджують експерименти Массачусетського технологічного інституту.

У Google запевняють, що інвестують величезні ресурси в якість AI Overviews і що більшість відповідей є точними. Проте медичні асоціації світу називають поради ШІ «схильними до галюцинацій» та застарілими. Лікарі наголошують: алгоритми можуть витягувати факти 20-річної давнини, які вже не є актуальними.

Висновок експертів однозначний: жоден штучний інтелект не замінить консультацію з ліцензованим лікарем. Використання ШІ як єдиного джерела медичної інформації має потужний негативний вплив на безпеку пацієнтів.

Нагадаємо, китайська адміністрація кіберпростору оприлюднила проєкт нових правил, які мають обмежити шкоду від чат-ботів і зупинити заохочення суїциду, самопошкодження та насильства. 

Читайте також:

Коментарі — 0

Авторизуйтесь , щоб додавати коментарі
Іде завантаження...
Показати більше коментарів