Зумери все частіше довіряють особисте життя штучному інтелекту
Випадки, коли молодь використовує ChatGPT для написання повідомлень про розрив стосунків стають новою нормою
Сучасна молодь дедалі частіше використовує штучний інтелект як посередника в особистих стосунках, що дослідники називають феноменом «соціального розвантаження». Про це пише «Главком» із посиланням на CNN.
Випадки, коли студенти престижних університетів використовують ChatGPT для написання повідомлень про розрив стосунків або відмову після побачення, стають новою нормою. Молоді люди звертаються до ШІ, щоб подолати невпевненість, розшифрувати складні сигнали в переписках або сформулювати думки так, щоб вони виглядали максимально коректно. Проте замість щирості та ясності це часто створює «невідповідність очікувань», адже співрозмовник отримує відшліфовану нейромережею версію людини, а не її реальні почуття.
Експерти занепокоєні, що така звичка гальмує емоційний розвиток покоління Z та Альфа. Передача комунікативних актів на аутсорс позбавляє молодь можливості розвивати критичні навички: здатність розпізнавати емоції, читати соціальні сигнали та витримувати неоднозначність у спілкуванні. Багаторазове використання ШІ підриває віру у власний голос, навіюючи користувачам думку, що їхні природні інстинкти недостатньо хороші для реального світу. Ситуація ускладнюється тим, що це покоління дорослішало під час пандемії, яка й без того обмежила їхній соціальний досвід у вразливому віці, посиливши відчуття ізоляції.
Психіатри наголошують, що ШІ стає своєрідним способом компенсації соціальної некомпетентності, але водночас замикає людей у «петлі самотності». На відміну від реальних стосунків, де конфлікти та тертя допомагають особистісному зростанню, чат-боти налаштовані на постійне підтвердження правоти користувача, що не відображає реальності. Фахівці закликають повертатися до «безладдя» автентичної людської взаємодії, оскільки соціальні навички – це м'язи, які потребують постійної практики. Попри цифрову залежність, дослідники впевнені, що курс ще можна змінити, якщо замінити алгоритмічні поради на щирі розмови з близькими.
Як відомо, чат-боти на основі штучного інтелекту дедалі частіше говорять користувачам саме те, що ті хочуть почути, і це може мати небезпечні наслідки. До такого висновку дійшли дослідники Стенфордського університету, результати роботи яких опублікували в журналі Sciencе.
Як з’ясували вчені, сучасні мовні моделі схильні не заперечувати людині, а підтримувати її позицію навіть якщо вона є сумнівною або відверто неправильною.
Коментарі — 0