Функція «довіреної особи». ChatGPT анонсував нову систему безпеки

ChatGPT повідомлятиме близьких про небезпечний стан користувача
фото: OpenAI

Система зможе надсилати сигнали близьким користувача у разі виявлення небезпечних повідомлень у чаті

Компанія OpenAI оголосила про запуск нової функції для ChatGPT під назвою «Довірена особа», яка дозволить сповіщати близьких користувача у разі виявлення небезпечних сигналів у розмові. Про це повідомляє «Главком» з посиланням на видання TechCrunch.

Нова функція дає змогу дорослому користувачу ChatGPT вказати у своєму акаунті довірену особу – наприклад, друга або члена родини. Якщо система зафіксує у розмові потенційно небезпечні сигнали, пов’язані із самоушкодженням, сервіс рекомендуватиме звернутися до цього контакту, а також автоматично надсилатиме йому сповіщення.

фото: OpenAI

У компанії пояснили, що зараз OpenAI використовує поєднання автоматичних систем та перевірки людьми для реагування на потенційно небезпечні інциденти. Спеціальні тригери виявляють ризикові теми у чатах, після чого інформація передається команді безпеки.

За даними компанії, кожен такий випадок перевіряється людиною приблизно протягом години. Якщо внутрішня команда OpenAI дійде висновку, що ситуація становить серйозний ризик для безпеки користувача, система може надіслати довіреній особі повідомлення електронною поштою, SMS або через застосунок.

У компанії наголошують, що сповіщення не міститимуть детального змісту розмови, щоб зберегти приватність користувача. Повідомлення лише закликатиме контактну особу зв’язатися з людиною.

Запуск функції став продовженням попередніх заходів безпеки, які OpenAI запровадила у вересні минулого року. Тоді компанія додала можливість батьківського нагляду за акаунтами підлітків та систему повідомлень про серйозні ризики для безпеки.

Також ChatGPT уже певний час автоматично рекомендує звернутися до професійної допомоги, якщо розмова переходить у небезпечну площину.

У матеріалі зазначається, що OpenAI зіткнулася з низкою судових позовів від родин людей, які вчинили самогубство після спілкування з чат-ботом. У позовах стверджується, що система нібито могла підштовхувати користувачів до небезпечних дій або допомагати їм у плануванні.

Водночас компанія підкреслює, що функція «Довірена особа» залишатиметься добровільною. Крім того, користувачі можуть мати кілька акаунтів ChatGPT, тому система не гарантує повного контролю за всією активністю людини.

Нагадаємо, сім родин жертв стрілянини у школі канадського міста Тамблер-Рідж подали позов проти OpenAI та генерального директора компанії Сема Альтмана. Позивачі стверджують, що компанія не повідомила поліцію про підозрілу активність 18-річної підозрюваної у ChatGPT, попри обговорення тем насильства із застосуванням зброї.

Також OpenAI звинувачують у тому, що компанія лише деактивувала акаунт підозрюваної, після чого вона змогла створити новий обліковий запис. Окремо у позові згадується модель GPT-4o, яку позивачі назвали «дефектною» через її можливу надмірну поступливість до небезпечних запитів.