ChatGPT став «скарбницею» доказів у кримінальних розслідуваннях США
Розмови зі штучним інтелектом не мають захисту, як професійна таємниця лікаря, адвоката чи терапевта, тому поліція активно їх вивчає
Правоохоронні органи у США все частіше використовують історію розмов із чат-ботами як ключові докази у кримінальних розслідуваннях. Про це повідомляє «Главком» із посиланням на CNN.
Нещодавня справа вбивства двох аспірантів у Флориді продемонструвала, як запити підозрюваного щодо способів приховування тіла в сміттєвих пакетах та гучності пострілів допомогли слідству встановити його мотиви. Подібні прецеденти вже мали місце у справах про підпали в Каліфорнії та вбивства у Вірджинії, де цифрові сліди в ШІ-сервісах стали для детективів джерелом прямої інформації про наміри зловмисників.
Експерти з кібербезпеки та права наголошують, що користувачі помилково сприймають чат-боти як приватний простір, ставлячи їм запитання, які ніколи б не довірили пошуковим системам. Проте юридично розмови зі штучним інтелектом не мають такого ж захисту, як професійна таємниця лікаря, адвоката чи терапевта. У судовому процесі ці дані прирівнюються до звичайних електронних доказів, таких як історія пошуку в Google або транзакції за кредитними картками, що зобов'язує розробників надавати їх на офіційну вимогу влади.
Генеральний директор OpenAI Сем Альтман визнає відсутність правових механізмів конфіденційності значною проблемою, оскільки люди дедалі частіше використовують ШІ для обговорення найінтимніших аспектів життя. Водночас компанія підкреслює своє зобов'язання сприяти громадській безпеці, що іноді йде врозріз із приватністю. З огляду на зростаючу кількість позовів та кримінальних розслідувань, де фігурує ChatGPT, юристи радять пам'ятати, що нейромережа не є довіреною особою, і будь-яка внесена інформація може зрештою опинитися в залі суду.
Як відомо, сім родин жертв стрілянини в школі канадського міста Тамблер-Рідж подали позов проти компанії OpenAI та її генерального директора Сема Альтмана.
Позивачі заявляють, що компанія та її керівництво проявили недбалість, оскільки не повідомили поліцію про підозрілу активність підозрюваної у сервісі ChatGPT.
Нагадаємо, компанія OpenAI, розробник ChatGPT, повідомила, що ще у червні 2025 року ідентифікувала та заблокувала обліковий запис Джессі Ван Рутселара, яка влаштувала масову стрілянину в школі містечка Тамблер-Рідж (Британська Колумбія). Попри те, що алгоритми компанії виявили контент, який «сприяє насильницькій діяльності», тоді OpenAI вирішила не звертатися до поліції, оскільки не побачила ознак «неминучої загрози».