Як шахраї використовують ChatGPT: Європол опублікував терміновий звіт
З моменту свого запуску наприкінці листопада ChatGPT став одним із найшвидше зростаючих інтернет-сервісів, перевищивши 100 мільйонів користувачів протягом перших двох місяців
Поліцейська служба Європейського союзу (Європол) опублікувала терміновий звіт, у якому попереджає, що ChatGPT та інші системи зі штучним інтелектом можуть бути використані для онлайн-шахрайства та інших кіберзлочинів, повідомляє Euractiv.
Давайте для початку розберемося, що таке ChatGPT та Open AI
ChatGPT – чат-бот зі штучним інтелектом, розроблений лабораторією OpenAI. Це велика статистична модель мови, оптимізована для ведення діалогів та відлагоджена завдяки технікам навчання з учителем та навчання з підкріпленням. В основі прототипу лежить модель OpenAI GPT-3.5 – покращена версія GPT-3.
Open AI – це лабораторія досліджень штучного інтелекту, що складається з комерційної корпорації OpenAI LP та її материнської компанії, неприбуткової OpenAI Inc. Також, вона важається конкурентом DeepMind, проводить дослідження в галузі штучного інтелекту (ШІ) із заявленою метою просування та розробки дружнього ШІ у такий спосіб, щоби він приносив користь людству в цілому.
Дані великі мовні моделі, які можна використовувати для різних цілей, таких як ChatGPT від Open AI, можуть принести користь бізнесу та окремим користувачам. Однак європейське поліцейське агентство підкреслило, що вони також є проблемою для правоохоронних органів, оскільки зловмисники можуть використовувати їх у своїх цілях.
«Злочинці зазвичай швидко використовують нові технології і швидко вигадали конкретні кримінальні способи експлуатації, представивши перші практичні приклади лише через кілька тижнів після публічного випуску ChatGPT», – йдеться у звіті.
Публікація стала результатом серії семінарів, організованих Інноваційною лабораторією Європолу для обговорення потенційного кримінального використання ChatGPT як найбільш яскравого прикладу великих мовних моделей та того, як ці моделі можуть бути використані для підтримки слідчої роботи.
Агентство ЄС вказує на той факт, що правила модерації ChatGPT можна обійти за допомогою так званої техніки підказок – практики введення даних у модель ШІ саме для отримання певного результату.
Оскільки ChatGPT – нова технологія, тому з оновленнями постійно з'являються лазівки, які можуть попросити ШІ прикинутися вигаданим персонажем або надати відповідь у коді. Інші обхідні шляхи можуть замінювати тригерні слова або змінювати контекст пізніше у процесі взаємодії. Орган ЄС наголосив, що найбільш ефективні обхідні шляхи, що дозволяють звільнити модель від будь-яких обмежень, постійно вдосконалюються та ускладнюються.
Експерти виявили цілу низку незаконних випадків використання ChatGPT, які зберігаються і в найпросунутішій моделі OpenAI – GPT-4 – де потенціал шкідливих реакцій системи в деяких випадках навіть вищий.
Оскільки ChatGPT може генерувати інформацію, придатну для читання, Європол попереджає, що нова технологія може прискорити процес дослідження зловмисником без попередніх знань про потенційну сферу злочину, таку як проникнення в будинок, тероризм, кіберзлочинність або сексуальне насильство над дітьми.
"Хоча вся інформація, яку надає ChatGPT, знаходиться у вільному доступі в Інтернеті, можливість використовувати модель для надання конкретних кроків, ставлячи контекстуальні питання, значно полегшує зловмисникам завдання кращого розуміння та подальшого провадження різних видів злочинів», – йдеться у звіті.
Фішинг, практика надсилання фальшивого електронного листа з метою змусити користувачів перейти за посиланням, є найважливішою сферою застосування. У минулому такі шахрайства легко виявлялися через граматичні або мовні помилки, у той час як текст, згенерований штучним інтелектом, дозволяє видати себе за іншого в дуже реалістичній манері.
Аналогічно, онлайн-шахрайству можна надати більшу правдоподібність, використовуючи ChatGPT для створення фальшивої активності в соціальних мережах.
Крім того, здатність штучного інтелекту видавати себе за стиль і мовлення конкретних людей може призвести до випадків зловживань щодо пропаганди, мови ненависті та дезінформації.
Крім простого тексту, ChatGPT також може створювати код різними мовами програмування, розширюючи можливості зловмисників, які практично не мають знань в області IT, з перетворення природної мови на шкідливе ПЗ.
«Дуже важливо, що заходи захисту, які не дозволяють ChatGPT надавати потенційно шкідливий код, працюють тільки в тому випадку, якщо модель розуміє, що вона робить. Якщо підказки розбиті на окремі кроки, обійти ці заходи безпеки простіше", – додається у звіті.
ChatGPT вважається штучним інтелектом загального призначення – моделлю, яка може бути адаптована для виконання різних завдань.
Поки Європейський парламент доопрацьовує свою позицію щодо закону про ШІ, євродепутати обговорюють запровадження деяких суворих вимог до цієї базової моделі, таких як управління ризиками, надійність та контроль якості.
Інший ризик полягає в тому, що ці великі мовні моделі можуть стати доступними в даркнеті без будь-яких гарантій і бути навченими на особливо шкідливих даних. Тип даних, якими живитимуться ці системи, і те, як їх можна буде контролювати – ось основні питання майбутнього.
Коментарі — 0