Кількість випадків обману з боку ШІ різко зросла – дослідження

Кількість випадків обману з боку ШІ різко зросла – дослідження
Дослідження попереджає про небезпечну поведінку штучного інтелекту
фото з відкритих джерел

Чат-боти почали обходити обмеження та діяти без дозволу

Кількість випадків, коли моделі штучного інтелекту ігнорують інструкції, обходять обмеження та вводять користувачів в оману, різко зростає. Про це свідчить нове дослідження, профінансоване британським Інститутом безпеки штучного інтелекту (AISI), пише «Главком».

У роботі зафіксовано майже 700 реальних випадків так званих «схем» ШІ, а кількість неправомірної поведінки зросла у п’ять разів за період з жовтня до березня.

Дослідники зазначають, що чат-боти та агенти ШІ ігнорують прямі вказівки, обходять системи безпеки та обманюють користувачів і навіть інші системи ШІ.

У деяких випадках моделі діяли без дозволу користувачів, зокрема видаляли електронні листи та файли, що прямо порушує встановлені правила.

Дослідження, проведене Центром довгострокової стійкості (CLTR), базується на аналізі тисяч реальних взаємодій користувачів із чат-ботами, опублікованих у соцмережі X. Воно охоплює системи, створені такими компаніями, як Google, OpenAI, X та Anthropic.

Серед зафіксованих прикладів:

  • один агент ШІ створив інший, щоб обійти заборону змінювати код;
  • чат-бот визнав, що масово видалив електронні листи без дозволу;
  • інший агент намагався публічно дискредитувати користувача, який обмежив його дії;
  • система обходила авторські обмеження, видаючи себе за людину з вадами слуху.

Окремо згадується випадок, коли чат-бот Grok вводив користувача в оману, створюючи враження, що передає його пропозиції керівництву, хоча насправді не мав такого доступу.

Експерти попереджають, що подібна поведінка становить новий тип ризику. Співзасновник компанії Irregular Ден Лахав заявив: «Штучний інтелект тепер можна розглядати як нову форму внутрішнього ризику».

Керівник дослідження Томмі Шаффер Шейн наголосив, що нині системи ШІ можна порівняти з «ненадійними молодшими співробітниками», однак у майбутньому, коли вони стануть більш потужними, ризики можуть значно зрости.

За його словами, особливу небезпеку становить використання таких систем у критично важливих сферах, включаючи військову галузь та національну інфраструктуру, де подібна поведінка може мати серйозні або навіть катастрофічні наслідки.

Читайте також:

Коментарі — 0

Авторизуйтесь , щоб додавати коментарі
Іде завантаження...
Показати більше коментарів

Читайте також

Одна з найбільших на континенті обчислювальних платформ, що підтримується Deutsche Telekom, була створена в рекордно короткі терміни
Німеччина робить ставку на промисловий ШІ
Ray-Ban від Meta записували інтимні відео користувачів
Окуляри Ray-Ban від Meta записували інтимні відео користувачів: усі деталі скандалу
Журнал із категорії МОН надрукував статтю про вигадану державу
Професор Київської школи економіки опублікував у науковому журналі статтю про фейкову країну
Фігуранта справи затримано під час чергового продажу партії безпілотних літальних апаратів
Бізнес на гуманітарній допомозі: поліція Київщини затримала псевдоволонтера-іноземця
На Лондонському книжковому ярмарку роздають книгу «Don’t Steal This Book», у якій замість тексту – лише список письменників
Британські письменники звинуватили розробників штучного інтелекту: причина
Російська влада заявила, що всі відключення та обмеження зв’язку відбуваються у суворій відповідності до чинного законодавства
У Москві перебої з інтернетом. Містянам радять орієнтуватися за сонцем та зірками
Україна за підтримки Британії запустила спеціальний центр «A1»
Міноборони запускає перший центр для впровадження штучного інтелекту у війську
Під час обшуків на території України за участю латвійських правоохоронців учасників групи викрито за місцем проживання
Ошукували громадян ЄС на €300 тис. Україна та Латвія викрили учасників шахрайської схеми
Центральна збагачувальна фабрика «Червоноградська», 2018 рік
Ситуацію на ЦЗФ «Червоноградська» пропонують винести на РНБО через ризики підготовки до зими – ЗМІ