Компанія Маска остаточно заборонила чат-боту Grok «роздягати» людей

Компанія Маска остаточно заборонила чат-боту Grok «роздягати» людей
Відтепер створювати будь-які картинки через Grok зможуть лише передплатники
фото: Reuters

Модель штучного інтелекту більше не зможе редагувати фотографії реальних людей, щоб показувати їх у відвертому одязі

Компанія xAI обмежила роботу чат-бота Grok після скандалу з сексуальними діпфейками. Grok більше не може редагувати фото людей, додаючи їм купальники чи спідню білизну. Про це повідомляє «Главком» з посиланням на X.

«Ми впровадили технологічні заходи, щоб запобігти редагуванню в обліковому записі Grok зображень реальних людей у відвертому одязі, такому як бікіні. Це обмеження застосовується до всіх користувачів, включаючи платних передплатників», – йдеться в заяві.

Крім того, створення зображень і можливість редагувати зображення через обліковий запис Grok на платформі X тепер доступні тільки платним передплатникам. «Це додає додатковий рівень захисту, допомагаючи забезпечити, щоб особи, які намагаються зловживати обліковим записом Grok для порушення закону або наших політик, могли бути притягнуті до відповідальності», – вказано в повідомленні.

Як зазначає X, тепер Grok блокує створення зображень реальних людей у бікіні чи білизні в країнах, де це заборонено законом. Зміни з’явилися після того, як Каліфорнія почала розслідування проти xAI. Один з аналізів показав, що з 20 тис. зображень, згенерованих під час новорічних свят, більшість показували людей у мінімальному одязі, зокрема дітей.

Ілон Маск стверджував, що йому нічого не відомо про випадки створення зображень оголених неповнолітніх. За його словами, у разі ввімкненого дорослого режиму Grok може показувати лише вигаданих дорослих.

Нагадаємо, уряд Індонезії оголосив про тимчасове блокування ШІ-інструмента Grok компанії xAI Ілона Маска. Причиною став сплеск створення порнографічного контенту за допомогою нейромережі, що суперечить суворим законам країни.

Читайте також:

Коментарі — 0

Авторизуйтесь , щоб додавати коментарі
Іде завантаження...
Показати більше коментарів