Site icon УКРАЇНА КРИМІНАЛЬНА

Штучний інтелект «вчиться» генерувати неприйнятні зображення на дитячому порно – дослідження

Дослідники заявили, що генератори зображень на основі штучного інтелекту “навчаються” на відвертих фотографіях дітей.

Про це йдеться у новому звіті Стенфордської інтернет-обсерваторії, повідомляє Associated Press.

У навчальній базі популярних генераторів зображень можуть бути тисячі знімків сексуального насильства над дітьми.

Вони ж навчили системи штучного інтелекту створювати реалістичні відверті зображення дитячих персонажів, а також “роздягати” неповнолітніх на фото за допомогою ШІ.

Дослідники закликали компанії усунути цей недолік у технології.

Після появи багатьох інструментів на основі ШІ в інтернеті, правозахисники та звичайні користувачі вказували на один суттєвий недолік – деякі інструменти на основі ШІ створюють неприйнятні зображення дітей або описують сцени сексуального насильства, якщо їх попросити.

Донедавна вважалось, що ШІ просто комбінував інформацію, отриману з дорослої порнографії та нешкідливих дитячих фотографій. Але виявилося, що ШІ також “вчиться” на дитячій порнографії.

Стенфордська інтернет-обсерваторія знайшла понад 3200 зображень, на яких, ймовірно, є сексуальне насильство над дітьми, у гігантській базі даних штучного інтелекту LAION. Це база даних, яка використовується для навчання провідних генераторів ШІ-зображень, як-от Stable Diffusion.

Група спостерігачів зі Стенфордського університету співпрацювала з Канадським центром захисту дітей та іншими благодійними організаціями, щоб виявити незаконні матеріали. Вони повідомили про оригінальні посилання на фотографії у поліцію. Приблизно тисяча знайдених зображень уже пройшли зовнішню перевірку.

Неприйняті зображення становлять лише частину бази LAION, яка налічує близько 5,8 мільярда зображень. Однак Стенфордська група вважає, що ці фото можуть сприяти генеруванню “шкідливих” результатів за допомогою інструментів ШІ.

За словами головного технолога Стенфордської інтернет-обсерваторії Девіда Тіля, цю проблему нелегко вирішити. Вона, зокрема, пов’язана з тим, що багато проєктів генеративного ШІ “поспіхом виводять на ринок” і вони стають широкодоступними через високу конкуренцію в цій галузі.

“Взяти весь Інтернет і зробити з нього набір даних для навчання моделей – це те, що має бути обмежене дослідницькою операцією. Це не те, що повинно бути у відкритому доступі без набагато більш суворої уваги”, – сказав Тіль.

У LAION відреагували на інцидент та повідомили АР, що тимчасово видаляють свої набори даних. Мережа заявила, що “дотримується політики нульової толерантності до незаконного контенту”, а тому ліквідовує дані, щоб вони не становили небезпеки.

Нагадаємо, раніше в Іспанії зловмисники використали ШІ, щоб генерувати фото голих неповнолітніх дівчат.

Також у Британії викрили схему продажу контенту з насильством над дітьми, створеного ШІ. // УП. Життя

Exit mobile version