УНИЦЕФ България – Прессъобщение

site.btaИзявление на УНИЦЕФ относно генерирани чрез изкуствен интелект сексуализирани изображения на деца

Изявление на УНИЦЕФ относно генерирани чрез изкуствен интелект сексуализирани изображения на деца
Изявление на УНИЦЕФ относно генерирани чрез изкуствен интелект сексуализирани изображения на деца
Снимка: УНИЦЕФ България

„Злоупотребата с дийпфейк[1] е реална злоупотреба“

НЮ ЙОРК, София, 4 февруари 2026 г. — УНИЦЕФ е все по-силно обезпокоен от сигналите за бързо нарастване на броя на сексуализирани изображения, генерирани чрез изкуствен интелект, които циркулират онлайн, включително случаи, в които снимки на деца са били манипулирани и сексуализирани.

Дийпфейковете – изображения, видеа или аудио, създадени или манипулирани с изкуствен интелект (AI), така че да изглеждат реални – все по-често се използват за създаване на сексуализирано съдържание с участието на деца, включително чрез т.нар. „разсъбличане“ (nudification), при което AI инструменти се използват за премахване или промяна на облеклото в снимки, за да се създадат фалшиви голи или сексуализирани изображения.

Нови данни  потвърждават тревожния мащаб на тази бързо нарастваща заплаха. Според проучване на УНИЦЕФ, ЕКПАТ и ИНТЕРПОЛ в 11 държави над 1,2 милиона деца съобщават, че  техни изображения са били манипулирани и използвани в сексуални дийпфейкове през последната година. В някои държави това означава едно засегнато дете на всеки 25 – или по едно дете във всяка  класна стая.

Самите деца осъзнават този риск. В някои от изследваните държави до две трети от децата заявяват, че се притесняват, че AI може да бъде използван за създаване на фалшиви сексуални изображения или видеа. Степента на загриженост  варира значително между отделните държави, което подчертава спешната необходимост от по-ефективни мерки за информираност, превенция и закрила.

Трябва да бъдем напълно категорични. Сексуализираните изображения на деца, независимо дали са генерирани или манипулирани чрез  AI инструменти, са материали със сексуална злоупотреба  над деца (CSAM). Дийпфейк  злоупотребата е форма на злоупотреба, а вредата, която причинява, е напълно реална.

Когато образът или идентичността на дете се използва, това дете става пряка жертва. Дори когато няма идентифицирана жертва, AI-генерираният материал за сексуална злоупотреба над деца  нормализира насилието и експлоатацията, стимулира търсенето на подобно съдържание и създава сериозни предизвикателства пред правоприлагащите органи при идентифицирането и закрилата на деца, които се нуждаят от помощ.

УНИЦЕФ приветства усилията на разработчиците на AI, които  прилагат  принципа „сигурност по дизайн“ и внедряват надеждни защитни механизми за предотвратяване на злоупотреби със своите системи.

Въпреки това ситуацията остава несигурна, а твърде много AI модели  се разработват без достатъчни гаранции за безопасност.

Рисковете  се засилват допълнително, когато генеративните AI инструменти са вградени директно в платформите на социалните мрежи, където манипулираните изображения могат да се разпространяват светкавично.

УНИЦЕФ призовава спешно за следните действия за справяне с ескалиращата заплаха от генерирани от изкуствен интелект материали за сексуална злоупотреба над деца:

  • Всички правителства да разширят определенията за материал със сексуална злоупотреба над деца (CSAM), така че да включват AI-генерирано съдържание и да криминализират неговото създаване, придобиване, притежание и разпространение.

  • Разработчиците на AI да прилагат подходи за „сигурност по дизайн“и да въвеждат стабилни защитни механизми за предотвратяване на злоупотребата с AI модели.

  • Дигиталните компании да предотвратяват разпространението на AI-генериран материал за сексуална злоупотреба над деца – а не просто да го премахват след като злоупотребата вече е настъпила; както и да засилят модерирането на съдържание чрез инвестиции в технологии за разпознаване, така че подобен материал да бъде премахван незабавно – а не дни след докладване от жертва или неин представител.

Вредата от злоупотребата с дийпфейк е реална и спешна. Децата не могат да чакат законът да ги догони.

 

[1] Дийпфейк е дигитално създадено или променено изображение, аудио или видео, направено с помощта на изкуствен интелект. Тази технология може да накара едно съдържание да изглежда така, сякаш човек казва или прави нещо, което в действителност никога не се е случвало.

 

 

БТА публикува този текст съгласно чл. 5, ал. 1, т. 3 и ал. 3 от Закона за Българската телеграфна агенция

Потвърждение

Моля потвърдете купуването на избраната новина

Към 23:55 на 23.02.2026 Новините от днес

Тази интернет страница използва бисквитки (cookies). Като приемете бисквитките, можете да се възползвате от оптималното поведение на интернет страницата.

Приемане Повече информация