ДИПФЕЈК ДЕТЕКТОРИ ПАЛИ НА ТЕСТУ: Истраживачи позивају на хитна побољшања
НИЈЕДАН од 16 водећих детектора не може поуздано да идентификује лажне фотографије у стварном свету, открили су аустралијски и јужнокорејски истраживачи.

Фото Shutterstock
Недавно објављени рад на порталу arXiv, који су заједнички израдили аустралијска национална научна агенција ЦСИРО и јужнокорејски Универзитет Сунгкјункван, открио је озбиљне рањивости у постојећим дипфејк (deepfake) детекторима.
Истраживање је проценило 16 водећих детектора и показало да ниједан од њих није у стању да поуздано идентификује deepfake у стварним условима.
Методологија истраживања
Истраживачи су развили оквир у пет корака за процену алата који укључује тип дипфејка, методу детекције, припрему података, обуку модела и валидацију.
Притом су идентификовали и 18 фактора који утичу на тачност детектора који су тестирани у различитим сценаријима, укључујући црну, белу и сиву кутију.
Постојећи детектори показују озбиљне слабости, посебно када се суочавају с радовима који се не налазе у њиховим тренираним подацима, запажају истраживачи.
На пример ИЦТ (Identity Consistent Transformer), детектор трениран на лицима познатих особа, није био ефикасан у детекцији дипфејка с непознатим особама.
Детектори су пали на испиту, небитно да ли је у питању "synthesis deepfake" који генерише потпуно нова синтетичка лица, "faceswap deepfake" радовима у којима се лице једне особе замењује другим или " reeanactment deepfake" у којем се задржавају црте лица неке особе, али се мењају њени изрази.
Интеграција података
Истраживачи позивају на хитна побољшања, предлажу развој више детектора и коришћење различитих извора података како би се побољшала тачност детекције.
Наглашавају и потребу интеграције аудио, текстуалних и мета података у моделе за детекцију, као и примену стратегија попут фингерпринтинга, односно уградње вештачких и ГАН отисака у слике и видео снимке како би се боље пратило порекло дипфејка.
Прва метода укључује уградњу јединствених ознака у тренинг податке генеративних модела који се препознају у генерисаним дипфејк радовима, а друга на природне ознаке које генеративни модели остављају у генерисаним садржајима.
(б92)

УКРАЈИНА ИЗДАЛА УПОЗОРЕЊЕ: Руси ће ноћас лансирати ракету која може да носи нуклеарно оружје
РУСИЈА планира „тренажно“ лансирање интерконтиненталне балистичке ракете РС-24 „Јарс“ у ноћи између 18. и 19. маја, саопштила је украјинска војна обавештајна служба (ГУР) 18. маја.
18. 05. 2025. у 15:55

ИНЦИДЕНТ У ДРУГОМ КРУГУ ИЗБОРА У РУМУНИЈИ: Полиција извела председничког кандидата са бирачког места (ВИДЕО)
РУМУНСКИ председнички кандидат и лидер националистичке странке Алијанса за уједињење Румуна Ђорђе Симион и фаворит на прошлогодишњим поништеним изборима, Калин Ђорђеску, полиција је извела са бирачког места у Могошоаји (предграђу Букурешта).
18. 05. 2025. у 09:54

ЉУДИ, ШТА СЕ ОВО ДЕСИЛО? Ердоган ухватио Макронов средњи прст и - не пушта! Снимак руковања постао хит на друштвеним мрежама (ВИДЕО)
"ДИПЛОМАТСКИ" стисак.
19. 05. 2025. у 16:40 >> 16:48
Коментари (0)