Откривање лажних видео садржаја док „трепнете оком“

Док расте напетост пред изборе за амерички Конгрес у новембру ове године појавио се нови облик ширења лажних информација. Назван је „дубоке преваре“ (енгл: deepfakes) према налогу под лажним именом који га је проширио на мрежи. Назив је, вероватно, изабран јер процес користи технички метод који се зове дубоко учење и омогућава да такви видео садржаји изгледају изузетно реално. До сада су видео садржаји тог облика углавном коришћени у порнографији и на пољу сатиричних тема да би се приказале познате личности како раде нешто што никад не би радили у реалном животу. Ипак, сасвим је сигурно да ће се видео записи дубоке преваре појавити током изборне кампање да би наводно приказали кандидате који говоре нешто што никад не би рекли или одлазе некуд куда прави кандидати никад не би отишли. Пошто су те технике сасвим нове, обични људи не могу да уоче разлику између правих и лажних видео записа. Међутим, уз сарадњу мојих колега Минг-Чинг Чанга и нашег докторанта Јуцун Лија успели смо да пронађемо метод помоћу ког можемо поуздано да направимо разлику између правих и лажних видео садржаја. Нажалост, то неће бити трајно решење јер технологија напредује. Ипак и то ће нам бити од помоћи, али даје нам и наду да ће рачунари помоћи људима да одвоје истину од лажи.

Шта је „дубока превара“?

Стварање дубоке преваре изузетно подсећа на превођење текста са једног језика на други. Сервиси као што је преводилац компаније „Гугл“ користи машинско учење – рачунар анализира десетине хиљада текстова на многим различитим језицима – да би пронашли узорке коришћења речи које касније користе у превођењу.

Алгоритми дубоке преваре раде на исти начин. Користе тип система машинског учења који се зове дубока неуронска мрежа да би истражили мимику једне особе. После тога, повезују и обједињују слике лица неке друге особе, али тако да прави исте покрете. Кад све то обаве, добија се видео запис који приказује циљну особу како ради или говори нешто што је изворна особа урадила или рекла.
Да би видео садржаји били уверљивији, дубоким неуронским мрежама је потребно много изворних података као што су фотографије особе која је извор или циљ имитације. Ако је алгоритам обучен на већем броју фотографија, имитација ће бити успешнија, односно лажни видео садржај изгледаће много реалистичније.

Уочавање трептаја ока

Још постоје грешке у том новом типу алгоритма. Прва је у трептању код лажних лица, или боље речено, имитатори не трепћу. Здрав одрастао човек трепне између сваке две и сваких десет секунди, а трептај траје од једне десетине до четири десетине секунде. То би сте видели док бисте посматрали прави видео садржај у коме је снимљена особа која говори, међутим, то се не дешава на лажним снимцима.

Кад се алгоритам дубоке преваре обучава на сликама лица једне особе, он се углавном ослања на фотографије које су доступне на интернету и које се могу користити као подаци за подучавање. Чак и не можете пронаћи много фотографија особа које се често сликају, а на којима жмуре. Такве фотографије су ретке пошто су људима очи углавном отворене, али и фотографи обично не објављују слике на којима особе које сликају жмуре.

Алгоритми дубоке преваре неће моћи да направе лица која нормално трепћу ако не добију фотографије на којима људи то раде. Кад израчунамо укупну брзину трептања и упоредимо је са нормалним распоном који смо споменули, уочавамо да ликови у видео садржајима дубоке преваре много ређе трепћу од правих људи. У истраживању смо користили машинско учење да бисмо испитивали затварање и отварање ока у видео записима.
То нас је подстакло да кренемо у препознавање лажних видео садржаја. Због тога смо развили метод који уочава кад особа трепне. Да будемо прецизнији, скенира се сваки кадар видео записа, откривају се лица која су у њему и аутоматски се лоцирају очи. Затим се користи још једна дубока неуронска мрежа да утврди да ли је око затворено или отворено уз запажања о изгледу ока, геометријским особинама и покретима. Знамо да наш рад искоришћава грешку у врсти података која је расположива за обучавање алгоритама дубоке преваре. Да бисмо избегли исту грешку, обучавали смо наш систем на великом броју слика које приказују и отворене и затворене очи. Изгледа да метод одлично функционише јер смо његовом применом успели да откријемо лажне видео садржаје у 95% случајева.

Наравно, овде се откривање дубоких превара не завршава. Технологија се изузетно брзо развија, а надметање између стварања и откривања лажних видео записа иста је као шаховска партија. У ствари, трептање се може додати лажним видео садржајима помоћу убацивања слика лица са затвореним очима или коришћењем видео секвенци. Људи који желе да збуне јавност биће све бољи у стварању лажних видео садржаја, а ми и остали који припадају заједници савремених технологија мораће да траже методе да их открију.

Рачунарски факултет Рачунарски факултет 011-33-48-079