Борбата срещу дълбоките фалшификати, как можем да се борим с тях

Борбата срещу дълбоките фалшификати, как можем да се борим с тях

В разгара на дигиталната ера загрижеността за фалшивите новини все повече заема вниманието на обществените организации, медиите и личностите от всякакъв вид. Не напразно „ Фалшиви новини“ имаха определена тежест във важни изборни процеси, като президентските избори в САЩ през 2016 г., референдумът за излизането на Обединеното кралство от Европейския съюз или генералите на Бразилия, които дадоха победа на Болсонаро.

Без да се налага да стига толкова далеч, у нас наскоро Facebook трябваше да затвори три големи крайнодесни мрежи, които чрез 30 страници, групи и дублиращи се акаунти натрупаха повече от един милион и половина последователи и повече от 7 милиона взаимодействия . Тези групи бяха посветени на разпространението на измами и фалшиви образи.

Но сега сме изправени пред друг тип цифрова заплаха, която поражда нови главоболия. Говорим за така наречения Deepfake, термин, който произтича от комбинацията от „Deep Learning“  и „Fake“. По принцип това е форма на изкуствен интелект,  която позволява на всеки потребител да редактира фалшиви видеоклипове и аудиозаписи на хора, които изглеждат реални. За това се използват  антагонистични генеративни мрежи (AGR) , един вид алгоритъм, който може да създава нови видове данни от други вече съществуващи набори.

В крайна сметка "дълбоките фалшификати" са още една форма на дигитална манипулация и една от най-вероятните да бъдат използвани за "тролинг" в най-добрите случаи. Но как можем да ги открием? И преди всичко какво се прави от частните институции и компании, за да се предотвратят пагубните последици от него? В това специално ще прегледаме усилията, които се полагат, за да спрат този нов дигитален бич.

Защо deepfakes са толкова опасни?

Технологията „deepfake“ ни позволява лесно да заместим лицето на един човек с лицето на друг, сякаш е вид дигитална маска или маска, за да ни накара да повярваме,  че той е казал определени неща, които никога не са се случвали . Както се досещате, тези техники имат поредица от доста значими последици за определяне на легитимността на информацията, циркулираща в интернет.

Въпреки че често се използват за създаване на хумористични видеоклипове, истината е, че „дълбоките фалшификати“ имат тъмен потенциал да унищожат обществения имидж на човек или да повлияят на общественото мнение чрез използването на дезинформация. За съжаление трябва да ви кажем, че тази злоупотреба е по-широко разпространена, отколкото бихме искали, и с огромен успех трябва да добавим.

Ярък пример е приложението DeepNude, което ви позволи да качите изображението на човек с дрехи и да създадете  ново от същия гол човек . За щастие той вече е затворен, но трябва да подчертаем лекотата на използване на този тип инструменти, за които не се изискват познания за редактиране, тъй като самият алгоритъм върши цялата работа.

deepnude

В случая с DeepNude платформата предлагаше невероятно реалистични резултати и беше напълно достъпна чрез уебсайта си за Windows и Linux . И както се очакваше, монтажите със знаменитости като Кейти Пери или Гал Гадот не отнеха много време да се появят в мрежата, до степен, че натискът от страна на адвокатите на тези актриси не спря, докато важните уебсайтове за съдържание за възрастни не премахнаха видеоклиповете .

Това е само върхът на айсберга на товароподемността, която могат да имат тези видове приложения. Сега си представете последиците от кампания от този тип, насочена срещу определена политическа фигура с цел манипулиране на изборния процес в държава или регион. Злото не знае граници.

deepfake

Как се бори deepfakes?

Една от първите компании, които се изказаха, беше не друг, а Google, който обяви твърдата си воля за борба с дълбоките фалшификати и, както се казва в тези случаи, пожарът гаси огъня. Технологичният гигант потвърди стартирането на цяла база данни с до 3000 видеоклипа, манипулирани с изкуствен интелект (deepfakes), които са създадени специално за прецизиране на инструментите за откриване на изследователите.

За да направи това, Google нае истински актьори, които да записват лицата им и да ги използват като отправна точка, за да определят дали видеоклипът е изкуствено променен. Използвайки методи за генериране на deepfake, достъпни за всички, от тези записи се създават хиляди deepfake.

Получените видеоклипове, реални и фалшиви, се качват в платформата за съвместно развитие GitHub, така че изследователите да разберат напълно какво произвежда системата. Тази база данни, както казваме, е напълно достъпна, въпреки че първо трябва да ви дадат разрешение .

От своя страна Facebook също планира да създаде подобна база данни до края на тази година. Според главния изпълнителен директор Марк Зукърбърг основният проблем е,  че индустрията няма стандартизирана система за тяхното откриване . Ето защо тя се обедини с Асоциацията на AI, Microsoft и академици от Cornell Tech, MIT, Оксфорд, UC Berkeley, University of Maryland, College Park и University of Albany-SUNY, за да изгради Deepfake Detection Challenge. (DFDC за съкращението на английски).

Този макро проект ще включва обширна база данни и подробна класификация , в допълнение към финансова помощ и дарения за насърчаване на възможно най-много сътрудници. Идеята е да се създаде вид общност, която помага за откриване и избягване на манипулирани видеоклипове чрез AI.

Няма съмнение, че разпространението на "дълбоки фалшификати" се е превърнало в много сериозен проблем със сериозни последици, които не могат да бъдат пренебрегнати. Въпреки че мерките, предложени от главните агенти, ангажирани с тази кауза, в дългосрочен план може да изглеждат непрактични или дори контрапродуктивни, те може да са единственият начин за изкореняване на това престъпление. Въпреки че може да изглежда неинтуитивно, борбата с „дълбоките фалшификати“ с повече „дълбоки фалшификати“ ще помогне на инструментите за откриване да поемат повече данни, за да им помогнат по-лесно да намерят този тип монтажи .