Kibernetinėje erdvėje jau kelerius metus vyksta nauja kova tarp „skydo“ir „kardo“- tobulinami algoritmai, kurie sukuria giliai suklastotus vaizdo įrašus ir aptinka klastotę. Matyt, šiame kare buvo nubrėžtas lūžis, ir tai nėra „šviesos jėgų“naudai. Mokslininkai eksperimentiniu būdu patvirtino galimybę apgauti bet kokį esamą sprendimą, padedantį nustatyti netikrus vaizdo įrašus.

Kaip rašo „SciTechDaily“, remdamasis amerikiečių kompiuterių inžinerijos specialistų darbu, naujasis neuronų tinklas gana paprastai „apgauna“bet kokius giliai suklastotus detektorius. Šis algoritmas buvo pristatytas šių metų sausį (WACV 2021) įvykusioje žiemos konferencijoje dėl kompiuterinio matymo taikomųjų programų. Mokslininkai tvirtina, kad jų sprendimas parodo net pačių pažangiausių vaizdo įrašų autentifikavimo įrankių neveiksmingumą.
Apgaulės metodas yra kiekviename vaizdo įrašo kadre įterpti specialių „konkuruojančių“pavyzdžių (gali būti išversta kaip „priešingi“- priešiški pavyzdžiai). Poveikis yra tikrai atgrasus: net skubiai sugalvotas gilus klastotė detektorius aptinka tikrą įrašą. Nors nenatūralus žmogaus elgesys vaizdo įraše yra akivaizdus plika akimi. Mokslininkai praktikoje pademonstravo tokios apgaulės pavyzdį.
Sėkmingo „Deepfake“vaizdo įrašo pavyzdys

Svarbu tai, kad „apgaulė“veikia vaizdo perkodavimui ir daugeliui pažangiausių detektorių. Tiesą sakant, ekspertai daro išvadą, kad dėl klastojimą nustatančių algoritmų ypatumų juos visus apgauti tikrai nesunku.
Tokie pokyčiai gali tapti daug tobulesni, o tai dar kartą kelia abejonių dėl pačios pasitikėjimo vaizdo seka koncepcijos. Tiksliau, tai kelia susirūpinimą, kad manipuliuoti viešąja nuomone užpuolikams gali būti daug lengviau, nei norėtų teisėsaugos institucijos ir patys žmonės. Ir jei iš pradžių giliųjų suklastojimų banga buvo suvokiama tik kaip pramoga, tai kiek vėliau technologijų pavojus tapo akivaizdus.
Žmonės įpratę pasitikėti tuo, ką mato akimis, o gerai sukurtas „deepfake“gali būti nesiskiriantis nuo tikro vaizdo įrašo. Kartais užtenka net ne pakeisti žmogaus veidą, o lūpų judesius sinchronizuoti su netikra kalba. Galimas tokių manipuliacijų panaudojimo mastas yra tikrai neribotas. O tokių klastotės detektorius kuria šimtai komandų visame pasaulyje.
Naujas pavyzdys: kaip pranešė RBC, Rusijos vidaus reikalų ministerija paskelbė konkursą dėl algoritmo, skirto „redagavimui rėmuose“, sukūrimo. Sutarties suma yra beveik 4,8 milijono rublių, tačiau šios lėšos greičiausiai bus iššvaistytos. Amerikiečių tyrinėtojai įrodė, kad „neaptinkamų“giluminių sukūrimų kūrimas buvo tik laiko klausimas. Saugumo įrankių kūrėjai turės rasti visiškai naujų būdų, kaip atpažinti klastotes - tai gali užtrukti daug laiko.