Generatyvinio priešininkų tinklo (angl. Generative adversary network, GAN) du tinklai, dirbantys vienas prieš kitą, siekiant sukurti kuo tikroviškesnį atvaizdą, iš kurių vienas kuria, o kitas vertina – sukurtos dirbtinės nuotraukos paprastai yra portretinio tipo, todėl sugeneruotų veidų akys dažnai žiūri tiesiai į kamerą. Tyrimo autoriai mano, kad taip nutinka dėl vaizdų, naudojamų GAN „mokymo“ procese. Naudojant tikrus veidus, užfiksuotus portretiniu stiliumi, abi akys atspindi aplinkoje esančią šviesą.
Darbe pagrindinis tyrimo autorius, profesorius Siwei‘us Lyu, rašo: „Ragena yra beveik tobulas pusrutulis, puikiai atspindintis šviesą. Abi akys turėtų atspindėti labai panašų vaizdą, kadangi jos mato tą pačią aplinką. Tai yra dalykas, kurio mes paprastai nepastebime žiūrėdami į veidus.“
Tačiau tyrėjai pastebėjo aiškius skirtumus tarp akių, dirbtinio intelekto sugeneruotose veiduose. Naudojantis „thispersondoesnotexist“ ir „Flick Faces-HQ“ sugeneruotais veidais, jų sukurtas metodas išmoko atskirti skirtingas veido dalis, tuomet išdidinti akis ir išanalizuoti jas, tada akies obuolį, ir tuomet kiekviename iš jų atsispindinčią šviesą. Atlikus šiuos veiksmus, rasti skirtumai tarp atspindžių, tokie kaip forma ir šviesos ryškumas, yra palyginami tarpusavyje.
Darbe autoriai rašo: „Mūsų eksperimentai parodė, kad yra aiškus skirtumas tarp tikrų ir GAN sukurtų veidų atspindžių akyse. Šis metodas gali būti naudojamas, siekiant juos atskirti.“ Naudojantis portretinio tipo nuotraukomis, jų sukurtas įrenginys tikrus veidus nuo suskurtų atskyrė 94 proc. tikslumu.
Mokslininkų manymu, akių atspindžių skirtumus galimai lemia fiziniai ir fiziologiniai trūkumai GAN modeliuose, bei faktas, kad šie vaizdai iš esmės yra įvairių nuotraukų sujungimas į vieną. Tiesa, analizuodamas nuotraukas, kurios buvo ne portretinės, arba kai šviesos šaltinis buvo arti akių, šis įrankis rodė klaidingai teigiamus rezultatus. Tyrėjai taip pat pažymi, kad yra įmanoma patobulinti deepfake technologiją taip, kad sukuriami atspindžiai akyse būtų panašūs.
Toks įrankis, atskiriantis dirbtinio intelekto sukurtus veidus, galėtų padėti atpažinti netikras paskyras, kurios skleidžia dezinformaciją
„Kadangi GAN sukurti veidai tapo labai tikroviški, o atskirti juos nuo tikrų žmonių atvaizdų tapo sunkia užduotimi, jie greitai tapo nauja dezinformacijos skleidimo forma internete. GAN sukurti veidai jau buvo panaudoti kaip profilio nuotraukos netikroms socialinės medijos paskyroms, kurios vilioja ar apgauna patiklius vartotojus“, – teigia autoriai.
„Yra ir potencialus politinis poveikis. Pavyzdžiui, galima kuri netikrus vaizdo įrašus, kuriuose atrodo, kad politikai sako ar daro kažką, ko neturėtų. Tai yra blogai“, – paaiškina profesorius S. Lyu.