L. Apynio teigimu, dabar internete galima atrasti daugybę įvairių puslapių, siūlančių pasinaudoti dirbtinio intelekto paslaugomis ir klonuoti žmogaus balsą.
Tam tereikia ilgesnio garso įrašo, kuriame girdisi, kaip asmuo šneka.
Sukčiai dažniausiai tokius paprastų žmonių balso įrašus padaro telefoninio skambučio metu, apsimesdami kokios nors paslaugos tiekėjais.
„Programišiai ir hackeriai yra gudrūs. Gauti jūsų balsą jie gali gavę telefono numerį, paskambinę ir apsimetę kokios nors paslaugos tiekėju. Skambučio metu jie kalba su jumis kokia nors tema ir nemėgina iš jūsų išgauti nieko kito, išskyrus balsą“, –pasakoja L. Apynis.
Jūsų balso įrašus piktavaliai gali gauti ir tokiu atveju, jei kokią nors vaizdo ar garso medžiagą, kurioje šnekate, esate įkėlę į internetą.
Apgaudinėjami tiek paprasti žmonės, tiek kompanijos
Pavyzdžių, kaip, pasinaudojus dirbtiniu intelektu, klonuojami balsai apstu internete.
Jame galima rasti įvairiausių parodijų ir memų su skirtingų valstybių vadovais ar žinomais žmonėmis, kurių balsus sugeneruoja dirbtinis intelektas.
Visgi, kol vieni dirbtinį intelektą naudoja tam, jog būtų kuriamos parodijos, kiti šią technologiją išnaudoja piktiems tikslams.
Apie galimus sukčių pavojus perspėja ir Lietuvos policijos atstovai, kurie teigia, jog realu, kad ateityje Lietuvoje sukčiai dirbtinį intelektą panaudos įvairioms paskirtimis.
„Dirbtinis intelektas ateityje, tikėtina, gali būti išnaudojamas tiek garso, vaizdo generavimui, tiek ir tekstų kūrimui ar duomenų analizei, todėl svarbu gyventojų sąmoningumas, akylumas. Tobulėjant informacinių sistemų saugumui, sukčiai ypatingai išnaudoja socialinės inžinerijos metodus, kurie leidžia paveikti sistemomis besinaudojantį asmenį bei išvilioti jo duomenis, perimti paskyras“, – teigia Lietuvos kriminalinės policijos biuro atstovė Miglė Sokolnikaitė.
Pasitaiko ir atvejų, kai piktavaliai klonuoja ne tik balsą, bet ir žmogaus veidą, pasinaudodami „Deep fake“ (angl. išmanioji vaizdo klastotė – aut. past.) technologija.
„Kalbant apie dirbtinio intelekto atakas, buvo ir šiais metais atlikta pakankamai pažangi ataka. Vienos Hong Kongo pasaulinės kompanijos darbuotojas sulaukė vaizdo skambučio iš sukčių, kurie apsimetė jo kolegomis ir kompanijos darbuotojais. Buvo suklastoti ne tik balsai, bet ir veidai – panaudota „Deep fake“ technologija“, – sukčių gudrybėmis dalinasi L. Apynis.
Skambučio metu darbuotojas buvo įtikintas sukčiams pervesti net 25 milijonus dolerių.
Nuo tokių sukčių nukenčia ir paprasti žmonės. Štai, naujienų portalas „CBS News“ praneša apie atvejį, kai viena JAV gyvenanti moteris gavo skambutį iš sukčių, kurie, klonavo jos dukters balsą ir tokiu būdu mėgino įtikinti motiną, kad jos dukra yra pagrobta, nors mergaitė tuo metu buvo namuose.
Klonuoti lietuvius sunku
Tiesa, L. Apynis teigia, kad kol kas dirbtinio intelekto galimybės klonuoti lietuvių kalbą yra gana ribotos. Todėl, kol bus įmanoma deramai nukopijuoti lietuvišką balsą, specialisto manymu, dar gali prireikti metų, o gal net ir daugiau.
„Kiek dabar tikrinau, tikrai ribotas kalbų palaikymas. Palaikomos populiariausios kalbos – anglų, kinų, vokiečių ir panašiai“, – sako IT saugumo inžinierius.
Visgi, jei pasitaikytų toks atvejis, jog jums paskambina sukčius su klonuotu balsu, atpažinti jį galima keliais nesudėtingais būdais.
„Vis tiek jaučiasi ir girdisi, jog tai nėra tikras žmogus. Girdisi robotizuotas balsas ir kad nėra emocijų, ko dirbtinis intelektas dar negali perteikti. (...) Atpažinti sukčių galima vien iš bendravimo arba galima paklausti kokio nors asmeninio klausimo. Tikrai tada neišeis suklastoti tokio skambučio“, – atkreipia dėmesį L. Apynis.
Specialistas prideda, kad labiau tikėtina, jog Lietuvoje mums teks susidurti su tikslinėmis atakomis prieš tam tikras organizacijas, kadangi padirbti balsą kainuoja nemažai resursų. Todėl populiaresni sukčiavimo būdai tikriausiai išliks elektroninių ar mobiliųjų žinučių siuntinėjimai.
„Su balsais tai brangiau kainuoja ir sudėtingiau visas tas procesas veikia. Reikia gauti balsą, keletą valandų kompiuteris jį apdoroja. Dar tada reikia protingai sukonstruoti tekstą, kad dirbtinis intelektas galėtų gražiai atpasakoti. O laiškų rašymas nemokamas. Yra daugybė dirbtinio intelekto projektų, kurie gali puikiai rašyti laiškus. Tai sukčiai masiškai ir siuntinėja laiškus ir kas nors užkimba“, – sako pašnekovas.
Reikia daugiau reguliacijos
L. Apynis pažymi, kad dirbtiniam intelektui šiuo metu duodama daug laisvės ir jis greitai tobulėja, o įstatymiškai tai reguliuojama minimaliai. Tačiau tiek valstybių, tiek įvairių organizacijų vadovai pradeda svarstyti apie didesnių ribojimų taikymą dirbtinio intelekto panaudojimui.
„Dabar jau daugiau mąstoma apie tai ir patys vadovai susimąstę, kaip reguliuoti šitą dalyką. Ir Europos Sąjungą, aišku, JAV dabar svarsto tuos įstatymus, kaip tai sutramdyti. Nes visi pastebėjo, kad geri dalykai panaudojami ir blogiems tikslams“, – sako specialistas.
Pašnekovas prideda, kad realu, jog ateityje susidursime ir su futuristiškai skambančia realybe, kai mėginant atpažinti dirbtinio intelekto sugeneruotus balsus ar atvaizdus, tam bus panaudotas tas pats dirbtinis intelektas.
„Tikėtina, kad bus vėliau dirbtinis intelektas prieš dirbtinį intelektą. Tai reiškia, kad vienas dirbtinis intelektas bandys suprasti ar tai yra suklastotas balsas, ar ne“, – pasakoja IT saugumo inžinierius.
Pinigų plovimo prevencijos kompetencijos centro duomenimis, 2024 metų I-ajame ketvirtyje finansinių sukčių sukelti nuostoliai siekė 3,7 milijono eurų.
Apgaulės panaudojimas (įskaitant kito asmens balso panaudojimą) siekiant išvilioti aukos lėšas yra laikomas sukčiavimu, už kurį priklausomai nuo padarytos žalos asmuo gali būti baudžiamas viešaisiais darbais, bauda laisvės apribojimu areštu arba laisvės atėmimu iki trijų metų (labai didelės žalos atvejais – ir laisvės atėmimu iki 8 metų).