Giliąsias klastotes socialiniuose tinkluose matysime kasdien: kaip neužkibti ant jų kabliuko?
Kai praėjusį kovą Ukrainos viešojoje erdvėje pasklidusiame vaizdo įraše šalies prezidentas paragino piliečius sudėti ginklus ir pasiduoti Rusijai, daugeliui abejonių nekilo. Tai tebuvo prastos kokybės gilioji klastotė (angl. deepfake), kurią išdavė prastai atkartotas tonas ir nenatūralūs judesiai. Tačiau suklastoti vaizdo įrašai tobulėja ir pamažu tampa kasdienio mūsų informacinio fono dalimi, tad juos atpažinti darosi gyvybiškai svarbu.
Dirbtinio intelekto (DI) komunikacijos kompanija „DeepMedia“ prognozuoja, jog vien šiemet socialiniuose tinkluose bus pasidalinta 500 tūkstančių video ir balso klastočių, o ateinančiais metais šis skaičius turėtų augti bent keletu kartų.
„Dar praėjusių metų pradžioje, norint nuklonuoti tam tikro asmens balsą, būtų reikėję pakloti maždaug 10 tūkstančių eurų už tam reikalingus serverio pajėgumus ir DI algoritmus. Šiandien įvairūs startuoliai šią paslaugą siūlo vos už keletą eurų, todėl ilgainiui turėsime susitaikyti su giliųjų klastočių egzistavimu ir išmokti neužkibti ant jų kabliuko. Didžiosios bendrovės jų atpažinimui siekia panaudoti kraujagyslių skenavimą ir kitus pažangius būdus, bet kol kas prastesnes klastotes dar galime pastebėti atkreipę dėmesį į išsiliejusias detales, nenatūralius lūpų judesius ir ją platinantį šaltinį“, – teigia „Telia“ Skaitmeninės pažangos centro dirbtinio intelekto ekspertas prof. Paulius Pakutinskas.
Klastotės jokiu būdu nėra nauji reiškiniai, jos gali būti vertinamos kaip nauja senesnės technologijos išraiška. „Deepfake“ technologija turi rimtų pasekmių visos audiovizualinės medžiagos patikimumui, o tai gali sukelti daug įvairių galimų socialinių ir finansinių nuostolių, taip pat manipuliavimą demokratiniais procesais ir finansų, teisingumo ir mokslo sistemomis. Tad garso ir grafiniai įrodymai turės būti vertinami su didesniu skepticizmu ir atitikti aukštesnius standartus.
Nuo šantažo iki sugadintos karjeros
P. Pakutinskas atkreipia dėmesį, kad giliosios klastotės gali turėti įtakos ir kasdieniame žmonių gyvenime. Sukčiai jau naudojasi jomis, siekdami išvilioti pinigus už tariamai avarijoje nukentėjusius artimuosius. Bandydami įrodyti apgaulę, nusikaltėliai suklastoja vaizdo įrašą iš įvykio vietos ar šantažuoja sukurtomis kompromituojančiomis nuotraukomis su žmonių veidais.
„Giliosioms klastotėms skverbiantis į mūsų kasdienybę, žmonės gali atsidurti situacijose, kuriose tikrai nenorėtų būti. Pavyzdžiui, pornografinio pobūdžio nuotraukose panaudojamas žmogaus veidas, o tyčia pabloginus kokybę tampa beveik neįmanoma atskirti, ar tai yra klastotė. Taip žmonės yra šantažuojami, siekiant finansinės naudos ar kitų savanaudiškų paskatų“, – atskleidžia P. Pakutinskas.
Tokios klastotės gali turėti neigiamos įtakos ir žmonių karjerai, ypač darbo vietose, kuriose yra reikalinga nepriekaištinga reputacija. Nuotraukoms pasklidus internete, jas gali pamatyti ir darbdaviai, ir klientai, o tai gali padaryti nepataisomą žalą ir sugadinti žmogaus gyvenimą.
Skaitmeninės pažangos centro ekspertas pabrėžia, kad kuo suklastotos nuotraukos ar vaizdo įrašo kokybė prastesnė, tuo sunkiau gali būti ją identifikuoti, todėl žmonės turėtų būti itin budrūs tokiose situacijose ir aklai nepasitikėti visa pamatoma skaitmeninės erdvės informacija. Svarbu nuolat ją patikrinti kelis kartus ir keliuose patikimuose šaltiniuose.
Išduoda kraujotaka ir akys
Giliosios klastotės savo vardą pelnė dėl jų kūrimui naudojamos giliojo mokymosi technologijos, kuri, pasitelkdama DI algoritmus ir didžiulius duomenų kiekius, „išmoksta“, kaip mums reikalingo asmens veidas atrodo iš skirtingų kampų, ir jį paverčia savotiška skaitmenine kauke. Taip atsiranda galimybė pastarąją „uždėti“ kokiame nors kitame vaizdo įraše nufilmuotam asmeniui, apgavystę papildant DI taip pat išmoktu protagonisto balsu.
Kol visa tai mėgėjiškai naudojama vienų garsių aktorių pakeitimu kitais populiarių filmų scenose ar satyriniams Tomo Kruzo klipams, kuriuose pastarasis įkūnijamas į valytoją, didelės grėsmės nėra. Deja, analitikai baiminasi, kad šie technologiniai sprendimai gali būti panaudoti, pavyzdžiui per kitąmet vyksiančius JAV prezidento rinkimus, kaip priemonė skleisti dezinformaciją apie kandidatus. Tokios priemonės gali būti pasitelktos ir kitose situacijose kada norima iškreipti, suklastoti realybę, dezinformuoti žmones.
„Siekiant kuo greičiau iš socialinių tinklų pašalinti tokias klastotes, tampa vis aktualiau jas greitai ir patikimai atpažinti. Kompiuterių inžinerijos milžinė „Intel“ šį procesą ketina palengvinti naudodama Fotopletizmografijos technologiją, kuri vaizdo įraše aptiks jame rodomo asmens veido kraujotaką. Bendrovės mokslininkai pastebėjo, jog priešingai, nei autentiškuose klipuose kalbančių žmonių, DI „kaukių“ veido kraujagyslės nesusitraukinėja. Be to, šiai sistemai padeda ir tai, kad „deepfake“ akys nebūna sukoncentravusios žvilgsnio ir juda atskirai viena nuo kitos“, – atskleidžia P. Pakutinskas.
„Intel“ teigimu, „FakeCatcher“ pakrikštyta sistema pasižymi net 96 proc. klastočių atpažinimo efektyvumu, tačiau ją išbandę BBC atstovai pastebėjo, jog tokius puikius rezultatus pasiekti pavyksta tik turint pakankamai geros kokybės vaizdo įrašus.
Kol kas pakanka pastabumo
Nors „Intel“ sistemos testai rodo didelį potencialą, „Telia“ Skaitmeninės pažangos centro atstovo teigimu, kol kas didžiąją dalį giliųjų klastočių gali padėti atskirti elementarus pastabumas. Pastebėjus įtartiną vaizdo įrašą socialinėje erdvėje, pirmiausia reikėtų įvertinti, ar jis nėra paskelbtas iš įtartino bei jokios kitos asmeninės informacijos neturinčio profilio. Pastarieji įprastai sukuriami būtent dezinformacijos skleidimui, todėl tai aptikus mintyse iškart turėtų užsidegti raudona lemputė.
„Po to dėmesį vertėtų nukreipti į kalbantįjį. DI kol kas dar nesugeba idealiai atkartoti odos reljefo, todėl patartina įsižiūrėti, ar skruostų ir kaktos odos amžius nesiskiria – ar oda nėra per raukšlėta, o gal kaip tik pernelyg lygi, ar ji sutampa su kitų kūno dalių oda. Algoritmams kyla sunkumų ir su apgamais, barzda bei kitomis mažesnėmis detalėmis, todėl vaizdo įrašai gali atrodyti lyg susilieję ir neryškūs. Visgi klastotojams dažniausiai koją pakiša nenatūrali kūno kalba, tam asmeniui nebūdingas mirksėjimo dažnis ir, žinoma, lūpų judesiai, vis dar neretai atrodantys, kaip primontuoti nuo kito žmogaus“, – giliųjų klastočių atpažinimo būdus vardina pašnekovas.
Vis dėlto specialistas prognozuoja, jog šie paprasti metodai gali nebeveikti jau po poros metų. Piktų kėslų turintys asmenys puikiai supranta dabartinius technologijų ribotumus, todėl investuoja į DI algoritmų tobulinimą ir bando ištaisyti visas jų spragas.
Ateityje – neišvengiamas reguliavimas
Pasak „Telia“ Skaitmeninės pažangos centro eksperto, stebint spartų DI technologijų vystymąsi, neatmestina, kad jau po trejų-ketverių metų viešojoje erdvėje galėtų sklisti plika akimi nuo tikrovės neatskiriamos klastotės, kas kelia didelį pavojų net nacionaliniam saugumui ir visuomenėje vykstantiems procesams. Nenuostabu, kad pasaulyje vis labiau linkstama į griežtesnį „deepfake“ teisinį reguliavimą.
„Pirmoji šiuo keliu žengė Kinija, dar šių metų pradžioje įpareigojusi giliųjų klastočių kūrimo paslaugas teikiančias bendroves gauti naudotojų tapatybes. Ši šalis taip pat nusprendė privalomai ženklinti visą su šia technologija susijusį turinį. Giliųjų klastočių grėsmių neignoruoti nusprendė ir Kanada, be visuomenės švietimo ir investicijų į „deepfake“ aptikimo sprendimus, nusprendusi kurti blogais tikslais platinamas klastotes draudžiančius teisės aktus“, – užsienio praktika dalinasi ekspertas.
„Deepfake“ keliamų rizikų klausimus Europos Sąjunga sprendžia net keliuose svarbiuose teisės norminiuose aktuose, priimtas atskiras ES kovos su dezinformacija praktikos kodeksas bei Skaitmeninių paslaugų aktas, kurie galės daryti žymią įtaką ir didžiausioms technologijų kompanijoms, jų valdomoms socialinių tinklų platformoms.
Europos Sąjunga siekia sistemiškai reguliuoti ir valdyti galimas DI rizikas skirstydama DI sprendimus pagal jų galimai keliamą riziką. Sprendimus prieštaraujančius ES vertybėms ir pažeidžiančius žmogaus teises visiškai drausti, o aukštos rizikos sprendimus griežtai reguliuoti ir kovoti ne tik su pasekmėmis, bet ir taikyti išankstinį reguliavimą, todėl priėmus Dirbtinio Intelekto Aktą galime tikėtis naujų griežtų teisinių priemonių kovojant ir su „deepfake“.