Deepfake for fun: kai deepfake tampa pramoga

VAIZDO KREDITAS:
Paveikslėlio kredito
iSock

Deepfake for fun: kai deepfake tampa pramoga

Deepfake for fun: kai deepfake tampa pramoga

Paantraštės tekstas
Deepfakes turi blogą klaidinančių žmonių reputaciją, tačiau daugiau asmenų ir menininkų naudoja šią technologiją internetiniam turiniui kurti.
    • Autorius:
    • autoriaus vardas
      Quantumrun Foresight
    • Gruodžio 7 d., 2023

    Įžvalgos santrauka



    Deepfake technologija, pasitelkusi AI ir ML, keičia turinio kūrimą įvairiose pramonės šakose. Tai leidžia lengvai keisti nuotraukas ir vaizdo įrašus, populiarius socialinėje žiniasklaidoje dėl veido keitimo funkcijų. Pramogų srityje gilios klastotės pagerina vaizdo kokybę ir palengvina daugiakalbį dubliavimą, pagerindami tarptautinę žiūrėjimo patirtį. Per patogias platformas pasiekiamos gilios klastotės naudojamos filmų patobulinimams, tikroviškų avatarų kūrimui VR/AR aplinkoje, edukaciniams istorinių įvykių atkūrimams ir suasmenintai reklamai. Jie taip pat padeda medicinos mokymuose pasitelkdami realistiškus modeliavimus ir leidžia mados prekių ženklams demonstruoti įvairius virtualius modelius, siūlančius ekonomiškus ir įtraukius turinio kūrimo sprendimus.



    Deepfake teigiamam turinio kūrimo kontekstui



    Deepfake technologija dažnai naudojama populiariose išmaniųjų telefonų ir stalinių kompiuterių programose, kurios leidžia vartotojams keisti žmonių veido išraiškas nuotraukose ir vaizdo įrašuose. Atitinkamai, ši technologija tampa labiau prieinama per intuityvią sąsają ir apdorojimą ne įrenginyje. Pavyzdžiui, socialinėje žiniasklaidoje plačiai paplito giliųjų klastotės, kurias paskatino populiarus veidų apsikeitimo filtras, kai asmenys apsikeitė vienas kito veidais savo mobiliuosiuose įrenginiuose. 



    Deepfake yra kuriamas naudojant generatyvų priešpriešinį tinklą (GAN) – metodą, kai dvi kompiuterinės programos kovoja viena su kita, siekdamos geriausių rezultatų. Viena programa kuria vaizdo įrašą, o kita bando pamatyti klaidas. Rezultatas yra nepaprastai tikroviškas sujungtas vaizdo įrašas. 



    Nuo 2020 m. „deepfake“ technologija daugiausia prieinama visuomenei. Žmonėms nebereikia kompiuterių inžinerijos įgūdžių, kad būtų galima sukurti gilų klastotę; tai galima padaryti per kelias sekundes. Yra keletas su „deepfake“ susijusių „GitHub“ saugyklų, kuriose žmonės prisideda savo žiniomis ir kūriniais. Be to, yra daugiau nei 20 „deepfake“ kūrimo bendruomenių ir virtualių diskusijų lentų (2020). Kai kurios iš šių bendruomenių turi apie 100,000 XNUMX prenumeratorių ir dalyvių. 



    Trikdantis poveikis



    Deepfake technologija pramogų pramonėje sparčiai populiarėja, kad pagerintų esamą vaizdo kokybę. Kadangi gilios klastotės gali atkartoti žmogaus lūpų judesius ir veido išraiškas, kad atitiktų tai, ką jie sako, jie gali padėti tobulinti filmą. Ši technologija gali pagerinti nespalvotus filmus, pagerinti mėgėjiškų ar mažo biudžeto vaizdo įrašų kokybę ir sukurti tikroviškesnę patirtį tarptautinei auditorijai. Pavyzdžiui, „deepfakes“ gali sukurti ekonomiškai efektyvų dubliuotą garsą keliomis kalbomis, pasitelkus vietinius balso aktorius. Be to, gilios klastotės gali padėti sukurti balsą aktoriui, kurio vokaliniai gebėjimai buvo prarasti dėl ligos ar sužalojimo. Deepfake taip pat naudinga naudoti, jei filmo gamybos metu kyla garso įrašymo problemų. 



    „Deepfake“ technologija populiarėja tarp turinio kūrėjų, kurie naudoja veidus keičiančias programėles, tokias kaip Ukrainoje veikianti „Reface“. Bendrovė „Reface“ yra suinteresuota išplėsti savo technologijas, kad apimtų viso kūno mainus. „Reface“ kūrėjai teigia, kad leisdami šią technologiją pasiekti masėms, kiekvienas gali patirti skirtingą gyvenimą po vieną imituojamą vaizdo įrašą. 



    Tačiau socialinėje žiniasklaidoje didėjantis giliai padirbtų vaizdo įrašų skaičius kelia etinių problemų. Pirma, pornografijos pramonėje naudojamos gilios klastotės technologijos, kai žmonės įkelia apsirengusių moterų nuotraukas į giliai padirbtų programų programą ir „nuima“ joms drabužius. Taip pat pakeisti vaizdo įrašai naudojami daugelyje didelio atgarsio sulaukusių dezinformacijos kampanijų, ypač per nacionalinius rinkimus. Dėl to „Google“ ir „Apple“ uždraudė „deepfake“ programinę įrangą, kuri sukuria kenkėjišką turinį jų programų parduotuvėse.



    Deepfake naudojimo turiniui kurti pasekmės



    Platesnė giliųjų klastotės reikšmė kuriant turinį gali būti tokia: 




    • Sumažėja specialiųjų efektų sąnaudos turinio kūrėjams, filmuojantiems scenas, kuriose dalyvauja garsūs asmenys, senstantys aktoriai, pakeičiantys aktorius, kurių negalima filmuoti iš naujo, arba vaizduoja atokias ar pavojingas dekoracijas. 

    • Realiai sinchronizuojami aktorių lūpų judesiai su dubliuotu garsu įvairiomis kalbomis, pagerinant tarptautinės auditorijos žiūrėjimo patirtį.

    • Kurkite tikroviškus skaitmeninius pseudoportretus ir personažus VR ir AR aplinkose, praturtindami įtraukiantį naudotojų patirtį.

    • Atkurti istorines asmenybes ar įvykius edukaciniais tikslais, leidžiant mokiniams ryškiau patirti istorines kalbas ar įvykius.

    • Prekės ženklai, kuriantys labiau suasmenintą reklamą, pvz., įvairiose regioninėse rinkose populiarūs garsenybių atstovai, keičiantys jų išvaizdą ar kalbą, išlaikant autentiškumą.

    • Mados prekės ženklai, demonstruojantys drabužius ir aksesuarus kurdami įvairius virtualius modelius, skatinančius įtraukų reprezentaciją be logistinių tradicinių fotosesijų iššūkių.

    • Medicinos mokymo įrenginiai, sukuriantys realius pacientų modelius medicinos mokymams, padedantys praktikams išmokti diagnozuoti ir gydyti įvairias būkles kontroliuojamoje virtualioje aplinkoje.



    Klausimai komentuoti




    • Kaip žmonės gali apsisaugoti nuo netikros dezinformacijos?

    • Kokie yra kiti galimi giliosios klastotės technologijos pranašumai ar rizika?


    Įžvalgos nuorodos

    Šioje įžvalgoje buvo nurodytos šios populiarios ir institucinės nuorodos: