Deepfake for fun: kai deepfake tampa pramoga

VAIZDO KREDITAS:
Paveikslėlio kredito
iStock

Deepfake for fun: kai deepfake tampa pramoga

Deepfake for fun: kai deepfake tampa pramoga

Paantraštės tekstas
Deepfakes turi blogą klaidinančių žmonių reputaciją, tačiau vis daugiau žmonių naudoja veido keitimo programas, kad sukurtų internetinį turinį.
    • Autorius:
    • autoriaus vardas
      Quantumrun Foresight
    • Rugsėjis 23, 2022

    Įžvalgos santrauka

    Deepfakes keičia mūsų sąveiką su medija, todėl naudotojai gali lengvai keisti veidus ir scenas nuotraukose ir vaizdo įrašuose. Ši technologija, vis dažniau randama kasdienėse socialinės žiniasklaidos programose ir programinėje įrangoje, kelia susirūpinimą dėl galimo netinkamo jos naudojimo kuriant klaidinantį turinį ir pažeidžiant privatumą. Siūlydami kūrybines pramogų ir asmeninės išraiškos galimybes, gilios klastotės taip pat skatina kritines diskusijas apie etines pasekmes ir atsakingo naudojimo poreikį.

    Deepfakes linksmam kontekstui

    Deepfake yra sintetinė laikmena, kuri naudoja dirbtinio intelekto ir mašininio mokymosi (AI/ML) technologiją asmens ar scenos nuotraukoms ir vaizdo įrašams apdoroti ir sujungti, pakeisti arba papildyti kito asmens ar scenos panašumu. Šiuo metu ši technologija naudojama kuriant gerai žinomų žmonių vaizdo įrašus, tačiau ji vis populiarėja naudojant socialinės žiniasklaidos programų filtrus. Deepfake technologija dažnai naudojama populiariose išmaniųjų telefonų ir stalinių kompiuterių programose, kurios leidžia vartotojams keisti žmonių veido išraiškas nuotraukose ir vaizdo įrašuose.

    Atitinkamai, ši technologija tampa labiau prieinama per intuityvią sąsają ir apdorojimą ne įrenginyje. Pavyzdžiui, socialinėje žiniasklaidoje plačiai paplito giliųjų klastotės, kurias paskatino populiarus veidų apsikeitimo filtras, kai asmenys keitė vienas kito veidus savo mobiliuosiuose įrenginiuose. 

    Deepfake yra kuriamas naudojant generatyvų priešpriešinį tinklą (GAN) – metodą, kai dvi kompiuterinės programos kovoja viena su kita, siekdamos geriausių rezultatų. Viena programa kuria vaizdo įrašą, o kita bando pamatyti klaidas. Rezultatas yra nepaprastai tikroviškas sujungtas vaizdo įrašas. 

    Nuo 2023 m. „deepfake“ technologija daugiausia prieinama visuomenei. Žmonėms nebereikia kompiuterių inžinerijos įgūdžių, kad būtų galima sukurti gilų klastotę; tai galima padaryti per kelias sekundes. Yra keletas su „deepfake“ susijusių „GitHub“ saugyklų, kuriose žmonės prisideda savo žiniomis ir kūriniais. Remiantis kibernetinio saugumo paslaugų teikėjo „Home Security Heroes“ 2023 m. „State of Deepfakes“ ataskaita, yra maždaug 15 „deepfake“ kūrimo bendruomenės svetainių ir forumų, kuriuose bendrai priklauso daugiau nei 609,464 XNUMX asmenys. 

    Trikdantis poveikis

    Deepfake technologija pramogų pramonėje sparčiai populiarėja, kad pagerintų esamą vaizdo kokybę. Kadangi gilios klastotės gali atkartoti žmogaus lūpų judesius ir veido išraiškas, kad atitiktų tai, ką jie sako, tai gali padėti patobulinti filmą. Ši technologija gali pagerinti nespalvotus filmus, pagerinti mėgėjiškų ar mažo biudžeto vaizdo įrašų kokybę ir sukurti tikroviškesnę patirtį tarptautinei auditorijai.

    Pavyzdžiui, „deepfake“ gali sukurti ekonomiškai efektyvų dubliuotą garsą keliomis kalbomis, pasitelkus vietinius balso aktorius. Be to, gilios klastotės gali padėti sukurti balsą aktoriui, kurio vokaliniai gebėjimai buvo prarasti dėl ligos ar sužalojimo. Deepfake taip pat naudinga naudoti, jei filmo gamybos metu kyla garso įrašymo problemų. 

    „Deepfake“ technologija populiarėja tarp turinio kūrėjų, kurie naudoja veidus keičiančias programėles, tokias kaip Ukrainoje veikianti „Reface“. Bendrovė „Reface“ yra suinteresuota išplėsti savo technologijas, kad apimtų viso kūno mainus. „Reface“ kūrėjai teigia, kad leisdami šią technologiją pasiekti masėms, kiekvienas gali patirti skirtingą gyvenimą po vieną imituojamą vaizdo įrašą. 

    Tačiau socialinėje žiniasklaidoje didėjantis giliai padirbtų vaizdo įrašų skaičius kelia etinių problemų. Pirma, pornografijos pramonėje naudojamos gilios klastotės technologijos, kai žmonės įkelia apsirengusių moterų nuotraukas į giliai padirbtų programų programą ir „nuima“ joms drabužius. Taip pat pakeisti vaizdo įrašai naudojami daugelyje didelio atgarsio sulaukusių dezinformacijos kampanijų, ypač per nacionalinius rinkimus. Dėl to „Google“ ir „Apple“ uždraudė „deepfake“ programinę įrangą, kuri sukuria kenkėjišką turinį jų programų parduotuvėse.

    Deepfake pasekmės pramogoms

    Platesnė „deepfake“ pramoga gali būti tokia: 

    • Sumažėja specialiųjų efektų išlaidos turinio kūrėjams, filmuojantiems scenas, kuriose dalyvauja garsūs asmenys arba kuriose yra atokių ar pavojingų peizažų. 
    • Vis sudėtingesnės programos ir filtrai, kopijuojantys manieras ir kalbos modelius, todėl daugėja dezinformacijos ir neteisėto realaus gyvenimo tapatybės naudojimo.
    • „Big Tech“ įmonės pažymi programas, kurios pažeidžia duomenų privatumą ir skatina internetinę tapatybės vagystę naudojant gilius klastojimus.
    • Vyriausybės, pradedančios susidoroti su kenkėjiškomis programomis, svetainėmis ir turiniu, skatinančiu nacionalinį nestabilumą, pvz., sukilimus.
    • Prekės ženklai tikrina savo partnerystę su influenceriais, įskaitant biografijos patikrinimus, siekdami užtikrinti, kad jų neklaidintų sukčiavimas.
    • Pramogų pramonė naudoja daugiau klastočių, kad į dabartinius filmus įtrauktų mirusius aktorius, todėl gali kilti ieškinių ir etinių problemų.

    Klausimai, kuriuos reikia apsvarstyti

    • Kaip žmonės gali apsisaugoti nuo netikros dezinformacijos?
    • Kokie yra kiti galimi giliosios klastotės technologijos pranašumai ar rizika?

    Įžvalgos nuorodos

    Šioje įžvalgoje buvo nurodytos šios populiarios ir institucinės nuorodos: