Generativne adversarilne mreže (GAN): doba sintetičkih medija

KREDIT ZA SLIKU:
Image credit
iStock

Generativne adversarilne mreže (GAN): doba sintetičkih medija

Generativne adversarilne mreže (GAN): doba sintetičkih medija

Tekst podnaslova
Generativne suparničke mreže su revolucionirale strojno učenje, ali se tehnologija sve više koristi za obmanu.
    • Autor:
    • Ime autora
      Quantumrun Foresight
    • Decembar 5, 2023

    Sažetak uvida

    Generativne adversarijske mreže (GAN), poznate po stvaranju dubokih lažiranja, generiraju sintetičke podatke koji oponašaju lica, glasove i manire iz stvarnog života. Njihova upotreba se kreće od poboljšanja Adobe Photoshopa do generiranja realističnih filtera na Snapchatu. Međutim, GAN-ovi predstavljaju etičku zabrinutost, jer se često koriste za stvaranje obmanjujućih lažnih videozapisa i propagiranje dezinformacija. U zdravstvu, postoji zabrinutost zbog privatnosti podataka o pacijentima u GAN obuci. Uprkos ovim problemima, GAN-ovi imaju korisne aplikacije, kao što je pomoć u krivičnim istragama. Njihova rasprostranjena upotreba u različitim sektorima, uključujući snimanje filmova i marketing, dovela je do poziva na strože mjere zaštite privatnosti podataka i vladinu regulaciju GAN tehnologije.

    Kontekst generativnih adversarialnih mreža (GAN).

    GAN je vrsta duboke neuronske mreže koja može generirati nove podatke slične podacima na kojima se trenira. Dva glavna bloka koja se međusobno nadmeću u stvaranju vizionarskih kreacija nazivaju se generator i diskriminator. Generator je odgovoran za kreiranje novih podataka, dok diskriminator pokušava napraviti razliku između generiranih podataka i podataka o obuci. Generator neprestano pokušava prevariti diskriminatora stvarajući informacije koje izgledaju što je moguće realnije. Da bi to uradio, generator treba da nauči osnovnu distribuciju podataka, omogućavajući GAN-ovima da kreiraju nove informacije bez da ih stvarno pamte.

    Kada su GAN-ove prvi put razvili 2014. od strane Google istraživača Iana Goodfellowa i njegovih kolega iz tima, algoritam je pokazao veliko obećanje za mašinsko učenje. Od tada, GAN-ovi su vidjeli mnogo aplikacija u stvarnom svijetu u različitim industrijama. Na primjer, Adobe koristi GAN-ove za Photoshop sljedeće generacije. Google koristi moć GAN-a i za generiranje teksta i za slike. IBM efektivno koristi GAN-ove za povećanje podataka. Snapchat ih koristi za efikasne filtere slika, a Disney za super rezolucije. 

    Ometajući uticaj

    Dok je GAN prvobitno kreiran da poboljša mašinsko učenje, njegove aplikacije su prešle sumnjive teritorije. Na primjer, deepfake video snimci se stalno kreiraju kako bi oponašali stvarne ljude i učinili da izgleda kao da rade ili govore nešto što nisu. Na primjer, postojao je snimak bivšeg američkog predsjednika Baracka Obame koji bivšeg američkog predsjednika Donalda Trumpa naziva pogrdnim izrazom, a izvršni direktor Facebooka Mark Zuckerburg hvali se kako može kontrolirati milijarde ukradenih podataka. Ništa od ovoga se nije dogodilo u stvarnom životu. Osim toga, većina deepfake videa cilja na slavne žene i stavlja ih u pornografski sadržaj. GAN-ovi također mogu kreirati izmišljene fotografije od nule. Na primjer, pokazalo se da je nekoliko duboko lažnih novinarskih naloga na LinkedInu i Twitteru generirano umjetnom inteligencijom. Ovi sintetički profili mogu se koristiti za kreiranje članaka koji zvuče realistično i misaonih lidera koje propagandisti mogu koristiti. 

    U međuvremenu, u zdravstvenom sektoru raste zabrinutost zbog podataka koji mogu procuriti korištenjem stvarne baze podataka pacijenata kao podataka za obuku za algoritme. Neki istraživači tvrde da mora postojati dodatni sigurnosni ili maskirni sloj za zaštitu ličnih podataka. Međutim, iako je GAN uglavnom poznat po svojoj sposobnosti da obmanjuje ljude, on ima pozitivne prednosti. Na primjer, u maju 2022., holandska policija je rekonstruisala video snimak 13-godišnjeg dječaka koji je ubijen 2003. godine. Koristeći realističan snimak žrtve, policija se nada da će ohrabriti ljude da se sjete žrtve i iznesu nove informacije o hladnom slučaju. Policija tvrdi da je već dobila nekoliko dojava, ali da će morati izvršiti provjeru kako bi ih potvrdili.

    Primjena generativnih suparničkih mreža (GAN)

    Neke primjene generativnih suparničkih mreža (GAN) mogu uključivati: 

    • Filmska industrija stvara deepfake sadržaj za postavljanje sintetičkih glumaca i ponovno snimanje scena u postproduciranim filmovima. Ova strategija može dovesti do dugoročne uštede jer neće morati da plaćaju glumcima i ekipi dodatne naknade.
    • Sve veća upotreba lažnih tekstova i videa za promoviranje ideologija i propagande u različitim političkim spektrima.
    • Kompanije koje koriste sintetičke video zapise za kreiranje razrađenih brending i marketinških kampanja bez zapošljavanja stvarnih ljudi osim programera.
    • Grupe koje lobiraju za povećanu zaštitu privatnosti podataka za zdravstvenu zaštitu i druge lične podatke. Ovo odbijanje može pritisnuti kompanije da razviju podatke o obuci koji nisu zasnovani na stvarnim bazama podataka. Međutim, rezultati možda neće biti toliko tačni.
    • Vlade koje regulišu i nadziru firme koje proizvode GAN tehnologiju kako bi osigurale da se tehnologija ne koristi za dezinformacije i prevare.

    Pitanja za komentar

    • Jeste li iskusili korištenje GAN tehnologije? Kakvo je bilo iskustvo?
    • Kako kompanije i vlade mogu osigurati da se GAN koristi etički?