Deepfalsaĵoj por amuzo: Kiam deepfalsaĵoj fariĝas distro

BILDA KREDITO:
Bildo kredito
iStock

Deepfalsaĵoj por amuzo: Kiam deepfalsaĵoj fariĝas distro

Deepfalsaĵoj por amuzo: Kiam deepfalsaĵoj fariĝas distro

Subtitolo teksto
Deepfakes havas malbonan reputacion de misgvidaj homoj, sed pli da individuoj uzas vizaĝ-interŝanĝajn apojn por generi interretan enhavon.
    • Aŭtoro:
    • Aŭtora nomo
      Quantumrun Foresight
    • Septembro 23, 2022

    Enrigarda resumo

    Deepfakes transformas kiel ni interagas kun amaskomunikilaro, permesante al uzantoj ŝanĝi vizaĝojn kaj scenojn en fotoj kaj filmetoj facile. Ĉi tiu teknologio, ĉiam pli trovita en ĉiutagaj sociaj amaskomunikiloj kaj programoj, vekas zorgojn pro sia ebla misuzo en kreado de misgvida enhavo kaj malobservado de privateco. Proponante kreivajn eblecojn en distro kaj persona esprimo, deepfalsoj ankaŭ instigas kritikajn diskutojn pri etikaj implicoj kaj la bezono de respondeca uzado.

    Deepfakes por amuza kunteksto

    Deepfakes estas sintezaj amaskomunikiloj, kiuj uzas artefaritan inteligentecon kaj maŝinlernadon (AI/ML) teknologion por prilabori fotojn kaj filmetojn de persono aŭ sceno kaj kombini, anstataŭigi aŭ pliigi ilin kun la simileco de alia persono aŭ sceno. La teknologio estas nuntempe uzata por produkti vidbendojn de konataj homoj, sed ĝi pliiĝas en populareco sur filtriloj pri sociaj amaskomunikiloj. Deepfake-teknologio ofte estas prezentita en popularaj saĝtelefonaj kaj labortablaj aplikoj kiuj permesas al uzantoj ŝanĝi la mimikon de homoj en fotoj kaj vidbendoj.

    Sekve, ĉi tiu teknologio fariĝas pli alirebla per intuiciaj interfacoj kaj ekster-aparata pretigo. Ekzemple, la ĝeneraligita uzo de deepfalsaĵoj en sociaj amaskomunikiloj estis gvidita de la populara vizaĝ-interŝanĝa filtrilo kie individuoj interŝanĝis la vizaĝojn unu de la alia sur siaj porteblaj aparatoj. 

    Deepfakes estas faritaj per Generative Adversarial Network (GAN), metodo en kiu du komputilaj programoj batalas unu la alian por produkti la plej bonajn rezultojn. Unu programo faras la videon, kaj la alia provas vidi erarojn. La rezulto estas rimarkinde realisma kunfandita video. 

    Aktuale en 2023, deepfalsa teknologio estas plejparte alirebla por publiko. Homoj ne plu bezonas komputilajn inĝenierajn kapablojn por krei deepfalsaĵon; ĝi povas esti farita en sekundoj. Estas pluraj deepfals-rilataj GitHub-deponejoj kie homoj kontribuas siajn sciojn kaj kreaĵojn. Laŭ la raporto State of Deepfakes (2023) de cibersekureca servoprovizanto Home Security Heroes, ekzistas proksimume 15 komunumaj retejoj kaj forumoj kun kolektiva membreco de pli ol 609,464 individuoj. 

    Disrompa efiko

    Deepfake-teknologio rapide akiras tiradon en la distra industrio por plibonigi ekzistantan videokvaliton. Ĉar profundaj falsaĵoj povas reprodukti la movojn de la lipoj kaj mimikoj de homo por kongrui kun tio, kion ili diras, ĝi povas helpi en filmaj plibonigoj. La teknologio povas plibonigi nigrajn kaj blankajn filmojn, plibonigi la kvaliton de amatoraj aŭ malalt-buĝetaj filmetoj kaj krei pli realismajn spertojn por internaciaj spektantaroj.

    Ekzemple, deepfalsaĵoj povas produkti kostefikan sinkronigitan aŭdion en multoblaj lingvoj dungante lokajn voĉaktorojn. Plie, deepfalsaĵoj povas helpi en generado de voĉo por aktoro kies voĉa kapablo estis perdita pro malsano aŭ vundo. Deepfakes ankaŭ estas utila por uzi se ekzistas problemoj en sonregistrado dum filmproduktado. 

    Deepfake-teknologio akiras popularecon inter enhavkreantoj, kiuj uzas vizaĝ-interŝanĝajn apojn kiel Reface bazita en Ukrainio. La firmao, Reface, estas interesita pri vastigado de sia teknologio por inkluzivi plenkorpajn interŝanĝojn. Reface-programistoj asertas, ke permesante al ĉi tiu teknologio esti alirita de la amasoj, ĉiuj povas sperti vivi malsaman vivon unu simulitan videon samtempe. 

    Tamen, etikaj zorgoj estas levitaj de la kreskanta nombro da deepfalsaj videoj en sociaj amaskomunikiloj. Unue estas la uzo de deepfalsa teknologio en la pornindustrio, kie homoj alŝutas bildojn de vestitaj virinoj al deepfalsa aplikaĵo kaj "senigi" ilin de siaj vestaĵoj. Ekzistas ankaŭ la uzo de ŝanĝitaj videoj en multaj altprofilaj misinformkampanjoj, precipe dum naciaj elektoj. Kiel rezulto, Google kaj Apple malpermesis profundajn falsajn programojn, kiuj kreas malican enhavon el siaj app-butikoj.

    Implikoj de deepfalsaĵoj por amuzo

    Pli larĝaj implicoj de deepfalsaĵoj por amuzo povas inkluzivi: 

    • Redukto en specialefektaj kostoj por enhavaj kreintoj filmantaj scenojn kiuj implikas altprofilajn individuojn aŭ prezentantajn malproksimajn aŭ danĝerajn pejzaĝojn. 
    • Ĉiam pli altnivelaj aplikaĵoj kaj filtriloj kopiantaj manieraĵojn kaj parolpadronojn, kondukante al pliigo de misinformado kaj kontraŭleĝa uzo de realaj identecoj.
    • Grandaj Teknikaj firmaoj markas programojn, kiuj malobservas datuman privatecon kaj instigas interretan identecŝtelon per deepfalsaĵoj.
    • Registaroj iniciatantaj forigon kontraŭ malicaj programoj, retejoj kaj enhavo, kiuj antaŭenigas nacian malstabilecon, kiel ribeloj.
    • Markoj kontrolas siajn partnerecojn kun influantoj, inkluzive de fonkontroloj, por certigi, ke ili ne estas trompitaj de fraŭdo.
    • La distra industrio uzas pli da deepfalsaĵoj por inkludi forpasintajn aktorojn en aktualaj filmoj, kio povas konduki al procesoj kaj etikaj zorgoj.

    Konsiderindaj demandoj

    • Kiel homoj povas protekti sin kontraŭ profunda falsa misinformado?
    • Kio estas la aliaj eblaj avantaĝoj aŭ riskoj de deepfalsa teknologio?

    Enrigardaj referencoj

    La sekvaj popularaj kaj instituciaj ligiloj estis referenceitaj por ĉi tiu kompreno:

    Laboratorio pri Arta Administrado kaj Teknologio Deepfake Teknologio En La Distra Industrio: Eblaj Limigoj Kaj Protektoj