Карпаратыўныя сінтэтычныя носьбіты: станоўчы бок дыпфейкаў
Карпаратыўныя сінтэтычныя носьбіты: станоўчы бок дыпфейкаў
Карпаратыўныя сінтэтычныя носьбіты: станоўчы бок дыпфейкаў
- аўтар:
- Студзень 2, 2023
Кароткі агляд
Сінтэтычныя сродкі масавай інфармацыі або тэхналогіі deepfake заслужылі дрэнную рэпутацыю за іх выкарыстанне ў дэзінфармацыі і прапагандзе. Тым не менш, некаторыя кампаніі і ўстановы выкарыстоўваюць гэтую шырокую тэхналогію для паляпшэння паслуг, стварэння лепшых навучальных праграм і прапановы дапаможных інструментаў.
Карпаратыўны сінтэтычны медыякантэкст
Шматлікія версіі сінтэтычнага медыя-кантэнту, створаныя або мадыфікаваныя штучным інтэлектам (AI), як правіла, з дапамогай машыннага і глыбокага навучання, усё часцей прымаюцца для шырокага спектру выпадкаў выкарыстання ў бізнэсе. Па стане на 2022 год гэтыя праграмы ўключаюць у сябе віртуальных памочнікаў, чат-ботаў, якія ствараюць тэкст і маўленне, і віртуальных персанажаў, у тым ліку створанага кампутарам уплывовага чалавека ў Instagram Ліл Мікела, палкоўніка Сандэрса 2.0 з KFC і лічбавай супермадэлі Шуду.
Сінтэтычныя носьбіты змяняюць тое, як людзі ствараюць і ўспрымаюць кантэнт. Нягледзячы на тое, што можа здацца, што штучны інтэлект заменіць стваральнікаў, гэтая тэхналогія, хутчэй за ўсё, дэмакратызуе творчасць і інавацыі кантэнту. У прыватнасці, пастаянныя інавацыі ў інструментах/платформах вытворчасці сінтэтычных носьбітаў дазволяць усё большай колькасці людзей ствараць кантэнт больш высокай якасці, не патрабуючы бюджэтаў на блокбастары.
Кампаніі ўжо выкарыстоўваюць тое, што могуць прапанаваць сінтэтычныя носьбіты. У 2022 годзе стартап транскрыпцыі Descript прадаставіў паслугу, якая дазваляе карыстальнікам змяняць рэплікі дыялогу, прамоўленага ў відэа ці падкасце, рэдагуючы тэкставы сцэнар. Між тым, стартап Synthesia са штучным інтэлектам дазваляе фірмам ствараць навучальныя відэа для персаналу на некалькіх мовах, выбіраючы з розных вядучых і загружаных сцэнарыяў (2022).
Больш за тое, створаныя штучным інтэлектам аватары можна выкарыстоўваць не толькі для забавы. Дакументальны фільм HBO Сардэчна запрашаем у Чачню (2020), фільм пра пераследуемую ЛГБТК-супольнасць у Расіі, выкарыстаў тэхналогію deepfake для накладання твараў апытаных на твары акцёраў, каб абараніць іх асобу. Лічбавыя аватары таксама паказваюць патэнцыял для зніжэння прадузятасці і дыскрымінацыі ў працэсе найму, асабліва для кампаній, адкрытых для найму аддаленых супрацоўнікаў.
Разбуральнае ўздзеянне
Прымяненне тэхналогіі deepfake дае перспектывы ў галіне даступнасці, ствараючы новыя інструменты, якія дазваляюць людзям з абмежаванымі магчымасцямі стаць больш незалежнымі. Напрыклад, у 2022 годзе Seeing.ai ад Microsoft і Lookout ад Google стваралі персаналізаваныя дапаможныя навігацыйныя праграмы для пешаходных паездак. Гэтыя навігацыйныя праграмы выкарыстоўваюць штучны інтэлект для распазнання і сінтэтычны голас для апавядання аб прадметах, людзях і навакольным асяроддзі. Іншы прыклад - Canetroller (2020), тактыльны кантролер тросці, які можа дапамагчы людзям са слабым зрокам арыентавацца ў віртуальнай рэальнасці, імітуючы ўзаемадзеянне тросці. Гэтая тэхналогія можа дазволіць людзям з парушэннямі зроку арыентавацца ў віртуальным асяроддзі, пераносячы рэальныя навыкі ў віртуальны свет, робячы яго больш справядлівым і пашыраючы магчымасці.
У сферы сінтэтычных галасоў у 2018 годзе даследчыкі пачалі распрацоўваць штучныя галасы для людзей з бакавым аміятрафічным склерозам (БАС), неўралагічным захворваннем, якое дзівіць нервовыя клеткі, адказныя за адвольныя рухі цягліц. Сінтэтычны голас дазволіць людзям з БАС мець зносіны і заставацца на сувязі са сваімі блізкімі. Фонд Team Gleason, створаны для Стыва Глісана, былога футбаліста з БАС, забяспечвае тэхналогіі, абсталяванне і паслугі для людзей, якія жывуць з гэтай хваробай. Яны таксама супрацоўнічаюць з іншымі кампаніямі, каб дазволіць распрацоўку сцэнарыяў сінтэтычных носьбітаў, створаных штучным інтэлектам, спецыяльна для асоб, якія маюць справу з БАС.
У той жа час тэхналагічны стартап VOCALiD выкарыстоўвае запатэнтаваную тэхналогію змешвання голасу для стварэння унікальных вакальных персанажаў для любой прылады, якая ператварае тэкст у маўленне для людзей з праблемамі слыху і маўлення. Deepfake voice можа таксама выкарыстоўвацца ў тэрапіі для людзей з дэфектамі маўлення ад нараджэння.
Наступствы прымянення карпаратыўных сінтэтычных сродкаў масавай інфармацыі
Больш шырокія наступствы выкарыстання сінтэтычных носьбітаў у паўсядзённай працы і прымяненні могуць уключаць:
- Кампаніі, якія выкарыстоўваюць сінтэтычныя медыя для ўзаемадзеяння з некалькімі кліентамі адначасова, выкарыстоўваючы некалькі моў.
- Універсітэты, якія прапануюць платформы лічбавых персон, каб вітаць новых студэнтаў і прадастаўляць аздараўленчыя і навучальныя праграмы ў розных фарматах.
- Фірмы, якія выпускаюць сінтэтычныя трэнажоры для праграм онлайн і самападрыхтоўкі.
- Сінтэтычныя памочнікі становяцца ўсё больш даступнымі для людзей з парушэннямі і псіхічнымі расстройствамі, каб служыць іх праваднікамі і асабістымі тэрапеўтамі.
- Рост наступнага пакалення ўплывовых асоб, знакамітасцей, артыстаў і спартсменаў метасусвету AI.
Пытанні для разгляду
- Калі вы спрабавалі тэхналогію сінтэтычных медыя, якія яе перавагі і абмежаванні?
- Якія іншыя патэнцыйныя магчымасці выкарыстання гэтай шырокай тэхналогіі для кампаній і школ?
Спасылкі Insight
Наступныя папулярныя і інстытуцыйныя спасылкі былі выкарыстаны для гэтай інфармацыі: