Генеративни алгоритми: Може ли ово постати најразорнија технологија 2020-их?

КРЕДИТ ЗА СЛИКУ:
Слика кредит
иСтоцк

Генеративни алгоритми: Може ли ово постати најразорнија технологија 2020-их?

Генеративни алгоритми: Може ли ово постати најразорнија технологија 2020-их?

Текст поднаслова
Компјутерски генерисани садржај постаје толико људски да га постаје немогуће открити и скренути.
    • Аутор:
    • ime аутора
      Куантумрун Форесигхт
    • 21. фебруара 2023. године

    Упркос раним дубоким лажним скандалима изазваним генеративним алгоритмима, ове технологије вештачке интелигенције (АИ) остају моћно оруђе које многе индустрије – од медијских корпорација до рекламних агенција до филмских студија – користе за креирање уверљивог садржаја. Неки стручњаци тврде да би генеративну вештачку интелигенцију требало пажљивије пратити јер ће способности ових алгоритама вештачке интелигенције ускоро имати потенцијал да искриве и обману јавност, а да не помињемо аутоматизацију огромне количине рада белих оковратника.

    Контекст генеративних алгоритама

    Генеративна АИ, или алгоритми који могу да креирају садржај (укључујући текст, аудио, слику, видео и још много тога) уз минималну људску интервенцију, направили су значајне кораке од 2010-их. На пример, ОпенАИ Генеративе Пре-траинед Трансформер 3 (ГПТ-3) је објављен 2020. године и сматра се најнапреднијом неуронском мрежом те врсте. Може да генерише текст који се практично не разликује од нечега што би особа написала. Затим је у новембру 2022. ОпенАИ објавио ЦхатГПТ, алгоритам који је привукао значајно интересовање потрошача, приватног сектора и медија због своје запањујуће способности да пружи детаљне одговоре на упите корисника и артикулише одговоре у многим доменима.

    Још једна генеративна АИ технологија која постаје све популарнија (и озлоглашена) су деепфакес. Технологија која стоји иза деепфакеса користи генеративне адверсаријске мреже (ГАН), где два алгоритма обучавају један другог да производе слике што ближе оригиналу. Иако ова технологија може звучати компликовано, постала је релативно лака за производњу. Бројне онлајн апликације, као што су Фацесвап и ЗАО Деепсвап, могу креирати дубоке лажне слике, аудио и видео записе за неколико минута (а у неким апликацијама и тренутно).

    Иако су сви ови генеративни АИ алати првобитно развијени за унапређење технологија машина и дубоког учења, они су такође коришћени за неетичке праксе. Дезинформационе и пропагандне кампање нове генерације су успеле користећи ове алате. Синтетички медији, као што су текстови, видео снимци и слике генерисани вештачком интелигенцијом, довели су до поплаве лажних вести. Деепфаке ботови за коментаре су чак коришћени за узнемиравање жена и мањина на мрежи. 

    Ометајући утицај

    Генеративни АИ системи брзо доживљавају широку примену у бројним индустријама. Студија коју је 2022. објавила Асоцијација за рачунарске машине открила је да водеће медијске компаније као што су Ассоциатед Пресс, Форбес, Нев Иорк Тимес, Васхингтон Пост и ПроПублица користе вештачку интелигенцију за генерисање читавих чланака од нуле. Овај садржај укључује извештавање о злочинима, финансијским тржиштима, политици, спортским догађајима и спољним пословима.

    Генеративна АИ се такође чешће користи као улаз приликом писања текстова за различите апликације, било чега, од садржаја који генеришу корисници и компаније до извештаја које пишу владине институције. Када АИ пише текст, његово учешће се обично не открива. Неки су тврдили да, с обзиром на потенцијал за злоупотребу, корисници АИ треба да буду транспарентни у погледу његовог коришћења. У ствари, ова врста откривања ће вероватно постати закон до касних 2020-их, као што је предложено Законом о алгоритамској правди и транспарентности онлајн платформи из 2021. 

    Још једна област у којој је потребно генеративно откривање вештачке интелигенције је оглашавање. Студија из 2021. објављена у Јоурнал оф Адвертисинг открила је да оглашивачи аутоматизују многе процесе за креирање „синтетичких огласа“ генерисаних анализом и модификацијом података. 

    Оглашивачи често користе тактику манипулације како би огласе учинили персонализованијим, рационалнијим или емотивнијим тако да ће потрошачи желети да купе производ. Манипулација огласом укључује сваку промену унесену у рекламу, као што је ретуширање, шминкање и осветљење/угао. Међутим, праксе дигиталне манипулације постале су толико озбиљне да могу изазвати нереалне стандарде лепоте и телесну дисморфију међу тинејџерима. Неколико земаља, попут Велике Британије, Француске и Норвешке, наложило је да оглашивачи и утицајни људи експлицитно наведу да ли је њиховим садржајем манипулисано.

    Импликације генеративних алгоритама

    Шире импликације генеративних алгоритама могу укључивати: 

    • Бројне професионалне професије — као што су софтверски инжењеринг, адвокати, представници служби за кориснике, представници продаје и још много тога — видеће све већу аутоматизацију својих послова ниже вредности. Ова аутоматизација ће побољшати продуктивност просечног радника уз истовремено смањење потребе компанија да запошљавају вишак. Као резултат тога, више компанија (посебно мањих или мање високопрофилираних компанија) ће добити приступ квалификованим стручњацима у критичном периоду када се радна снага широм света смањује због великих пензија.
    • Генеративна вештачка интелигенција се користи за писање мишљења и чланака о вођству мишљења.
    • Повећана употреба генеративне вештачке интелигенције за поједностављење дигиталне верзије, где се истовремено пишу различити углови исте приче.
    • Дубоки лажни садржај који се користи у рекламама и филмовима да би се глумци дестарили или вратили преминули.
    • Деепфаке апликације и технологије постају све приступачније и јефтиније, омогућавајући већем броју људи да учествују у пропаганди и дезинформацијама.
    • Више земаља захтева од компанија да открију употребу садржаја генерисаног вештачком интелигенцијом, личности, писаца, познатих личности и утицајних људи.

    Питања за коментарисање

    • Како се генеративна АИ користи у вашем послу, ако се уопште користи?
    • Које су друге предности и опасности коришћења вештачке интелигенције за масовну производњу садржаја?