Franken-Algorithms: Nawala ang mga algorithm

CREDIT NG LARAWAN:
Image credit
iStock

Franken-Algorithms: Nawala ang mga algorithm

Franken-Algorithms: Nawala ang mga algorithm

Teksto ng subheading
Sa mga pag-unlad sa artificial intelligence, ang mga algorithm ay umuunlad nang mas mabilis kaysa sa inaasahan ng mga tao.
    • May-akda:
    • pangalan Author
      Quantumrun Foresight
    • Abril 12, 2023

    Habang nagiging mas advanced ang mga algorithm ng machine learning (ML), nagagawa nilang matuto at umangkop sa mga pattern sa malalaking dataset nang mag-isa. Ang prosesong ito, na kilala bilang "autonomous learning," ay maaaring magresulta sa pagbuo ng algorithm ng sarili nitong code o mga panuntunan upang makagawa ng mga desisyon. Ang isyu dito ay ang code na nabuo ng algorithm ay maaaring mahirap o imposible para sa mga tao na maunawaan, na ginagawang mahirap na matukoy ang mga bias. 

    Konteksto ng Franken-Algorithms

    Ang Franken-Algorithms ay tumutukoy sa mga algorithm (ang mga panuntunang sinusunod ng mga computer kapag nagpoproseso ng data at tumutugon sa mga utos) na naging napakasalimuot at magkakaugnay na hindi na matukoy ng mga tao ang mga ito. Ang termino ay isang tango sa science fiction ni Mary Shelley tungkol sa isang "halimaw" na nilikha ng baliw na siyentipiko na si Dr. Frankenstein. Bagama't ang mga algorithm at code ay ang mga bloke ng pagbuo ng malaking teknolohiya at pinahintulutan ang Facebook at Google na maging mga maimpluwensyang kumpanya na sila ngayon, marami pa rin ang tungkol sa teknolohiya na hindi alam ng mga tao. 

    Kapag ang mga programmer ay bumuo ng mga code at patakbuhin ang mga ito sa pamamagitan ng software, pinapayagan ng ML ang mga computer na maunawaan at mahulaan ang mga pattern. Bagama't inaangkin ng malaking tech na ang mga algorithm ay layunin dahil ang mga emosyon ng tao at hindi mahuhulaan ay hindi nakakaimpluwensya sa kanila, ang mga algorithm na ito ay maaaring mag-evolve at magsulat ng sarili nilang mga panuntunan, na humahantong sa mga mapaminsalang resulta. Ang code na nabuo ng mga algorithm na ito ay kadalasang kumplikado at opaque, na nagpapahirap sa mga mananaliksik o practitioner na bigyang-kahulugan ang mga desisyon ng algorithm o tukuyin ang anumang mga bias na maaaring naroroon sa proseso ng paggawa ng desisyon ng algorithm. Ang roadblock na ito ay maaaring lumikha ng mga makabuluhang hamon para sa mga negosyong umaasa sa mga algorithm na ito upang gumawa ng mga desisyon, dahil maaaring hindi nila maunawaan o maipaliwanag ang pangangatwiran sa likod ng mga desisyong iyon.

    Nakakagambalang epekto

    Kapag naging rogue ang Franken-Algorithms, maaari itong maging isang bagay ng buhay at kamatayan. Ang isang halimbawa ay isang aksidente noong 2018 nang ang isang self-driving na kotse sa Arizona ay tumama at pumatay sa isang babaeng naka-bike. Ang mga algorithm ng kotse ay hindi natukoy nang tama siya bilang isang tao. Ang mga eksperto ay napunit sa ugat ng aksidente-ang kotse ba ay hindi wastong na-program, at ang algorithm ba ay naging masyadong kumplikado para sa sarili nitong kabutihan? Gayunpaman, kung ano ang maaaring sumang-ayon sa mga programmer ay kailangang mayroong isang sistema ng pangangasiwa para sa mga kumpanya ng software—isang code ng etika. 

    Gayunpaman, ang ethics code na ito ay may kasamang ilang pushback mula sa malaking tech dahil nasa negosyo sila ng pagbebenta ng data at mga algorithm, at hindi kayang regulahin o kinakailangang maging transparent. Bukod pa rito, ang isang kamakailang pag-unlad na nagdulot ng pag-aalala para sa mga malalaking tech na empleyado ay ang pagtaas ng paggamit ng mga algorithm sa loob ng militar, tulad ng pakikipagtulungan ng Google sa US Department of Defense upang isama ang mga algorithm sa military tech, tulad ng mga autonomous drone. Ang application na ito ay humantong sa ilang mga empleyado na nagbitiw at ang mga eksperto ay nagpahayag ng mga alalahanin na ang mga algorithm ay hindi pa rin mahuhulaan upang magamit bilang mga makinang pangpatay. 

    Ang isa pang alalahanin ay ang Franken-Algorithms ay maaaring magpatuloy at palakihin ang mga bias dahil sa mga dataset kung saan sila sinanay. Ang prosesong ito ay maaaring humantong sa iba't ibang isyu sa lipunan, kabilang ang diskriminasyon, hindi pagkakapantay-pantay, at maling pag-aresto. Dahil sa mga mas mataas na panganib na ito, maraming tech na kumpanya ang nagsisimulang mag-publish ng kanilang mga etikal na alituntunin sa AI upang maging transparent sa kung paano nila binuo, ginagamit, at sinusubaybayan ang kanilang mga algorithm.

    Mas malawak na implikasyon para sa Franken-Algorithms

    Ang mga potensyal na implikasyon para sa Franken-Algorithm ay maaaring kabilang ang:

    • Pagbuo ng mga autonomous system na maaaring gumawa ng mga desisyon at gumawa ng mga aksyon nang walang pangangasiwa ng tao, na naglalabas ng mga alalahanin tungkol sa pananagutan at kaligtasan. Gayunpaman, maaaring mabawasan ng mga naturang algorithm ang mga gastos sa pagbuo ng software at robotics na maaaring mag-automate ng paggawa ng tao sa karamihan ng mga industriya. 
    • Higit pang pagsisiyasat sa kung paano maaaring i-automate ng mga algorithm ang teknolohiya ng militar at suportahan ang mga autonomous na armas at sasakyan.
    • Tumaas na presyon para sa mga pamahalaan at lider ng industriya na magpatupad ng algorithm code ng etika at mga regulasyon.
    • Ang mga Franken-Algorithms ay hindi katimbang na nakakaapekto sa ilang partikular na demograpikong grupo, gaya ng mga komunidad na may mababang kita o populasyon ng minorya.
    • Ang Franken-Algorithms ay maaaring magpatuloy at magpalakas ng diskriminasyon at pagkiling sa paggawa ng desisyon, tulad ng pag-hire at pagpapahiram ng mga desisyon.
    • Ang mga algorithm na ito ay ginagamit ng mga cybercriminal upang subaybayan at pagsamantalahan ang mga kahinaan sa mga system, partikular sa mga institusyong pampinansyal.
    • Mga pulitikal na aktor na gumagamit ng mga rogue na algorithm para i-automate ang mga kampanya sa marketing gamit ang mga generative AI system sa mga paraan na makakaimpluwensya sa opinyon ng publiko at makaimpluwensya sa mga halalan.

    Mga katanungang dapat isaalang-alang

    • Sa palagay mo, paano bubuo ang mga algorithm sa hinaharap?
    • Ano ang magagawa ng mga pamahalaan at kumpanya para makontrol ang Franken-Algorithms?

    Mga sanggunian ng insight

    Ang mga sumusunod na sikat at institusyonal na link ay isinangguni para sa pananaw na ito: