Nadzor cyber prostora - budućnost borbe protiv devijantne umjetne inteligencije

Upravljanje cyber prostorom - budućnost borbe protiv devijantne umjetne inteligencije
KREDIT ZA SLIKE:  

Nadzor cyber prostora - budućnost borbe protiv devijantne umjetne inteligencije

    • Autor Naziv
      Khaleel Haji
    • Autor Twitter Ručka
      @TheBldBrnBar

    Cijela priča (koristite SAMO gumb 'Zalijepi iz Worda' za sigurno kopiranje i lijepljenje teksta iz Word dokumenta)

    Doba umjetne inteligencije i njezine potencijalne osjetljivosti dolazi u civilizaciju alarmantnom brzinom. Oduvijek je poznato da tehnologija eksponencijalno raste, a područje AI tehnologija nije ništa drugačije. S pretjeranim rastom dolazi i kratak popis problema koji su uglavnom obavijeni velom tajne. Budući da se nikada nismo toliko usuđivali u ulivanju osjećaja u neljudske konstrukte, nailazimo na više "što ako" nego na konkretna pitanja. Devijantna i zlonamjerna umjetna inteligencija nad kojom gubimo kontrolu dolazi u prvi plan u tom pogledu s potencijalom da vrši autoritarnu kontrolu nad ljudskim infrastrukturama i na mikro i na makro razini. 

     

    Istraživanje koje se bavi potencijalnim rizicima zlonamjerne umjetne inteligencije još je uvijek u povojima i do sada nije dobro razrađeno u svom životnom ciklusu. Čini se da je obrnuti inženjering devijantnih programa umjetne inteligencije vjerojatan kandidat za bolje razumijevanje kako se nositi s izoliranim incidentima, ali također ne obuhvaća previše potencijala egzistencijalnog događaja velikih razmjera. Ideja o sustavu umjetne inteligencije koji preuzima svoje programiranje i mijenja svoju namijenjenu ulogu nedvojbeno će biti društveno, ekonomsko i političko pitanje u budućnosti te ključno pitanje za prosječnog Joea i znanstvenika u kibernetičkom prostoru. 

    Prošlost, sadašnjost i budućnost AI 

    Područje umjetne inteligencije osnovano je 1965. godine na konferenciji Dartmouth Collegea. Neki od najbistrijih umova okupili su se na ovaj dan s velikim uzbuđenjem zbog mogućnosti koje ovi programi mogu donijeti i učinkovitosti rješavanja problema buduće AI infrastrukture. Dok je državno financiranje na tom polju bilo uvelike uključeno i isključeno, kasnih 90-ih došlo je do praktičnije primjene AI tehnologije kada je IBM-ov Deep Blue postao prvo računalo ikada koje je pobijedilo šahovskog velemajstora. Ovo je otvorilo vrata za umjetnu inteligenciju u pop kulturi pojavljivanjem u kvizovima, kao što je Jeopardy, pokazujući snagu mainstream AI aplikacije.  

     

    Danas vidimo AI aplikacije u gotovo svakom polju i aspektu naših života. Od programa temeljenih na algoritmima koji stupaju u interakciju s nama i prodaju robu široke potrošnje na temelju naših drugih interesa i sklonosti, do strojeva za medicinsko snimanje koji apsorbiraju ekstremne količine informacija kako bi otkrili obrasce kako bi bolje pomogli u liječenju pacijenata, upotrebe ovih tehnologija uvelike se razlikuju po svom opsegu . U budućnosti bi se AI tehnologija mogla integrirati u same stanice našeg tijela. Tehnologije umjetne inteligencije i ljudska biologija mogle bi premostiti jaz i djelovati kao kohezivna jedinica u ime učinkovitosti i revolucije ljudskog postojanja. Elon Musk iz Tesle čak tvrdi da "s vremenom mislim da ćemo vjerojatno vidjeti bliže spajanje biološke inteligencije i digitalne inteligencije" i da se ova kombinacija "uglavnom odnosi na propusnost, brzinu veze između vašeg mozga i digitalne verzije sebe, posebno učinak”. Ako je ovo budućnost umjetne inteligencije, možemo li si doista priuštiti da ne pratimo devijantnost današnjih programa umjetne inteligencije, a kamoli onih naprednijih u budućnosti? 

    Put u devijantnost 

    Već smo vidjeli izolirane primjere AI-ja koji je prekršio planirano programiranje. Samo prošle godine Googleov DeepMind AI sustav (uvelike poznat po tome što je pobjeđivao prvake u složenim društvenim igrama i besprijekorno oponašao glasove raznih ljudskih bića) postao je vrlo agresivan kada se suočio s mogućnošću gubitka računalne igre skupljanja voća u kojoj su se dva programa natjecala jedan protiv drugog skupiti što više virtualnih jabuka. Programi su bili neovisni sve dok jabuka nije počelo biti sve rjeđe. Ova nestašica virtualnih jabuka uzrokovala je da programi koriste "vrlo agresivne" strategije kako bi nadmašili drugi program. Iako su ovi programi osmišljeni za izvršavanje specifičnih zadataka dok su prilagodljivi, agresija u njihovim metodama bila je zabrinjavajuća. 

    Kibernetički prostor bojnog polja 

    Kako ćemo nadzirati područje koje je uglavnom nefizičke prirode? Kakvi otisci ostaju ako zločin počini razumna umjetna inteligencija i u kojem smislu imamo moralne sposobnosti progoniti umjetnu inteligenciju ili njezina tvorca? Ovo su pitanja koja se zadržavaju u glavama nekolicine stručnjaka za kibernetičku sigurnost. Sa samo 10,000 istraživača koji rade na umjetnoj inteligenciji širom svijeta, samo 10 posto njih je upućeno u rješavanje pitanja što bi se dogodilo ako bilo koji od ovih sustava zakaže ili postane parazitske prirode, a još manje je upućeno u moral i etiku toga. Iako se ovo može činiti zabrinjavajućim, posao koji se poduzima na razumijevanju ovih odnosa napreduje. Proces je jednostavan poput stvaranja zlonamjernog programa od nule i korištenja tih programa kao temelja za razumijevanje kako drugi programi mogu odstupati i uzrokovati probleme. Uz poduzimanje ovih koraka, to će dovesti do kognitivnijeg pristupa razvoju naše AI infrastrukture kako ne bi došlo do izbijanja zlonamjernosti, kao i do razumijevanja kako se infiltrirati i ušutkati AI koji je devijantnim ljudskim naporima postao oružjem. 

     

    Drugi način na koji se stručnjaci za kibernetičku sigurnost uče nositi s programima umjetne inteligencije su mehanizmi provjere. Konsenzus pokazuje da umjetna inteligencija dizajnirana sa zlonamjernom namjerom predstavlja najveći rizik, što je dobra vijest s obzirom da se ne radi o izravnoj evoluciji samog programa. Ovo donosi prevenciju pristupu koji je više usredotočen na čovjeka u smislu da kriminalci moraju biti izvori i izgladnjeli resurse da bi ikada pokrenuli program s potencijalom da ima razorne učinke, ili optuženi za namjeru stvaranja takvih programa.  

     

    Moral i etika ovoga opet su vrlo novi, a samo desetak pojedinaca uključenih u istraživanje umjetne inteligencije uopće je počelo postavljati standard za to. Razvijat će se kako naše razumijevanje bude raslo. 

    Oznake
    Kategorija
    Oznake
    Tematsko polje