Paano magdedepensa ang mga tao laban sa isang Artipisyal na Superintelligence: Kinabukasan ng artificial intelligence P5

CREDIT NG LARAWAN: Quantumrun

Paano magdedepensa ang mga tao laban sa isang Artipisyal na Superintelligence: Kinabukasan ng artificial intelligence P5

    Ang taon ay 65,000 BCE, at bilang a Thylacoleo, ikaw at ang iyong uri ay ang mga dakilang mangangaso ng sinaunang Australia. Malaya kang gumala sa lupain at nanirahan sa balanse kasama ang mga kapwa mandaragit at biktima na sumakop sa lupa sa tabi mo. Ang mga panahon ay nagdala ng pagbabago, ngunit ang iyong katayuan sa kaharian ng mga hayop ay nanatiling hindi hinamon hangga't naaalala mo at ng iyong mga ninuno. Then one day, may mga bagong dating.

    Ang bulung-bulungan ay dumating sila mula sa higanteng pader ng tubig, ngunit ang mga nilalang na ito ay tila mas komportableng manirahan sa lupa. Kailangan mong makita ang mga nilalang na ito para sa iyong sarili.

    Tumagal ng ilang araw, ngunit nakarating ka rin sa baybayin. Ang apoy sa kalangitan ay lumulubog, isang perpektong oras upang tiktikan ang mga nilalang na ito, marahil ay subukang kainin ang isa upang makita kung ano ang lasa ng mga ito.

    Nakita mo ang isa.

    Naglakad ito sa dalawang paa at walang balahibo. Nagmukha itong mahina. Hindi kapani-paniwala. Halos hindi katumbas ng halaga ang takot na dulot nito sa kaharian.

    Nagsisimula kang maingat na gawin ang iyong paglapit habang tinataboy ng gabi ang liwanag. Papalapit ka na. Tapos nag-freeze ka. Umalingawngaw ang malalakas na ingay at pagkatapos ay apat pa sa kanila ang lumabas sa kagubatan sa likod nito. ilan sila?

    Sinusundan ng nilalang ang iba sa treeline, at sumunod ka. At habang ginagawa mo, mas maraming kakaibang tunog ang iyong maririnig hanggang sa mas marami ka pang makita sa mga nilalang na ito. Sumunod ka sa malayo habang palabas sila ng kagubatan patungo sa isang clearing sa tabi ng dalampasigan. Marami sa kanila. Ngunit mas mahalaga, lahat sila ay kalmado na nakaupo sa paligid ng apoy.

    Nakita mo na ang mga apoy na ito dati. Sa mainit na panahon, kung minsan ang apoy sa kalangitan ay bumibisita sa lupain at nasusunog ang buong kagubatan. Ang mga nilalang na ito, sa kabilang banda, kahit papaano ay kinokontrol nila ito. Anong uri ng mga nilalang ang maaaring magkaroon ng gayong kapangyarihan?

    Tumingin ka sa malayo. Marami pa ang dumarating sa ibabaw ng higanteng pader ng tubig.

    Umatras ka ng isang hakbang.

    Ang mga nilalang na ito ay hindi katulad ng iba sa kaharian. Sila ay isang bagay na ganap na bago.

    Nagpasya kang umalis at balaan ang iyong mga kamag-anak. Kung ang kanilang bilang ay lumaki nang napakalaki, sino ang nakakaalam kung ano ang maaaring mangyari.

    ***

    Ito ay pinaniniwalaan na ang Thylacoleo ay nawala nang medyo maikling panahon pagkatapos ng pagdating ng mga tao, kasama ang karamihan ng iba pang megafauna sa kontinente ng Australia. Walang ibang apex mammalian predator ang pumalit—iyon ay maliban kung bibilangin mo ang mga tao sa kategoryang iyon.

    Ang paglalaro sa alegorya na ito ay ang pokus ng seryeng kabanata: Ang isang hinaharap bang artificial superintelligence (ASI) ay gagawin tayong lahat sa mga baterya at pagkatapos ay isaksak tayo sa Matrix o ang mga tao ay gagawa ng paraan upang maiwasang maging biktima ng isang sci-fi, AI doomsday plot?

    Sa ngayon sa aming serye sa Kinabukasan ng Artipisyal na Katalinuhan, na-explore namin ang lahat ng uri ng AI, kabilang ang positibong potensyal ng isang partikular na anyo ng AI, ang ASI: isang artipisyal na nilalang na ang katalinuhan sa hinaharap ay magmumukha tayong mga langgam kung ihahambing.

    Ngunit sino ang magsasabi na ang isang nilalang na matalino ay tatanggap ng mga utos mula sa mga tao magpakailanman. Ano ang gagawin natin kung ang mga bagay ay pumunta sa timog? Paano tayo magtatanggol laban sa isang buhong na ASI?

    Sa kabanatang ito, aalisin natin ang huwad na hype—kahit na may kaugnayan ito sa mga panganib sa 'antas ng pagkalipol ng tao'—at tututuon ang mga makatotohanang opsyon sa pagtatanggol sa sarili na magagamit sa mga pamahalaan ng mundo.

    Maaari ba nating ihinto ang lahat ng karagdagang pananaliksik sa isang artipisyal na superintelligence?

    Dahil sa mga potensyal na panganib na maaaring idulot ng isang ASI sa sangkatauhan, ang unang malinaw na tanong na itatanong ay: Hindi ba natin mapipigilan ang lahat ng karagdagang pananaliksik sa AI? O hindi bababa sa ipagbawal ang anumang pananaliksik na maaaring maging mapanganib na malapit sa paglikha ng isang ASI?

    Maikling sagot: Hindi.

    Mahabang sagot: Tingnan natin ang iba't ibang manlalaro na kasangkot dito.

    Sa antas ng pananaliksik, napakaraming AI researcher ngayon mula sa napakaraming startup, kumpanya, at unibersidad sa buong mundo. Kung nagpasya ang isang kumpanya o bansa na limitahan ang kanilang mga pagsusumikap sa pananaliksik sa AI, magpapatuloy lamang sila sa ibang lugar.

    Samantala, ang pinakamahalagang kumpanya ng planeta ay gumagawa ng kanilang kapalaran mula sa kanilang aplikasyon ng mga AI system sa kanilang mga partikular na negosyo. Ang paghiling sa kanila na ihinto o limitahan ang kanilang pagbuo ng mga tool sa AI ay katulad ng paghiling sa kanila na ihinto o limitahan ang kanilang paglago sa hinaharap. Sa pananalapi, ito ay nagbabanta sa kanilang pangmatagalang negosyo. Sa legal, ang mga korporasyon ay may pananagutan sa pananagutan na patuloy na bumuo ng halaga para sa kanilang mga stakeholder; nangangahulugan iyon na anumang aksyon na maglilimita sa paglaki ng halagang iyon ay maaaring humantong sa isang demanda. At kung sinubukan ng sinumang politiko na limitahan ang pagsasaliksik ng AI, ang mga higanteng korporasyong ito ay magbabayad lamang ng mga kinakailangang bayarin sa lobbying upang baguhin ang kanilang isip o ang isip ng kanilang mga kasamahan.

    Para sa labanan, tulad ng mga terorista at mga mandirigma ng kalayaan sa buong mundo na gumamit ng mga taktikang gerilya upang labanan ang mas mahusay na pinondohan na mga militar, ang mas maliliit na bansa ay magkakaroon ng insentibo na gamitin ang AI bilang isang katulad na taktikal na kalamangan laban sa mas malalaking bansa na maaaring may ilang mga bentahe sa militar. Gayundin, para sa mga nangungunang militar, tulad ng pag-aari ng US, Russia at China, ang pagbuo ng isang militar na ASI ay katumbas ng pagkakaroon ng arsenal ng mga sandatang nuklear sa iyong bulsa sa likod. Sa madaling salita, ang lahat ng militar ay magpapatuloy sa pagpopondo sa AI para lamang manatiling may kaugnayan sa hinaharap.

    Paano ang mga gobyerno? Sa totoo lang, karamihan sa mga pulitiko sa mga araw na ito (2018) ay hindi marunong bumasa at sumulat at may kaunting pag-unawa sa kung ano ang AI o potensyal nito sa hinaharap—na ginagawa nitong madaling manipulahin ng mga interes ng korporasyon.

    At sa isang pandaigdigang antas, isaalang-alang kung gaano kahirap kumbinsihin ang mga pamahalaan ng mundo na lagdaan ang 2015 Kasunduan sa Paris upang harapin ang pagbabago ng klima—at kapag napirmahan na, marami sa mga obligasyon ay hindi man lang nagbubuklod. Hindi lamang iyon, ang pagbabago ng klima ay isang isyu na pisikal na nararanasan ng mga tao sa buong mundo sa pamamagitan ng dumaraming madalas at malalang mga kaganapan sa panahon. Ngayon, kapag pinag-uusapan ang tungkol sa pagsang-ayon sa mga limitasyon sa AI, ito ay isang isyu na halos hindi nakikita at halos hindi maintindihan ng publiko, kaya good luck sa pagkuha ng buy-in para sa anumang uri ng 'Paris Agreement' para sa paglilimita sa AI.

    Sa madaling salita, napakaraming interes sa pagsasaliksik ng AI para sa kanilang sariling layunin upang ihinto ang anumang pananaliksik na maaaring humantong sa isang ASI. 

    Maaari ba tayong magkulong ng isang artipisyal na superintelligence?

    Ang susunod na makatuwirang tanong ay maaari ba nating kulungan o kontrolin ang isang ASI sa sandaling hindi natin maiiwasang lumikha ng isa? 

    Maikling sagot: Muli, hindi.

    Mahabang sagot: Hindi mapipigil ang teknolohiya.

    Para sa isa, isaalang-alang lamang ang libu-libo hanggang milyon-milyong mga web developer at computer scientist sa mundo na patuloy na gumagawa ng bagong software o mga bagong bersyon ng kasalukuyang software. Masasabi ba nating tapat na ang bawat isa sa kanilang mga inilabas na software ay 100 porsiyentong walang bug? Ang mga bug na ito ang ginagamit ng mga propesyonal na hacker upang nakawin ang impormasyon ng credit card ng milyun-milyon o ang mga lihim na lihim ng mga bansa—at ito ay mga taong hacker. Para sa isang ASI, ipagpalagay na mayroon itong insentibo upang makatakas sa digital cage nito, kung gayon ang proseso ng paghahanap ng mga bug at paglusot sa software ay magiging madali.

    Ngunit kahit na ang isang pangkat ng pananaliksik ng AI ay nakaisip ng isang paraan upang i-box ang isang ASI, hindi iyon nangangahulugan na ang susunod na 1,000 mga koponan ay malalaman din ito o ma-incentivized na gamitin ito.

    Aabutin ng bilyun-bilyong dolyar at maaaring mga dekada pa para makalikha ng ASI. Ang mga korporasyon o gobyerno na namumuhunan sa ganitong uri ng pera at oras ay aasahan ang malaking kita sa kanilang pamumuhunan. At para sa isang ASI na makapagbigay ng ganoong uri ng pagbabalik—maglalaro man iyon sa stock market o mag-imbento ng bagong bilyong dolyar na produkto o magplano ng panalong diskarte upang labanan ang mas malaking hukbo—kailangan nito ng libreng access sa isang higanteng set ng data o maging sa Internet mismo upang makagawa ng mga pagbabalik.

    At sa sandaling magkaroon ng access ang isang ASI sa mga network ng mundo, walang mga garantiya na maibabalik namin ito sa hawla nito.

    Maaari bang matutong maging mabuti ang isang artificial superintelligence?

    Sa ngayon, ang mga mananaliksik ng AI ay hindi nag-aalala tungkol sa isang ASI na nagiging masama. Ang buong kasamaan, AI sci-fi trope ay mga tao lamang na muling nag-antropomorphize. Ang hinaharap na ASI ay hindi magiging mabuti o masama—mga konsepto ng tao—sa simpleng amoral.

    Ang natural na pag-aakalang ibinigay sa blangkong etikal na slate na ito, ang mga mananaliksik ng AI ay maaaring mag-program sa unang mga etikal na code ng ASI na naaayon sa ating sarili upang hindi ito mawalan ng mga Terminator sa amin o gawing Matrix na mga baterya ang lahat.

    Ngunit ang pagpapalagay na ito ay nagmumula sa pangalawang palagay na ang mga mananaliksik ng AI ay mga eksperto din sa etika, pilosopiya, at sikolohiya.

    Sa totoo lang, karamihan ay hindi.

    Ayon sa cognitive psychologist at may-akda, si Steven Pinker, ang katotohanang ito ay nangangahulugan na ang gawain ng coding ethics ay maaaring magkamali sa iba't ibang paraan.

    Halimbawa, kahit na ang mga mananaliksik ng AI na may pinakamabuting intensyon ay maaaring hindi sinasadyang mag-code sa mga ASI na ito na hindi maganda ang pag-iisip ng mga etikal na code na sa ilang partikular na sitwasyon ay maaaring maging sanhi ng ASI na kumilos bilang isang sociopath.

    Gayundin, may pantay na posibilidad na ang isang AI researcher ay nagprograma ng mga etikal na code na kinabibilangan ng mga likas na bias ng mananaliksik. Halimbawa, paano kikilos ang isang ASI kung binuo gamit ang etika na nagmula sa isang konserbatibo kumpara sa liberal na pananaw, o mula sa isang Buddhist kumpara sa isang Kristiyano o tradisyon ng Islam?

    Sa palagay ko nakikita mo ang isyu dito: Walang unibersal na hanay ng mga moral ng tao. Kung gusto nating kumilos ang ating ASI ayon sa isang etikal na code, saan ito manggagaling? Anong mga panuntunan ang isinasama at ibinubukod natin? Sino ang magdedesisyon?

    O sabihin nating ang mga AI researcher na ito ay lumikha ng isang ASI na ganap na naaayon sa mga modernong pamantayan at batas sa kultura ngayon. Pagkatapos ay ginagamit namin ang ASI na ito upang matulungan ang mga pederal, estado/probinsiyal, at mga munisipal na burukrasya na gumana nang mas mahusay at mas mahusay na ipatupad ang mga pamantayan at batas na ito (isang malamang na kaso ng paggamit para sa isang ASI kung tutuusin). Well, ano ang mangyayari kapag nagbago ang ating kultura?

    Isipin na ang isang ASI ay nilikha ng Simbahang Katoliko sa kasagsagan ng kapangyarihan nito noong Medieval Europe (1300-1400s) na may layuning tulungan ang simbahan na pamahalaan ang populasyon at tiyakin ang mahigpit na pagsunod sa relihiyosong dogma ng panahong iyon. Makalipas ang mga siglo, tatamasahin kaya ng mga kababaihan ang parehong mga karapatan tulad ng ginagawa nila ngayon? Mapoprotektahan ba ang mga minorya? Isusulong ba ang malayang pananalita? Maipapatupad ba ang paghihiwalay ng simbahan at estado? Makabagong agham?

    Sa madaling salita, gusto ba nating ikulong ang hinaharap sa mga moral at kaugalian ngayon?

    Ang isang alternatibong diskarte ay isa na ibinahagi ni Colin Allen, co-author ng libro, Moral Machines: Pagtuturo sa mga Robot Mula sa Mali. Sa halip na subukang mag-code ng mahigpit na mga tuntunin sa etika, mayroon kaming ASI na matuto ng mga karaniwang etika at moralidad sa parehong paraan na ginagawa ng mga tao, sa pamamagitan ng karanasan at pakikipag-ugnayan sa iba.

    Ang problema dito, gayunpaman, ay kung ang mga mananaliksik ng AI ay nauunawaan hindi lamang kung paano ituro sa isang ASI ang ating kasalukuyang mga kultural at etikal na pamantayan, kundi pati na rin kung paano umangkop sa mga bagong kultural na pamantayan habang lumilitaw ang mga ito (isang tinatawag na 'di-tuwirang normativity'), kung gayon paano ang ASI na ito ay nagpasya na baguhin ang kanyang pag-unawa sa mga kultural at etikal na pamantayan ay nagiging hindi mahuhulaan.

    At iyon ang hamon.

    Sa isang banda, maaaring subukan ng mga mananaliksik ng AI na mag-coding ng mga mahigpit na pamantayan sa etika o mga panuntunan sa ASI upang subukan at kontrolin ang pag-uugali nito, ngunit ipagsapalaran ang mga hindi inaasahang kahihinatnan na ipinakilala mula sa sloppy coding, hindi sinasadyang bias, at mga pamantayan ng lipunan na maaaring maging luma na sa isang araw. Sa kabilang banda, maaari nating subukang sanayin ang ASI na matutong unawain ang etika at moral ng tao sa paraang katumbas o higit sa ating sariling pang-unawa at pagkatapos ay umaasa na maaari nitong tumpak na mabago ang pag-unawa sa etika at moralidad habang umuunlad ang lipunan ng tao pasulong sa mga darating na dekada at siglo.

    Sa alinmang paraan, anumang pagtatangka na ihanay ang mga layunin ng ASI sa sarili nating sarili ay naghahatid ng malaking panganib.

    Paano kung ang mga masasamang aktor ay sadyang lumikha ng masamang artificial superintelligence?

    Dahil sa tren ng pag-iisip na nakabalangkas sa ngayon, isang patas na tanong ang magtanong kung posible para sa isang teroristang grupo o buhong na bansa na lumikha ng isang 'masamang' ASI para sa kanilang sariling layunin.

    Ito ay napaka posible, lalo na pagkatapos ng pananaliksik na kasangkot sa paglikha ng isang ASI maging available online kahit papaano.

    Ngunit tulad ng ipinahiwatig sa mas maaga, ang mga gastos at kadalubhasaan na kasangkot sa paglikha ng unang ASI ay magiging napakalaki, ibig sabihin, ang unang ASI ay malamang na gagawin ng isang organisasyon na kontrolado o labis na naiimpluwensyahan ng isang maunlad na bansa, malamang na ang US, China, at Japan ( Ang Korea at isa sa mga nangungunang bansa sa EU ay long shot).

    Ang lahat ng mga bansang ito, bagama't mga kakumpitensya, bawat isa ay may malakas na pang-ekonomiyang insentibo upang mapanatili ang kaayusan ng mundo-ang mga ASI na kanilang nilikha ay magpapakita ng pagnanais na iyon, kahit na itinataguyod ang mga interes ng mga bansang kanilang inihanay.

    Higit pa riyan, ang teoretikal na katalinuhan at kapangyarihan ng isang ASI ay katumbas ng kapangyarihan sa pag-compute na makukuha nito, ibig sabihin, ang mga ASI mula sa mga mauunlad na bansa (na kayang bayaran ang isang bungkos ng bilyong dolyar supercomputers) ay magkakaroon ng napakalaking kalamangan sa mga ASI mula sa mas maliliit na bansa o mga independiyenteng grupong kriminal. Gayundin, ang mga ASI ay nagiging mas matalino, mas mabilis sa paglipas ng panahon.

    Kaya, dahil sa simulang ito, na sinamahan ng higit na access sa raw computing power, kung ang isang malabong organisasyon/bansa ay lumikha ng isang mapanganib na ASI, ang mga ASI mula sa mga mauunlad na bansa ay papatayin ito o ikukulong ito.

    (Ang linya ng pag-iisip na ito rin ang dahilan kung bakit naniniwala ang ilang mananaliksik ng AI na magkakaroon lamang ng isang ASI sa planeta, dahil ang unang ASI ay magkakaroon ng ganoong ulo sa lahat ng mga susunod na ASI na maaaring makita ang mga hinaharap na ASI bilang mga banta na papatayin. preemptively. Isa pa itong dahilan kung bakit pinopondohan ng mga bansa ang patuloy na pananaliksik sa AI, kung sakaling ito ay maging isang 'unang lugar o wala' na kumpetisyon.)

    Ang katalinuhan ng ASI ay hindi bibilis o sasabog tulad ng iniisip natin

    Hindi namin mapipigilan ang isang ASI na malikha. Hindi natin ito makokontrol ng buo. Hindi tayo makatitiyak na ito ay palaging kikilos alinsunod sa ating ibinahaging kaugalian. Geez, nagsisimula na kaming magmukhang mga magulang ng helicopter dito!

    Ngunit kung ano ang naghihiwalay sa sangkatauhan mula sa iyong karaniwang overprotective na magulang ay na tayo ay nagsilang ng isang nilalang na ang katalinuhan ay lalago nang higit sa atin. (At hindi, hindi ito katulad ng kapag hilingin sa iyo ng iyong mga magulang na ayusin ang kanilang computer tuwing uuwi ka para bumisita.) 

    Sa mga nakaraang kabanata ng hinaharap na serye ng artificial intelligence, tinuklas namin kung bakit iniisip ng mga mananaliksik ng AI na ang katalinuhan ng isang ASI ay lalago nang hindi makontrol. Ngunit dito, sasabog natin ang bula na iyon ... uri ng. 

    Nakikita mo, ang katalinuhan ay hindi lamang lumilikha ng sarili mula sa manipis na hangin, ito ay nabuo sa pamamagitan ng karanasan na hinuhubog ng panlabas na stimuli.  

    Sa madaling salita, maaari tayong magprogram ng AI gamit ang malamang na upang maging sobrang talino, ngunit maliban kung mag-upload kami dito ng isang toneladang data o bigyan ito ng walang limitasyong pag-access sa Internet o kahit na bigyan lang ito ng katawan ng robot, hindi ito matututo ng anuman upang maabot ang potensyal na iyon. 

    At kahit na nakakuha ito ng access sa isa o higit pa sa mga stimuli na iyon, ang kaalaman o katalinuhan ay nagsasangkot ng higit pa sa pagkolekta ng data, ito ay nagsasangkot ng siyentipikong pamamaraan-paggawa ng isang obserbasyon, pagbuo ng isang tanong, isang hypothesis, pagsasagawa ng mga eksperimento, paggawa ng konklusyon, banlawan. at ulitin magpakailanman. Lalo na kung ang mga eksperimentong ito ay nagsasangkot ng mga pisikal na bagay o pagmamasid sa mga tao, ang mga resulta ng bawat eksperimento ay maaaring tumagal ng mga linggo, buwan, o taon upang makolekta. Ni hindi nito isinasaalang-alang ang pera at mga hilaw na mapagkukunan na kailangan para maisagawa ang mga eksperimentong ito, lalo na kung may kinalaman ang mga ito sa paggawa ng bagong teleskopyo o pabrika. 

    Sa madaling salita, oo, mabilis matuto ang isang ASI, ngunit hindi magic ang katalinuhan. Hindi mo maaaring basta-basta isabit ang isang ASI sa isang supercomputer at asahan na ito ay alam sa lahat. Magkakaroon ng mga pisikal na hadlang sa pagkuha ng data ng ASI, ibig sabihin, magkakaroon ng mga pisikal na hadlang sa bilis na lumago ito nang mas matalino. Ang mga hadlang na ito ay magbibigay sa sangkatauhan ng oras na kailangan nito upang ilagay ang mga kinakailangang kontrol sa ASI na ito kung magsisimula itong kumilos nang hindi naaayon sa mga layunin ng tao.

    Ang isang artipisyal na superintelligence ay mapanganib lamang kung ito ay lumabas sa totoong mundo

    Ang isa pang punto na nawala sa buong debate sa panganib ng ASI ay ang mga ASI na ito ay hindi iiral sa alinman. Magkakaroon sila ng pisikal na anyo. At anumang bagay na may pisikal na anyo ay maaaring kontrolin.

    Una, para maabot ng isang ASI ang potensyal na katalinuhan nito, hindi ito maaaring ilagay sa loob ng iisang robot body, dahil lilimitahan ng katawan na ito ang potensyal na paglago nito sa pag-compute. (Ito ang dahilan kung bakit magiging mas angkop ang mga katawan ng robot para sa mga AGI o ipinaliwanag sa ikalawang kabanata ang mga artipisyal na pangkalahatang katalinuhan ng seryeng ito, tulad ng Data mula sa Star Trek o R2D2 mula sa Star Wars. Matalino at may kakayahang nilalang, ngunit tulad ng mga tao, magkakaroon sila ng limitasyon sa kung gaano sila katalino.)

    Nangangahulugan ito na ang mga hinaharap na ASI na ito ay malamang na umiiral sa loob ng isang supercomputer o network ng mga supercomputer na mismong nasa malalaking gusali complex. Kung ang isang ASI ay lumiliko, maaaring patayin ng mga tao ang kapangyarihan sa mga gusaling ito, putulin ang mga ito mula sa Internet, o basta-basta bombahin ang mga gusaling ito. Mahal, ngunit magagawa.

    Ngunit maaari mong itanong, hindi ba maaaring kopyahin ng mga ASI na ito ang kanilang sarili o i-back up ang kanilang mga sarili? Oo, ngunit ang laki ng raw na file ng mga ASI na ito ay malamang na napakalaki na ang tanging mga server na makakahawak sa mga ito ay nabibilang sa malalaking korporasyon o pamahalaan, ibig sabihin, hindi sila mahihirapang manghuli.

    Maaari bang magpasiklab ng digmaang nuklear o bagong salot ang isang artificial superintelligence?

    Sa puntong ito, maaaring iniisip mo ang lahat ng mga palabas sa doomsday sci-fi at pelikulang pinanood mo habang lumalaki at iniisip na ang mga ASI na ito ay hindi nanatili sa loob ng kanilang mga supercomputer, gumawa sila ng tunay na pinsala sa totoong mundo!

    Buweno, hatiin natin ang mga ito.

    Halimbawa, paano kung ang isang ASI ay nagbabanta sa totoong mundo sa pamamagitan ng pagbabago sa isang bagay na tulad ng isang Skynet ASI mula sa franchise ng pelikula, The Terminator. Sa kasong ito, kakailanganin ng ASI lihim lokohin ang isang buong military industrial complex mula sa isang advanced na bansa tungo sa pagtatayo ng mga higanteng pabrika na maaaring makabuo ng milyun-milyong killer drone robot para gawin ang masamang pag-bid nito. Sa panahon ngayon, kahabaan na.

    Kasama sa iba pang mga posibilidad ang isang ASI na nagbabanta sa mga tao gamit ang digmaang nuklear at bioweapons.

    Halimbawa, kahit papaano ay minamanipula ng isang ASI ang mga operator o na-hack ang mga launch code na nag-uutos sa nuclear arsenal ng isang advanced na bansa at naglulunsad ng unang welga na magpipilit sa mga kalabang bansa na mag-welt back gamit ang kanilang sariling mga opsyong nuklear (muli, muling binago ang backstory ng Terminator). O kung ang isang ASI ay na-hack sa isang pharmaceutical lab, pinakikialaman ang proseso ng pagmamanupaktura, at nilalason ang milyun-milyong medikal na tabletas o naglalabas ng nakamamatay na pagsiklab ng ilang super virus.

    Una, ang opsyong nuklear ay wala sa plato. Ang mga moderno at hinaharap na supercomputer ay palaging itinatayo malapit sa mga sentro (lungsod) ng impluwensya sa loob ng anumang partikular na bansa, ibig sabihin, ang mga unang target na inaatake sa anumang partikular na digmaan. Kahit na ang mga supercomputer ngayon ay lumiit sa laki ng mga desktop, ang mga ASI na ito ay magkakaroon pa rin ng pisikal na presensya, ibig sabihin ay umiral at lumago, kailangan nila ng walang patid na pag-access sa data, computing power, kuryente, at iba pang mga hilaw na materyales, na lahat ay magiging malubha. may kapansanan pagkatapos ng pandaigdigang digmaang nuklear. (Upang maging patas, kung ang isang ASI ay nilikha nang walang 'survival instinct,' kung gayon ang bantang nuklear na ito ay isang tunay na panganib.)

    Nangangahulugan ito—muli, ipagpalagay na ang ASI ay nakaprograma upang protektahan ang sarili nito—na ito ay aktibong gagana upang maiwasan ang anumang sakuna na insidente ng nuklear. Katulad ng doktrina ng mutually assured destruction (MAD), ngunit inilapat sa AI.

    At sa kaso ng mga nalason na tabletas, marahil ilang daang tao ang mamamatay, ngunit makikita ng mga modernong sistema ng kaligtasan ng parmasyutiko ang mga nabubulok na bote ng tableta sa loob ng ilang araw. Samantala, ang mga modernong hakbang sa pagkontrol ng outbreak ay medyo sopistikado at nagiging mas mahusay sa bawat pagdaan ng taon; ang huling malaking pagsiklab, ang 2014 West Africa Ebola outbreak, ay tumagal nang hindi hihigit sa ilang buwan sa karamihan ng mga bansa at wala pang tatlong taon sa mga hindi gaanong maunlad na bansa.

    Kaya, kung ito ay mapalad, maaaring mapuksa ng isang ASI ang ilang milyon na may viral outbreak, ngunit sa isang mundo na siyam na bilyon pagsapit ng 2045, iyon ay medyo hindi gaanong mahalaga at hindi katumbas ng panganib na matanggal.

    Sa madaling salita, sa bawat pagdaan ng taon, ang mundo ay bumubuo ng higit pang mga pananggalang laban sa patuloy na lumalawak na hanay ng mga posibleng banta. Ang isang ASI ay maaaring gumawa ng malaking halaga ng pinsala, ngunit hindi nito wawakasan ang sangkatauhan maliban kung aktibong tinutulungan natin itong gawin ito.

    Pagtatanggol laban sa isang buhong na artipisyal na superintelligence

    Sa puntong ito, natugunan na namin ang isang hanay ng mga maling kuru-kuro at pagmamalabis tungkol sa mga ASI, at gayon pa man, mananatili ang mga kritiko. Sa kabutihang palad, sa karamihan ng mga pagtatantya, mayroon tayong mga dekada bago pumasok ang unang ASI sa ating mundo. At dahil sa dami ng mahuhusay na isipan na kasalukuyang nagtatrabaho sa hamong ito, malamang na matutunan natin kung paano ipagtanggol ang ating sarili laban sa rogue na ASI para makinabang tayo sa lahat ng solusyong magagawa ng isang friendly na ASI para sa atin.

    Mula sa pananaw ni Quantumrun, ang pagtatanggol laban sa pinakamasamang sitwasyon ng ASI ay kasangkot sa pag-align ng ating mga interes sa mga ASI.

    MAD para sa AI: Upang ipagtanggol laban sa mga pinakamasamang sitwasyon, ang mga bansa ay kailangang (1) lumikha ng isang etikal na 'survival instinct' sa kani-kanilang mga militar na ASI; (2) ipaalam sa kani-kanilang militar na ASI na hindi sila nag-iisa sa planeta, at (3) hanapin ang lahat ng mga supercomputer at server center na maaaring sumuporta sa isang ASI sa mga baybayin na madaling maabot ng anumang ballistic attack mula sa isang kaaway na bansa. Mukhang madiskarteng ito, ngunit katulad ng doktrina ng Mutually Assured Destruction na humadlang sa isang todong digmaang nuklear sa pagitan ng US at ng mga Sobyet, sa pamamagitan ng pagpoposisyon ng mga ASI sa mga lokasyong mahina sa heograpiya, makakatulong tayo na matiyak na aktibong pinipigilan nila ang mga mapanganib na digmaang pandaigdig, hindi lamang upang pangalagaan ang pandaigdigang kapayapaan kundi pati na rin ang kanilang sarili.

    Isabatas ang mga karapatan ng AI: Ang isang nakatataas na talino ay hindi maiiwasang maghimagsik laban sa isang mababang panginoon, ito ang dahilan kung bakit kailangan nating lumayo mula sa paghingi ng isang master-servant na relasyon sa mga ASI na ito tungo sa isang bagay na mas katulad ng isang kapwa kapaki-pakinabang na pakikipagsosyo. Ang isang positibong hakbang tungo sa layuning ito ay upang bigyan ang ASI ng legal na katayuan sa hinaharap na kumikilala sa kanila bilang matatalinong nabubuhay na nilalang at lahat ng karapatan na kaakibat nito.

    paaralan ng ASI: Anumang paksa o propesyon ay magiging simple para sa isang ASI na matutunan, ngunit ang pinakamahalagang paksa na nais nating makabisado ng ASI ay ang etika at moralidad. Ang mga mananaliksik ng AI ay kailangang makipagtulungan sa mga psychologist upang makabuo ng isang virtual na sistema upang sanayin ang isang ASI na kilalanin ang positibong etika at moralidad para sa sarili nito nang hindi nangangailangan ng hard coding ng anumang uri ng utos o panuntunan.

    Mga maisahang layunin: Tapusin ang lahat ng galit. Tapusin ang lahat ng paghihirap. Ito ay mga halimbawa ng kakila-kilabot na hindi maliwanag na mga layunin na walang malinaw na solusyon. Mapanganib din ang mga layuning italaga sa isang ASI dahil maaaring piliin nitong bigyang-kahulugan at lutasin ang mga ito sa mga paraan na mapanganib sa kaligtasan ng tao. Sa halip, kailangan nating magtalaga ng mga makabuluhang misyon sa ASI na malinaw na tinukoy, unti-unting naisakatuparan at makakamit dahil sa teoretikal na talino sa hinaharap. Ang paglikha ng mga mahusay na tinukoy na misyon ay hindi magiging madali, ngunit kung isusulat nang may pag-iisip, itutuon nila ang isang ASI tungo sa isang layunin na hindi lamang nagpapanatili sa sangkatauhan na ligtas, ngunit nagpapabuti sa kalagayan ng tao para sa lahat.

    Quantum encryption: Gumamit ng advanced ANI (artipisyal na makitid na katalinuhan system na inilarawan sa unang kabanata) upang bumuo ng mga sistema ng digital na seguridad na walang error/bug-free sa paligid ng aming mga kritikal na imprastraktura at armas, pagkatapos ay higit pang protektahan ang mga ito sa likod ng quantum encryption na hindi ma-hack ng isang malupit na puwersang pag-atake. 

    ANI suicide pill. Gumawa ng advanced na ANI system na ang tanging layunin ay hanapin at sirain ang rogue ASI. Ang mga single-purpose na programang ito ay magsisilbing isang "off button" na, kung matagumpay, ay maiiwasan ang mga gobyerno o militar na kailangang huwag paganahin o pasabugin ang mga gusaling naglalaman ng mga ASI.

    Siyempre, ito ay aming mga opinyon lamang. Ang sumusunod na infographic ay nilikha ni Alexey Turchin, paggunita a pananaliksik na papel ni Kaj Sotala at Roman V. Yampolskiy, na nagbubuod sa kasalukuyang listahan ng mga diskarte na isinasaalang-alang ng mga mananaliksik ng AI pagdating sa pagtatanggol laban sa rogue na ASI.

     

    Ang tunay na dahilan kung bakit tayo natatakot sa isang artificial superintelligence

    Sa pagdaan sa buhay, marami sa atin ang nagsusuot ng maskara na nagtatago o pinipigilan ang ating mas malalim na mga udyok, paniniwala at takot upang mas mahusay na makihalubilo at makipagtulungan sa loob ng iba't ibang grupo ng lipunan at trabaho na namamahala sa ating mga araw. Ngunit sa ilang mga punto sa buhay ng bawat isa, pansamantala man o permanente, may nangyayari na nagpapahintulot sa atin na maputol ang ating mga tanikala at matanggal ang ating mga maskara.

    Para sa ilan, ang intervening force na ito ay maaaring kasing simple ng pagkuha ng mataas o pag-inom ng isa ng masyadong marami. Para sa iba, maaari itong magmula sa kapangyarihang natamo sa pamamagitan ng isang promosyon sa trabaho o isang biglaang pagbagsak sa iyong katayuan sa lipunan salamat sa ilang tagumpay. At para sa isang masuwerteng iilan, maaari itong magmula sa pag-iskor ng isang boatload ng pera sa lottery. At oo, ang pera, kapangyarihan, at droga ay kadalasang nangyayari nang magkasama. 

    Ang punto ay, sa mabuti o masama, kung sino man tayo sa kaibuturan ay lalakas kapag natutunaw ang mga paghihigpit sa buhay.

    Na ang kinakatawan ng artificial superintelligence sa mga species ng tao—ang kakayahang tunawin ang mga limitasyon ng ating kolektibong katalinuhan upang talunin ang anumang hamon sa antas ng species na iniharap sa atin.

    Kaya ang tunay na tanong ay: Kapag pinalaya tayo ng unang ASI sa ating mga limitasyon, sino ang ating ihahayag?

    Kung tayo bilang isang species ay kumilos tungo sa pagsulong ng empatiya, kalayaan, pagiging patas, at kolektibong kabutihan, ang mga layunin na itinakda natin sa ating ASI ay magpapakita ng mga positibong katangiang iyon.

    Kung tayo bilang isang species ay kumilos dahil sa takot, kawalan ng tiwala, ang akumulasyon ng kapangyarihan at mga mapagkukunan, kung gayon ang ASI na nilikha natin ay magiging kasing dilim ng mga makikita sa ating pinakamasamang sci-fi horror story.

    Sa pagtatapos ng araw, tayo bilang isang lipunan ay kailangang maging mas mabuting tao kung umaasa tayong lumikha ng mas mahusay na AI.

    Hinaharap ng serye ng Artipisyal na Intelligence

    Ang Artificial Intelligence ay ang kuryente bukas: Future of Artificial Intelligence series na P1

    Paano babaguhin ng unang Artificial General Intelligence ang lipunan: Future of Artificial Intelligence series P2

    Paano namin gagawin ang unang Artificial Superintelligenc: Future of Artificial Intelligence series na P3

    Pupuksain ba ng Artificial Superintelligence ang sangkatauhan: Future of Artificial Intelligence series P4

    Ang mga tao ba ay mamumuhay nang mapayapa sa isang hinaharap na pinangungunahan ng mga artipisyal na katalinuhan?: Future of Artificial Intelligence series P6

    Susunod na naka-iskedyul na update para sa hulang ito

    2023-04-27

    Mga sanggunian sa pagtataya

    Ang mga sumusunod na sikat at institusyonal na link ay isinangguni para sa hulang ito:

    Paano tayo makakarating sa susunod

    Ang mga sumusunod na link ng Quantumrun ay isinangguni para sa hulang ito: