Kepiye manungsa bakal mbela marang Superintelligence Artificial: Masa depan intelijen buatan P5

KREDIT GAMBAR: Kuantumrun

Kepiye manungsa bakal mbela marang Superintelligence Artificial: Masa depan intelijen buatan P5

    Taun punika 65,000 SM, lan minangka a Thylacoleo, sampeyan lan jinis sampeyan minangka pemburu gedhe ing Australia kuno. Sampeyan bisa mlaku-mlaku ing tanah kanthi bebas lan manggon ing keseimbangan karo kanca-kanca predator lan mangsa sing manggoni tanah ing jejere sampeyan. Musim nggawa owah-owahan, nanging status sampeyan ing kerajaan kewan tetep ora bisa diganggu nganti sampeyan lan leluhur sampeyan bisa ngelingi. Banjur ing sawijining dina, wong anyar muncul.

    Gosip kasebut teka saka tembok banyu raksasa, nanging makhluk kasebut katon luwih kepenak urip ing darat. Sampeyan kudu ndeleng makhluk kasebut dhewe.

    Butuh sawetara dina, nanging pungkasane sampeyan bisa menyang pesisir. Geni ing langit wis nyetel, wektu sing sampurna kanggo Spy makhluk iki, malah bisa nyoba mangan siji kanggo ndeleng carane ngrasakake.

    Sampeyan ndeleng siji.

    Dheweke mlaku nganggo sikil loro lan ora duwe wulu. Iku katon lemes. Ora nyengsemake. Ora ana rasa wedi sing ditimbulake ing antarane kerajaan.

    Sampeyan miwiti kanthi ati-ati nggawe pendekatan nalika wengi ngusir cahya. Sampeyan nyedhak. Banjur sampeyan beku. Swara banter muni banjur ana papat liyane metu saka alas ing mburine. ana pira?

    Makhluk kasebut ngetutake wong liya menyang garis wit, lan sampeyan tindakake. Lan luwih akeh sampeyan nindakake, swara liyane aneh sing sampeyan krungu nganti sampeyan nemokake makhluk kasebut. Sampeyan tindakake ing kadohan nalika padha metu saka alas menyang clearing ing pinggir pantai. Ana akeh sing. Nanging sing luwih penting, kabeh padha lungguh kanthi tenang ngubengi geni.

    Sampeyan wis tau weruh geni iki sadurunge. Ing mangsa panas, geni ing awang-awang kadhangkala teka ing tanah lan ngobong kabeh alas. Makhluk-makhluk iki, ing tangan liyane, padha ngontrol. Makhluk apa wae sing bisa duwe kekuwatan kaya ngono?

    Sampeyan katon menyang kadohan. More teka liwat tembok banyu buta.

    Sampeyan mundur selangkah.

    Makhluk iki ora kaya liyane ing kerajaan. Padha soko tanggung anyar.

    Sampeyan mutusake kanggo ninggalake lan ngelingake kulawarga. Yen jumlahe akeh banget, sapa ngerti apa sing bisa kedadeyan.

    ***

    Dipercaya Thylakoleo wis punah ing wektu sing relatif cendhak sawisé tekane manungsa, bebarengan karo mayoritas megafauna liyane ing bawana Australia. Ora ana predator mamalia apex liyane sing njupuk Panggonan - kajaba sampeyan ngetung manungsa ing kategori kasebut.

    Muter allegory iki fokus ing bab seri iki: Apa superintelligence Ponggawa mangsa (ASI) bakal nguripake kita kabeh menyang baterei lan banjur plug kita menyang Matrix utawa manungsa bakal nemtokake cara supaya ora dadi korban sci-fi, AI rencana kiamat?

    Supaya adoh ing seri kita ing Masa Depan Intelijen Ponggawa, kita wis njelajah kabeh jinis AI, kalebu potensial positif saka wangun tartamtu saka AI, ASI: makhluk gawean kang Intelligence mangsa bakal nggawe kita katon kaya semut ing comparison.

    Nanging sapa sing bisa ngomong yen makhluk sing pinter iki bakal nampa pesenan saka manungsa ing salawas-lawase. Apa sing bakal kita lakoni yen ana ing sisih kidul? Kepiye carane kita bakal mbela marang ASI nakal?

    Ing bab iki, kita bakal ngilangi hype palsu - paling ora ana hubungane karo bebaya 'tingkat punah manungsa'-lan fokus ing pilihan pertahanan diri sing realistis sing kasedhiya kanggo pamrentah donya.

    Apa kita bisa mungkasi kabeh riset luwih lanjut babagan superintelijen buatan?

    Amarga risiko potensial sing bisa ditindakake dening ASI kanggo manungsa, pitakonan pisanan sing kudu ditakoni yaiku: Apa kita ora bisa mungkasi kabeh riset luwih lanjut babagan AI? Utawa paling ora nglarang riset apa wae sing bisa mbebayani kanggo nggawe ASI?

    Wangsulan cekak: Ora.

    Wangsulan sing dawa: Ayo katon ing macem-macem pemain sing melu ing kene.

    Ing tingkat riset, saiki akeh banget peneliti AI saka akeh startup, perusahaan, lan universitas ing saindenging jagad. Yen siji perusahaan utawa negara mutusake kanggo mbatesi upaya riset AI, dheweke mung bakal terus ing papan liya.

    Kangge, perusahaan paling larang ing planet nggawe rejeki saka aplikasi sistem AI kanggo bisnis tartamtu. Njaluk supaya mandheg utawa mbatesi pangembangan alat AI padha karo njaluk supaya mandheg utawa mbatesi wutah ing mangsa ngarep. Secara finansial, iki bakal ngancam bisnis jangka panjang. Sacara sah, perusahaan duwe tanggung jawab fiduciary kanggo terus-terusan mbangun nilai kanggo para pemangku kepentingan; tegese tumindak apa wae sing bakal mbatesi wutah saka nilai kasebut bisa nyebabake tuntutan hukum. Lan yen ana politisi sing nyoba mbatesi riset AI, mula perusahaan raksasa kasebut mung mbayar biaya lobi sing dibutuhake kanggo ngganti pikirane utawa pikirane kanca-kancane.

    Kanggo pertempuran, kaya teroris lan pejuang kebebasan ing saindenging jagad nggunakake taktik gerilya kanggo nglawan militer sing didanai luwih apik, negara-negara cilik bakal duwe insentif kanggo nggunakake AI minangka kauntungan taktik sing padha karo negara-negara gedhe sing bisa uga duwe sawetara kaluwihan militer. Kajaba iku, kanggo militèr paling dhuwur, kaya sing ana ing AS, Rusia lan China, mbangun ASI militèr padha karo duwe arsenal senjata nuklir ing kanthong mburi. Ing tembung liyane, kabeh militer bakal terus mbiayai AI mung supaya tetep relevan ing mangsa ngarep.

    Kepiye babagan pamrentah? Sejatine, umume politisi saiki (2018) buta teknologi lan ora ngerti apa AI utawa potensial mbesuk-iki nggawe gampang dimanipulasi dening kepentingan perusahaan.

    Lan ing tingkat global, nimbang sepira angel kanggo ngyakinake pamrentah donya kanggo mlebu 2015 Agreement Paris kanggo ngatasi owah-owahan iklim-lan yen wis ditandatangani, akeh kewajiban sing ora naleni. Ora mung iku, owah-owahan iklim minangka masalah sing dialami wong sacara fisik ing saindenging jagad amarga kedadeyan cuaca sing saya kerep lan abot. Saiki, nalika ngomong babagan setuju kanggo mbatesi AI, iki minangka masalah sing umume ora katon lan meh ora bisa dimangerteni dening masarakat, dadi apik banget kanggo tuku apa wae 'Perjanjian Paris' kanggo mbatesi AI.

    Ing tembung liyane, ana akeh banget kapentingan sing nliti AI kanggo tujuane dhewe kanggo mungkasi riset apa wae sing bisa nyebabake ASI. 

    Apa kita bisa njaga superintelijen buatan?

    Pitakonan sing cukup sabanjure yaiku bisa kita kandhang utawa ngontrol ASI yen kita mesthi nggawe? 

    Wangsulan singkat: Maneh, ora.

    Wangsulan sing dawa: Teknologi ora bisa ditahan.

    Kanggo siji, mung nimbang ewonan nganti mayuta-yuta pangembang web lan ilmuwan komputer ing donya sing terus-terusan nggawe piranti lunak anyar utawa versi anyar saka piranti lunak sing wis ana. Apa kita bisa ngomong kanthi jujur ​​yen saben piranti lunak sing dirilis 100 persen bebas bug? Kewan omo iki sing digunakake peretas profesional kanggo nyolong info kertu kredit jutaan utawa rahasia rahasia negara-lan iki peretas manungsa. Kanggo ASI, yen ana insentif kanggo uwal saka kandhang digital, mula proses nemokake bug lan ngrusak piranti lunak bakal gampang.

    Nanging sanajan tim riset AI nemokake cara kanggo nggawe kothak ASI, iki ora ateges 1,000 tim sabanjure bakal ngerti utawa bakal didorong nggunakake.

    Butuh milyaran dolar lan bisa uga puluhan taun kanggo nggawe ASI. Perusahaan utawa pamrentah sing nandur modal dhuwit lan wektu iki bakal ngarep-arep ngasilake investasi sing signifikan. Lan kanggo ASI nyedhiyakake pengembalian sing kaya mangkene - apa iku kanggo dolanan pasar saham utawa nggawe produk milyar dolar anyar utawa ngrancang strategi sing menang kanggo nglawan tentara sing luwih gedhe - mbutuhake akses gratis menyang set data raksasa utawa malah Internet. dhewe kanggo ngasilake asil kasebut.

    Lan yen ASI entuk akses menyang jaringan ing jagad iki, ora ana jaminan manawa kita bisa ngisi maneh ing kandhange.

    Apa superintelligence buatan bisa sinau dadi apik?

    Saiki, peneliti AI ora kuwatir yen ASI dadi ala. Kabeh ala, AI sci-fi trope mung manungsa anthropomorphizing maneh. A ASI mangsa bakal ora apik utawa ala - konsep manungsa - mung amoral.

    Anggapan alami yaiku yen diwenehi slate etika kosong iki, peneliti AI bisa program menyang kode etika ASI pisanan sing selaras karo kita dhewe supaya ora mungkasi ngeculake Terminator ing kita utawa ngowahi kita kabeh dadi baterei Matrix.

    Nanging asumsi iki nggawe asumsi sekunder yen peneliti AI uga ahli ing etika, filsafat, lan psikologi.

    Ing kasunyatan, paling ora.

    Miturut psikolog lan penulis kognitif, Steven Pinker, kasunyatan iki tegese tugas etika coding bisa salah kanthi macem-macem cara.

    Contone, sanajan peneliti AI sing paling apik bisa uga ora sengaja ngode kode etik ASI sing ora dipikirake kanthi apik, sing ing skenario tartamtu bisa nyebabake ASI tumindak kaya sosiopat.

    Kajaba iku, ana kemungkinan sing padha karo peneliti AI ngrancang kode etika sing kalebu bias bawaan peneliti. Contone, kepiye carane ASI tumindak yen dibangun kanthi etika sing asale saka perspektif konservatif vs liberal, utawa saka tradhisi Buddha vs Kristen utawa Islam?

    Aku sampeyan ndeleng masalah ing kene: Ora ana set universal moral manungsa. Yen kita pengin ASI kita tumindak miturut kode etika, saka ngendi asale? Aturan apa sing kalebu lan ora kalebu? Sapa sing nemtokake?

    Utawa, yen peneliti AI iki nggawe ASI sing cocog karo norma lan hukum budaya modern saiki. Kita banjur nggunakake ASI iki kanggo mbantu birokrasi federal, negara bagian/provinsi, lan kotamadya bisa mlaku kanthi luwih efisien lan ngetrapake norma-norma lan undang-undang kasebut (kayane kasus panggunaan kanggo ASI). Nah, apa sing kedadeyan nalika budaya kita owah?

    Mbayangno ASI digawe dening Gréja Katulik ing dhuwur saka kuwasane sak Medieval Eropah (1300-1400s) karo goal bantuan pasamuwan ngatur populasi lan mesthekake ketaatan ketat kanggo dogma agama wektu. Nganti pirang-pirang abad, apa wanita bakal entuk hak sing padha kaya saiki? Apa minoritas bakal dilindhungi? Apa kebebasan wicara bakal dipromosikan? Apa pemisahan gereja lan negara bakal ditindakake? Ilmu modern?

    Tegese, apa kita kepengin nglebokake masa depan kanthi moral lan adat istiadat jaman saiki?

    Pendekatan alternatif yaiku sing dituduhake dening Colin Allen, panulis buku kasebut, Mesin Moral: Ngajari Robot Bener Saka Salah. Tinimbang nyoba kode aturan etika kaku, kita duwe ASI sinau etika umum lan moralitas ing cara sing padha karo manungsa, liwat pengalaman lan interaksi karo wong liya.

    Nanging, alangan ing kene, yen peneliti AI ngerti ora mung carane mulang ASI norma budaya lan etika saiki, nanging uga carane adaptasi karo norma budaya anyar nalika kedadeyan kasebut (sing diarani 'normativitas ora langsung'), banjur kepiye carane ASI iki mutusaké kanggo berkembang pangerten saka norma budaya lan etika dadi ranyono.

    Lan sing tantangan.

    Ing sisih siji, peneliti AI bisa nyoba ngode standar utawa aturan etika sing ketat menyang ASI kanggo nyoba lan ngontrol kelakuane, nanging ana risiko akibat sing ora diduga amarga coding sing ora apik, bias sing ora disengaja, lan norma-norma masyarakat sing bisa dadi ketinggalan jaman. Ing sisih liya, kita bisa nyoba nglatih ASI supaya sinau ngerti etika lan moral manungsa kanthi cara sing padha utawa luwih dhuwur tinimbang pemahaman kita dhewe lan ngarep-arep supaya bisa mekar kanthi akurat babagan etika lan moral nalika masyarakat manungsa maju. maju liwat dekade lan abad sing bakal teka.

    Apa wae, upaya kanggo nyelarasake tujuan ASI karo tujuane dhewe menehi risiko gedhe.

    Apa yen aktor ala sengaja nggawe superintelligence gawean ala?

    Diwenehi sepur pikiran sing wis digarisake nganti saiki, dadi pitakonan sing adil kanggo takon apa bisa kelompok teroris utawa bangsa nakal nggawe ASI 'ala' kanggo tujuane dhewe.

    Iki bisa banget, utamane sawise riset sing melu nggawe ASI kasedhiya online.

    Nanging kaya sing wis digambarake sadurunge, biaya lan keahlian kanggo nggawe ASI pisanan bakal gedhe banget, tegese ASI pisanan bakal digawe dening organisasi sing dikontrol utawa dipengaruhi banget dening negara maju, kemungkinan AS, China, lan Jepang ( Korea lan salah sawijining negara Uni Eropa sing misuwur minangka tembakan dawa).

    Kabeh negara kasebut, sanajan saingan, saben duwe insentif ekonomi sing kuat kanggo njaga ketertiban donya-ASI sing digawe bakal nggambarake kepinginan kasebut, sanajan promosi kapentingan negara sing padha.

    Kajaba iku, intelijen lan kekuwatan teoretis ASI padha karo daya komputasi sing entuk akses, tegese ASI saka negara maju (sing bisa mbayar pirang-pirang milyar dolar. komputer super) bakal duwe kauntungan gedhe tinimbang ASI saka negara cilik utawa kelompok kriminal independen. Uga, ASI tuwuh luwih cerdas, luwih cepet saka wektu.

    Dadi, diwenehi wiwitan iki, digabungake karo akses sing luwih gedhe kanggo daya komputasi mentah, yen organisasi / negara sing surem nggawe ASI sing mbebayani, ASI saka negara maju bakal mateni utawa kandhang.

    (Pamikiran iki uga sebabe sawetara peneliti AI percaya yen mung ana siji ASI ing planet iki, amarga ASI sing sepisanan bakal miwiti kabeh ASI sing sukses sing bisa ndeleng ASI ing mangsa ngarep minangka ancaman sing bakal dipateni. Iki minangka alesan liyane kenapa negara-negara mbiayai riset terus ing AI, yen ora dadi kompetisi 'panggonan pisanan utawa ora ana apa-apa'.)

    Intelijen ASI ora bakal akselerasi utawa njeblug kaya sing kita pikirake

    Kita ora bisa nyegah ASI digawe. Kita ora bisa ngontrol kabeh. Kita ora bisa mesthekake yen bakal tansah tumindak selaras karo adat kita bebarengan. Ya ampun, kita wiwit muni kaya wong tuwa helikopter ing kene!

    Nanging sing misahake manungsa saka wong tuwa sing overprotective sing khas yaiku kita nglairake makhluk sing kecerdasane bakal tuwuh ngluwihi kita. (Lan ora, iku ora padha karo nalika wong tuwamu njaluk sampeyan ndandani komputer nalika sampeyan teka ing omah.) 

    Ing bab sadurunge seri intelijen buatan ing mangsa ngarep, kita nliti sebabe peneliti AI mikir yen intelijen ASI bakal tuwuh ora bisa dikontrol. Nanging ing kene, kita bakal mbukak gelembung kasebut ... jenis. 

    Sampeyan ndeleng, intelijen ora mung nggawe awake dhewe saka hawa tipis, nanging dikembangake liwat pengalaman sing dibentuk dening rangsangan njaba.  

    Ing tembung liyane, kita bisa program AI karo potensial dadi super cerdas, nanging kajaba kita ngunggah menyang ton data utawa menehi akses unrestricted menyang Internet utawa malah mung menehi awak robot, iku ora bakal sinau apa kanggo nggayuh potensial sing. 

    Lan sanajan entuk akses menyang siji utawa luwih saka rangsangan kasebut, kawruh utawa intelijen ora mung ngumpulake data, nanging uga kalebu metode ilmiah - nggawe pengamatan, nggawe pitakonan, hipotesis, nindakake eksperimen, nggawe kesimpulan, mbilas. lan mbaleni ing salawas-lawase. Utamane yen eksperimen kasebut nyangkut barang fisik utawa ngamati manungsa, asil saben eksperimen bisa njupuk minggu, sasi, utawa taun kanggo dikumpulake. Iki malah ora nimbang dhuwit lan sumber daya mentah sing dibutuhake kanggo nindakake eksperimen kasebut, utamane yen melu mbangun teleskop utawa pabrik anyar. 

    Ing tembung liya, ya, ASI bakal sinau kanthi cepet, nanging intelijen dudu sihir. Sampeyan ora bisa mung pancing ASI menyang superkomputer lan nyana kabeh ngerti. Bakal ana alangan fisik kanggo akuisisi data ASI, tegese bakal ana alangan fisik kanggo kacepetan sing tuwuh luwih cerdas. Watesan kasebut bakal menehi wektu kanggo manungsa kanggo ngetrapake kontrol sing dibutuhake ing ASI iki yen wiwit tumindak ora cocog karo tujuane manungsa.

    Superintelligence buatan mung mbebayani yen metu menyang donya nyata

    Titik liyane sing ilang ing kabeh debat bebaya ASI iki yaiku ASI kasebut ora bakal ana. Dheweke bakal duwe wujud fisik. Lan apa wae sing duwe wujud fisik bisa dikontrol.

    Kaping pisanan, supaya ASI bisa nggayuh potensial intelijen, ora bisa dipasang ing awak robot siji, amarga awak iki bakal mbatesi potensial pertumbuhan komputasi. (Mulane awak robot bakal luwih cocog kanggo AGI utawa intelijen umum buatan diterangake ing bab loro saka seri iki, kaya Data saka Star Trek utawa R2D2 saka Star Wars. Makhluk sing pinter lan bisa, nanging kaya manungsa, dheweke bakal duwe watesan babagan carane pinter.)

    Iki tegese ASI ing mangsa ngarep bakal ana ing jero superkomputer utawa jaringan superkomputer sing ana ing kompleks bangunan gedhe. Yen ASI dadi tumit, manungsa bisa mateni daya kanggo bangunan kasebut, ngilangi saka Internet, utawa mung ngebom bangunan kasebut langsung. Larang, nanging bisa ditindakake.

    Nanging sampeyan bisa uga takon, apa ASI iki ora bisa niru awake dhewe utawa nggawe cadangan? Ya, nanging ukuran file mentah saka ASI kasebut bakal dadi gedhe banget, mula mung server sing bisa nangani kasebut dadi milik perusahaan utawa pemerintah gedhe, tegese ora bakal angel diburu.

    Apa superintelijen buatan bisa nyebabake perang nuklir utawa wabah anyar?

    Ing wektu iki, sampeyan bisa uga mikir maneh kabeh acara sci-fi kiamat lan film sing ditonton nalika tuwuh lan mikir yen ASI kasebut ora tetep ana ing superkomputer, mula nyebabake karusakan nyata ing jagad nyata!

    Inggih, ayo dibongkar.

    Contone, apa yen ASI ngancam donya nyata kanthi ngowahi dadi kaya Skynet ASI saka franchise film, The Terminator. Ing kasus iki, ASI kudu kanthi rahasia ngapusi kabeh kompleks industri militer saka negara maju dadi pabrik raksasa sing bisa ngasilake jutaan robot drone pembunuh kanggo nindakake tawaran sing ala. Ing dina lan umur iki, sing babagan.

    Kemungkinan liyane kalebu ASI sing ngancam manungsa kanthi perang nuklir lan senjata biologis.

    Contone, ASI piye wae ngapusi operator utawa hacks menyang kode peluncuran mrentahake arsenal nuklir negara maju lan ngluncurake serangan pisanan sing bakal meksa negara-negara lawan kanggo nyerang kanthi pilihan nuklir dhewe (maneh, rehashing backstory Terminator). Utawa yen ASI hack menyang lab farmasi, tampers proses manufaktur, lan racun mayuta-yuta pil medical utawa unleashes wabah agawe saka sawetara virus super.

    Kaping pisanan, pilihan nuklir ora ana ing piring. Superkomputer modern lan mangsa ngarep tansah dibangun ing cedhak pusat (kutha) pengaruh ing negara tartamtu, yaiku target pisanan sing bakal diserang nalika perang tartamtu. Sanajan superkomputer saiki nyilikake ukuran desktop, ASI iki bakal tetep ana fisik, tegese ana lan tuwuh, butuh akses tanpa gangguan menyang data, daya komputasi, listrik, lan bahan mentah liyane, kabeh bakal dadi abot. rusak sawise perang nuklir global. (Kanggo adil, yen ASI digawe tanpa 'insting survival', ancaman nuklir iki mbebayani banget.)

    Iki tegese-maneh, nganggep ASI wis diprogram kanggo nglindhungi dhewe-sing bakal aktif ngindhari kedadeyan nuklir bencana. Kaya doktrin karusakan mutually assured (MAD), nanging ditrapake kanggo AI.

    Lan ing kasus pil beracun, bisa uga sawetara atus wong sing bakal mati, nanging sistem keamanan farmasi modern bakal weruh botol pil sing dicemari dijupuk saka rak sajrone sawetara dina. Kangge, langkah-langkah kontrol wabah modern cukup canggih lan saya tambah apik saben taun; wabah utama pungkasan, wabah Ebola Afrika Kulon 2014, tahan ora luwih saka sawetara sasi ing paling negara lan mung ing telung taun ing negara paling berkembang.

    Dadi, yen ana begja, ASI bisa ngilangake sawetara yuta kanthi wabah virus, nanging ing jagad sangang milyar ing taun 2045, iki bakal dadi ora pati penting lan ora ana risiko bakal dibusak.

    Kanthi tembung liyane, saben taun kepungkur, jagad iki ngembangake luwih akeh pangayoman marang macem-macem ancaman sing saya tambah akeh. ASI bisa nyebabake kerusakan sing akeh, nanging ora bakal mungkasi manungsa kajaba kita aktif mbantu.

    Mbela marang superintelligence buatan nakal

    Ing titik iki, kita wis ngatasi macem-macem misconceptions lan exaggeration babagan ASIs, nanging kritikus bakal tetep. Untunge, miturut perkiraan umume, kita duwe pirang-pirang dekade sadurunge ASI pisanan mlebu ing jagad iki. Lan amarga akeh pikiran gedhe sing saiki nggarap tantangan iki, kemungkinan kita bakal sinau carane mbela diri marang ASI nakal supaya bisa entuk manfaat saka kabeh solusi sing bisa digawe ASI sing ramah kanggo kita.

    Saka perspektif Quantumrun, mbela marang skenario ASI sing paling ala bakal melu nyelarasake kepentingan kita karo ASI.

    MAD kanggo AI: Kanggo mbela saka skenario paling awon, negara kudu (1) nggawe 'insting kaslametané' etis menyang ASI militèr masing-masing; (2) ngandhani ASI militèr masing-masing yen dheweke ora mung ana ing planet iki, lan (3) nemokake kabeh superkomputer lan pusat server sing bisa ndhukung ASI ing sadawane garis pantai kanthi gampang tekan serangan balistik saka negara mungsuh. Iki muni strategis gila, nanging padha karo doktrin Mutually Assured Destruction sing nyegah perang nuklir kabeh-metu antarane AS lan Soviets, dening posisi ASIs ing lokasi sing rawan geografis, kita bisa bantuan mesthekake yen padha aktif nyegah perang global mbebayani, ora mung kanggo njaga perdamaian global nanging uga awake dhewe.

    Legislate hak AI: A kapinteran unggul mesthi bakal mbalela marang master inferior, iki kok kita kudu pindhah adoh saka nuntut hubungan master-abdi karo ASIs iki kanggo soko liyane kaya kemitraan bebarengan ono gunane. Langkah positif kanggo nggayuh tujuan iki yaiku menehi status kepribadian hukum ASI ing mangsa ngarep sing ngakoni dheweke minangka makhluk urip sing cerdas lan kabeh hak sing ana.

    sekolah ASI: Sembarang topik utawa profesi bakal dadi prasaja kanggo sinau ASI, nanging subjek sing paling penting sing pengin dikuasai ASI yaiku etika lan moralitas. Peneliti AI kudu kolaborasi karo psikolog kanggo nyipta sistem virtual kanggo nglatih ASI kanggo ngenali etika lan moralitas sing positif kanggo awake dhewe tanpa mbutuhake kode keras apa wae saka prentah utawa aturan.

    gol sing bisa digayuh: Mungkasi kabeh gething. Mungkasi kabeh kasangsaran. Iki minangka conto tujuan sing ambigu banget tanpa solusi sing jelas. Iki uga minangka tujuan sing mbebayani kanggo ditugasake menyang ASI amarga bisa uga milih napsirake lan ngrampungake kanthi cara sing mbebayani kanggo kaslametane manungsa. Nanging, kita kudu nemtokake misi penting ASI sing ditetepake kanthi jelas, dieksekusi kanthi bertahap lan bisa digayuh amarga intelektual masa depan teoretis. Nggawe misi sing ditetepake kanthi apik ora bakal gampang, nanging yen ditulis kanthi ati-ati, dheweke bakal fokus ASI menyang tujuan sing ora mung njaga keamanan manungsa, nanging nambah kahanan manungsa kanggo kabeh.

    Enkripsi kuantum: Gunakake ANI canggih (artificial narrow intelligence sistem sing diterangake ing bab siji) kanggo mbangun sistem keamanan digital tanpa kesalahan / bug ing saubengé infrastruktur lan senjata kritis kita, banjur luwih nglindhungi enkripsi kuantum sing ora bisa disusupi dening serangan brute force. 

    pil bunuh diri ANI. Nggawe sistem ANI majeng kang mung tujuane kanggo nggoleki lan ngrusak ASI nakal. Program siji-tujuan iki bakal dadi "tombol mati" sing, yen sukses, bakal nyegah pamrentah utawa militer kudu mateni utawa njeblug bangunan sing nduwe ASI.

    Mesthi, iki mung panemu kita. Infographic ing ngisor iki digawe dening Alexey Turchin, gambaran a research paper dening Kaj Sotala lan Roman V. Yampolskiy, sing ngringkes dhaptar strategi saiki peneliti AI sing dipikirake nalika mbela ASI nakal.

     

    Alesan nyata kita wedi karo superintelligence buatan

    Sajrone urip, akeh sing nganggo topeng sing ndhelikake utawa nyuda impuls, kapercayan lan rasa wedi sing luwih jero supaya bisa sosialisasi lan kolaborasi luwih apik ing macem-macem lingkungan sosial lan kerja sing ngatur jaman saiki. Nanging ing titik tartamtu ing urip saben wong, apa kanggo sementara utawa permanen, ana kedadeyan sing ngidini kita medhot ranté lan nyopot topeng.

    Kanggo sawetara, pasukan intervening iki bisa dadi prasaja kaya njupuk dhuwur utawa ngombe siji kakehan. Kanggo wong liya, bisa uga saka kekuwatan sing dipikolehi liwat promosi ing karya utawa tiba-tiba nabrak status sosial amarga sawetara prestasi. Lan kanggo sawetara begja, iku bisa teka saka ngetung boatload dhuwit lotre. Lan ya, dhuwit, kekuwatan, lan obat-obatan bisa kedadeyan bebarengan. 

    Intine, apik utawa ala, sapa wae sing dadi inti bakal saya tambah nalika watesan urip ilang.

    sing minangka superintelligence buatan kanggo spesies manungsa-kemampuan kanggo ngilangi watesan intelijen kolektif kita kanggo ngatasi tantangan tingkat spesies sing disedhiyakake sadurunge kita.

    Dadi pitakonan sing bener yaiku: Sawise ASI pisanan mbebasake kita saka watesan kita, sapa sing bakal kita ungkapake?

    Yen kita minangka spesies tumindak kanggo ningkatake empati, kebebasan, keadilan, lan kesejahteraan kolektif, mula tujuan sing kita aturake ASI bakal nggambarake atribut positif kasebut.

    Yen kita minangka spesies tumindak amarga wedi, ora percaya, akumulasi kekuwatan lan sumber daya, mula ASI sing digawe bakal dadi peteng kaya sing ditemokake ing crita medeni sci-fi sing paling awon.

    Ing pungkasan, kita minangka masyarakat kudu dadi wong sing luwih apik yen kita ngarepake nggawe AI sing luwih apik.

    Future of Artificial Intelligence seri

    Artificial Intelligence minangka listrik sesuk: Future of Artificial Intelligence seri P1

    Kepiye Intelijen Umum Artificial pisanan bakal ngganti masyarakat: Masa Depan Intelijen Artificial seri P2

    Kepiye carane nggawe Superintelligenc Ponggawa: Masa Depan Kecerdasan Buatan P3

    Bakal Superintelligence Ponggawa mbesmi djalmo manungso: Masa Depan Kecerdasan Buatan seri P4

    Apa manungsa bakal urip kanthi tentrem ing mangsa ngarep sing didominasi dening intelijen buatan?: Masa depan seri Kecerdasan Buatan P6

    Pembaruan sing dijadwalake sabanjure kanggo ramalan iki

    2023-04-27

    Referensi ramalan

    Tautan populer lan institusional ing ngisor iki dirujuk kanggo ramalan iki:

    The Economist
    Carane kita menyang sabanjuré

    Link Quantumrun ing ngisor iki dirujuk kanggo ramalan iki: