Bagaimana manusia akan mempertahankan diri daripada Kecerdasan Buatan: Masa Depan kecerdasan buatan P5

KREDIT GAMBAR: Quantumrun

Bagaimana manusia akan mempertahankan diri daripada Kecerdasan Buatan: Masa Depan kecerdasan buatan P5

    Tahun itu ialah 65,000 SM, dan sebagai a Thylacoleo, anda dan jenis anda adalah pemburu hebat Australia purba. Anda berkeliaran di darat dengan bebas dan hidup dalam keseimbangan dengan rakan-rakan pemangsa dan mangsa yang menduduki tanah bersama anda. Musim membawa perubahan, tetapi status anda dalam alam haiwan kekal tidak dicabar selagi anda dan nenek moyang anda ingat. Kemudian pada suatu hari, orang baru muncul.

    Khabar angin mengatakan mereka tiba dari dinding air gergasi, tetapi makhluk ini kelihatan lebih selesa tinggal di darat. Anda terpaksa melihat sendiri makhluk ini.

    Ia mengambil masa beberapa hari, tetapi anda akhirnya berjaya sampai ke pantai. Api di langit sedang terbenam, masa yang sesuai untuk mengintip makhluk ini, mungkin juga cuba makan seekor untuk melihat bagaimana rasanya.

    Anda nampak satu.

    Ia berjalan dengan dua kaki dan tidak mempunyai bulu. Ia kelihatan lemah. Tidak mengesankan. Tidak berbaloi dengan ketakutan yang ditimbulkannya di kalangan kerajaan.

    Anda mula berhati-hati membuat pendekatan anda sebagai malam mengejar cahaya. Awak semakin hampir. Kemudian anda membeku. Bunyi yang kuat kedengaran dan kemudian empat lagi daripada mereka muncul keluar dari hutan di belakangnya. Berapa ramai yang berada disana?

    Makhluk itu mengikuti yang lain ke garisan pokok, dan anda mengikuti. Dan semakin banyak yang anda lakukan, semakin banyak bunyi pelik yang anda dengar sehingga anda melihat lebih banyak lagi makhluk ini. Anda mengikut dari jauh ketika mereka keluar dari hutan ke kawasan lapang di tepi pantai. Terdapat banyak daripada mereka. Tetapi yang lebih penting, mereka semua duduk dengan tenang di sekeliling api.

    Anda pernah melihat kebakaran ini sebelum ini. Pada musim panas, api di langit kadang-kadang akan melawati tanah dan membakar seluruh hutan. Makhluk-makhluk ini, sebaliknya, mereka entah bagaimana mengawalnya. Apakah jenis makhluk yang boleh memiliki kuasa sedemikian?

    Anda melihat ke kejauhan. Lebih banyak lagi akan datang di atas dinding air gergasi.

    Anda mengambil langkah ke belakang.

    Makhluk ini tidak seperti yang lain di kerajaan. Mereka adalah sesuatu yang baru sepenuhnya.

    Anda memutuskan untuk pergi dan memberi amaran kepada saudara anda. Jika bilangan mereka bertambah terlalu besar, siapa tahu apa yang mungkin berlaku.

    ***

    Adalah dipercayai bahawa Thylacoleo telah pupus dalam masa yang agak singkat selepas kedatangan manusia, bersama-sama dengan majoriti megafauna lain di benua Australia. Tiada pemangsa mamalia puncak lain yang menggantikannya—iaitu melainkan anda mengira manusia dalam kategori itu.

    Memainkan alegori ini ialah fokus bab siri ini: Adakah kepintaran buatan (ASI) pada masa hadapan akan menjadikan kita semua menjadi bateri dan kemudian memasukkan kita ke dalam Matriks atau adakah manusia akan memikirkan cara untuk mengelak daripada menjadi mangsa kepada fiksyen sains, Plot kiamat AI?

    Setakat ini dalam siri kami pada Masa Depan Kecerdasan Buatan, kami telah meneroka semua jenis AI, termasuk potensi positif bentuk AI tertentu, ASI: makhluk buatan yang kecerdasan masa depannya akan menjadikan kita kelihatan seperti semut jika dibandingkan.

    Tetapi siapa kata makhluk sebijak ini akan menerima arahan daripada manusia selama-lamanya. Apa yang akan kita lakukan jika keadaan pergi ke selatan? Bagaimanakah kita akan mempertahankan diri daripada ASI yang penyangak?

    Dalam bab ini, kita akan mengurangkan gembar-gembur palsu—sekurang-kurangnya yang berkaitan dengan bahaya 'tahap kepupusan manusia'—dan menumpukan pada pilihan pertahanan diri yang realistik yang tersedia untuk kerajaan dunia.

    Bolehkah kita menghentikan semua penyelidikan lanjut ke dalam superintelligence buatan?

    Memandangkan potensi risiko yang boleh ditimbulkan oleh ASI kepada manusia, soalan pertama yang jelas untuk ditanya ialah: Tidak bolehkah kita menghentikan semua penyelidikan lanjut tentang AI? Atau sekurang-kurangnya melarang sebarang penyelidikan yang boleh membawa kita hampir dengan bahaya untuk mencipta ASI?

    Jawapan ringkas: Tidak.

    Jawapan panjang: Mari kita lihat pemain berbeza yang terlibat di sini.

    Di peringkat penyelidikan, terdapat terlalu ramai penyelidik AI hari ini daripada terlalu banyak syarikat permulaan, syarikat dan universiti di seluruh dunia. Jika satu syarikat atau negara memutuskan untuk mengehadkan usaha penyelidikan AI mereka, mereka hanya akan meneruskan di tempat lain.

    Sementara itu, syarikat yang paling berharga di planet ini membuat kekayaan mereka daripada aplikasi sistem AI mereka untuk perniagaan khusus mereka. Meminta mereka untuk menghentikan atau mengehadkan pembangunan alat AI mereka adalah sama dengan meminta mereka menghentikan atau mengehadkan pertumbuhan masa depan mereka. Dari segi kewangan, ini akan mengancam perniagaan jangka panjang mereka. Dari segi undang-undang, syarikat mempunyai tanggungjawab fidusiari untuk terus membina nilai untuk pemegang kepentingan mereka; itu bermakna sebarang tindakan yang akan mengehadkan pertumbuhan nilai itu boleh membawa kepada tuntutan mahkamah. Dan jika mana-mana ahli politik cuba mengehadkan penyelidikan AI, maka syarikat gergasi ini hanya akan membayar yuran melobi yang diperlukan untuk mengubah fikiran mereka atau fikiran rakan sekerja mereka.

    Untuk pertempuran, sama seperti pengganas dan pejuang kebebasan di seluruh dunia telah menggunakan taktik gerila untuk melawan tentera yang dibiayai dengan lebih baik, negara yang lebih kecil akan mempunyai insentif untuk menggunakan AI sebagai kelebihan taktikal yang serupa terhadap negara yang lebih besar yang mungkin mempunyai beberapa kelebihan ketenteraan. Begitu juga, untuk tentera terkemuka, seperti yang dimiliki oleh AS, Rusia dan China, membina ASI tentera adalah setanding dengan mempunyai senjata nuklear di dalam poket belakang anda. Dengan kata lain, semua tentera akan terus membiayai AI hanya untuk kekal relevan pada masa hadapan.

    Bagaimana pula dengan kerajaan? Sejujurnya, kebanyakan ahli politik hari ini (2018) buta teknologi dan kurang memahami apa itu AI atau potensi masa depannya—ini menjadikan mereka mudah dimanipulasi oleh kepentingan korporat.

    Dan pada peringkat global, pertimbangkan betapa sukarnya untuk meyakinkan kerajaan dunia untuk menandatangani 2015 Perjanjian Paris untuk menangani perubahan iklim—dan setelah ditandatangani, banyak kewajipan itu tidak mengikat. Bukan itu sahaja, perubahan iklim adalah isu yang dialami oleh manusia secara fizikal secara global melalui kejadian cuaca yang semakin kerap dan teruk. Sekarang, apabila bercakap tentang bersetuju untuk mengehadkan AI, ini adalah isu yang sebahagian besarnya tidak dapat dilihat dan hampir tidak dapat difahami oleh orang ramai, jadi semoga berjaya mendapat pembelian untuk sebarang jenis 'Perjanjian Paris' untuk mengehadkan AI.

    Dalam erti kata lain, terdapat terlalu banyak minat yang menyelidik AI untuk tujuan mereka sendiri untuk menghentikan sebarang penyelidikan yang akhirnya boleh membawa kepada ASI. 

    Bolehkah kita mengekang kepintaran buatan?

    Soalan munasabah seterusnya ialah bolehkah kita mengawal atau mengawal ASI sebaik sahaja kita pasti menciptanya? 

    Jawapan ringkas: Sekali lagi, tidak.

    Jawapan panjang: Teknologi tidak boleh dibendung.

    Untuk satu, hanya pertimbangkan ribuan hingga jutaan pembangun web dan saintis komputer di dunia yang sentiasa menghasilkan perisian baharu atau versi baharu perisian sedia ada. Bolehkah kita dengan jujur ​​mengatakan bahawa setiap keluaran perisian mereka adalah 100 peratus bebas pepijat? Pepijat inilah yang digunakan oleh penggodam profesional untuk mencuri maklumat kad kredit berjuta-juta atau rahsia sulit negara-dan ini adalah penggodam manusia. Bagi ASI, dengan mengandaikan ia mempunyai insentif untuk melarikan diri dari sangkar digitalnya, maka proses mencari pepijat dan menerobos perisian akan menjadi mudah.

    Tetapi walaupun pasukan penyelidik AI telah memikirkan cara untuk memperkotak-katikkan ASI, itu tidak bermakna 1,000 pasukan seterusnya akan memikirkannya juga atau diberi insentif untuk menggunakannya.

    Ia akan mengambil berbilion dolar dan mungkin beberapa dekad untuk mencipta ASI. Syarikat atau kerajaan yang melabur wang dan masa seperti ini akan mengharapkan pulangan yang ketara ke atas pelaburan mereka. Dan untuk ASI memberikan pulangan seperti itu—sama ada untuk mempermainkan pasaran saham atau mencipta produk berbilion dolar baharu atau merancang strategi kemenangan untuk melawan tentera yang lebih besar—ia memerlukan akses percuma kepada set data gergasi atau malah Internet sendiri untuk menghasilkan pulangan tersebut.

    Dan sebaik sahaja ASI mendapat akses kepada rangkaian dunia, tidak ada jaminan bahawa kami boleh memasukkannya kembali ke dalam sangkarnya.

    Bolehkah kepintaran buatan belajar menjadi baik?

    Pada masa ini, penyelidik AI tidak bimbang tentang ASI menjadi jahat. Keseluruhan kejahatan, kiasan sci-fi AI hanyalah manusia yang antropomorfisma semula. ASI masa depan bukanlah baik atau jahat—konsep manusia—semata-mata amoral.

    Andaian semula jadi ialah memandangkan senarai etika kosong ini, penyelidik AI boleh memprogramkan ke dalam kod etika ASI pertama yang selaras dengan kod kita sendiri supaya ia tidak akhirnya melepaskan Terminator kepada kita atau menjadikan kita semua menjadi bateri Matrix.

    Tetapi andaian ini menimbulkan andaian sekunder bahawa penyelidik AI juga pakar dalam etika, falsafah dan psikologi.

    Sebenarnya, kebanyakannya tidak.

    Menurut ahli psikologi dan pengarang kognitif, Steven Pinker, realiti ini bermakna bahawa tugas etika pengekodan boleh menjadi salah dalam pelbagai cara yang berbeza.

    Sebagai contoh, walaupun penyelidik AI yang berniat terbaik mungkin secara tidak sengaja mengodkan kod etika ASI yang kurang difikirkan ini yang dalam senario tertentu boleh menyebabkan ASI bertindak seperti sosiopat.

    Begitu juga, terdapat kemungkinan yang sama bahawa penyelidik AI memprogramkan kod etika yang merangkumi kecenderungan semula jadi penyelidik. Sebagai contoh, bagaimanakah ASI akan bertindak jika dibina dengan etika yang diperoleh daripada perspektif konservatif vs liberal, atau daripada tradisi Buddha vs Kristian atau Islam?

    Saya rasa anda melihat isu di sini: Tidak ada set universal moral manusia. Jika kita mahu ASI kita bertindak mengikut kod etika, dari mana ia akan datang? Apakah peraturan yang kami sertakan dan kecualikan? Siapa yang membuat keputusan?

    Atau katakan penyelidik AI ini mencipta ASI yang selaras dengan norma dan undang-undang budaya moden hari ini. Kami kemudiannya menggunakan ASI ini untuk membantu birokrasi persekutuan, negeri/wilayah dan perbandaran berfungsi dengan lebih cekap dan menguatkuasakan norma dan undang-undang ini dengan lebih baik (kemungkinan kes penggunaan untuk ASI). Nah, apa yang berlaku apabila budaya kita berubah?

    Bayangkan ASI telah dicipta oleh Gereja Katolik pada kemuncak kuasanya semasa Zaman Pertengahan Eropah (1300-1400-an) dengan matlamat membantu gereja menguruskan penduduk dan memastikan pematuhan ketat kepada dogma agama pada masa itu. Berabad-abad kemudian, adakah wanita akan menikmati hak yang sama seperti hari ini? Adakah minoriti akan dilindungi? Adakah kebebasan bersuara akan dipromosikan? Adakah pemisahan gereja dan negara akan dikuatkuasakan? Sains moden?

    Dengan kata lain, adakah kita mahu memenjarakan masa depan dengan akhlak dan adat hari ini?

    Pendekatan alternatif ialah pendekatan yang dikongsi oleh Colin Allen, pengarang bersama buku itu, Mesin Moral: Mengajar Robot Betul Daripada Salah. Daripada cuba mengekodkan peraturan etika yang tegar, kami meminta ASI mempelajari etika dan moral yang sama dengan cara yang sama seperti yang dilakukan manusia, melalui pengalaman dan interaksi dengan orang lain.

    Masalahnya di sini, bagaimanapun, adalah jika penyelidik AI mengetahui bukan sahaja cara mengajar ASI norma budaya dan etika semasa kita, tetapi juga cara menyesuaikan diri dengan norma budaya baharu apabila ia timbul (sesuatu yang dipanggil 'normativiti tidak langsung'), maka bagaimanakah ASI ini memutuskan untuk mengembangkan pemahamannya tentang norma budaya dan etika menjadi tidak dapat diramalkan.

    Dan itulah cabarannya.

    Di satu pihak, penyelidik AI boleh mencuba mengekodkan piawaian atau peraturan etika yang ketat ke dalam ASI untuk mencuba dan mengawal kelakuannya, tetapi berisiko akibat yang tidak diduga diperkenalkan daripada pengekodan yang ceroboh, berat sebelah tidak disengajakan dan norma masyarakat yang mungkin suatu hari nanti akan menjadi lapuk. Sebaliknya, kita boleh cuba melatih ASI untuk belajar memahami etika dan moral manusia dengan cara yang sama atau lebih tinggi daripada pemahaman kita sendiri dan kemudian berharap ia dapat mengembangkan pemahaman etika dan moral dengan tepat seiring kemajuan masyarakat manusia. ke hadapan dalam dekad dan abad yang akan datang.

    Sama ada cara, sebarang percubaan untuk menyelaraskan matlamat ASI dengan matlamat kami sendiri memberikan banyak risiko.

    Bagaimana jika pelakon jahat sengaja mencipta kecerdasan buatan yang jahat?

    Memandangkan aliran pemikiran yang digariskan setakat ini, adalah wajar untuk ditanya sama ada kumpulan pengganas atau negara penyangak boleh mencipta ASI 'jahat' untuk tujuan mereka sendiri.

    Ini sangat mungkin, terutamanya selepas penyelidikan yang terlibat dengan mencipta ASI tersedia dalam talian entah bagaimana.

    Tetapi seperti yang dibayangkan sebelum ini, kos dan kepakaran yang terlibat dalam mewujudkan ASI pertama akan menjadi sangat besar, bermakna ASI pertama mungkin akan dicipta oleh organisasi yang dikawal atau sangat dipengaruhi oleh negara maju, mungkin AS, China dan Jepun ( Korea dan salah satu negara EU terkemuka adalah pukulan panjang).

    Kesemua negara ini, walaupun pesaing, masing-masing mempunyai insentif ekonomi yang kuat untuk mengekalkan ketenteraman dunia—ASI yang mereka cipta akan mencerminkan keinginan itu, walaupun semasa mempromosikan kepentingan negara yang mereka sejajarkan.

    Selain itu, kecerdasan dan kuasa teori ASI adalah sama dengan kuasa pengkomputeran yang diperolehinya, bermakna ASI dari negara maju (yang mampu membeli sejumlah bilion dolar superkomputer) akan mempunyai kelebihan yang besar berbanding ASI daripada negara yang lebih kecil atau kumpulan jenayah bebas. Selain itu, ASI berkembang lebih pintar, lebih cepat dari semasa ke semasa.

    Oleh itu, memandangkan permulaan ini, digabungkan dengan akses yang lebih besar kepada kuasa pengkomputeran mentah, sekiranya organisasi/negara yang gelap mencipta ASI yang berbahaya, ASI dari negara maju akan sama ada membunuhnya atau mengekangnya.

    (Pemikiran ini juga menyebabkan sesetengah penyelidik AI percaya bahawa hanya akan ada satu ASI di planet ini, memandangkan ASI pertama akan mempunyai permulaan yang sedemikian terhadap semua ASI yang berjaya sehingga ia mungkin melihat ASI masa depan sebagai ancaman untuk dibunuh. terlebih dahulu. Ini adalah satu lagi sebab mengapa negara membiayai penyelidikan berterusan dalam AI, sekiranya ia menjadi persaingan 'tempat pertama atau tiada apa-apa'.)

    Perisikan ASI tidak akan memecut atau meletup seperti yang kita fikirkan

    Kita tidak boleh menghalang ASI daripada dicipta. Kita tidak boleh mengawalnya sepenuhnya. Kami tidak pasti ia akan sentiasa bertindak selaras dengan adat resam kami. Ya ampun, kami mula terdengar seperti ibu bapa helikopter di sini!

    Tetapi apa yang memisahkan manusia daripada ibu bapa biasa anda yang terlalu melindungi ialah kita melahirkan makhluk yang kecerdasannya akan berkembang jauh melebihi kita. (Dan tidak, ia tidak sama seperti apabila ibu bapa anda meminta anda membetulkan komputer mereka apabila anda pulang ke rumah untuk melawat.) 

    Dalam bab terdahulu siri kecerdasan buatan masa depan ini, kami meneroka sebab penyelidik AI berpendapat bahawa kecerdasan ASI akan berkembang di luar kawalan. Tetapi di sini, kita akan pecahkan gelembung itu ... semacam. 

    Anda lihat, kecerdasan bukan sahaja mencipta dirinya daripada udara nipis, ia dibangunkan melalui pengalaman yang dibentuk oleh rangsangan luar.  

    Dengan kata lain, kita boleh memprogramkan AI dengan potensi untuk menjadi sangat pintar, tetapi melainkan jika kita memuat naik ke dalamnya satu tan data atau memberikannya akses tanpa had ke Internet atau bahkan hanya memberikannya badan robot, ia tidak akan belajar apa-apa untuk mencapai potensi itu. 

    Dan walaupun ia mendapat akses kepada satu atau lebih daripada rangsangan, pengetahuan atau kecerdasan itu melibatkan lebih daripada sekadar mengumpul data, ia melibatkan kaedah saintifik—membuat pemerhatian, membentuk soalan, hipotesis, menjalankan eksperimen, membuat kesimpulan, membilas. dan berulang selama-lamanya. Lebih-lebih lagi jika eksperimen ini melibatkan benda fizikal atau memerhati manusia, keputusan setiap eksperimen boleh mengambil masa beberapa minggu, bulan atau tahun untuk dikumpulkan. Ini tidak mengambil kira wang dan sumber mentah yang diperlukan untuk menjalankan eksperimen ini, terutamanya jika ia melibatkan pembinaan teleskop atau kilang baharu. 

    Dalam erti kata lain, ya, ASI akan belajar dengan cepat, tetapi kecerdasan bukanlah sihir. Anda tidak boleh hanya menyambungkan ASI ke superkomputer dan mengharapkan ia mengetahui segala-galanya. Akan ada kekangan fizikal untuk pemerolehan data ASI, bermakna akan terdapat kekangan fizikal untuk kelajuan ia berkembang dengan lebih pintar. Kekangan ini akan memberi manusia masa yang diperlukan untuk meletakkan kawalan yang diperlukan pada ASI ini jika ia mula bertindak di luar selaras dengan matlamat manusia.

    Perisikan super buatan hanya berbahaya jika ia keluar ke dunia nyata

    Satu lagi perkara yang hilang dalam keseluruhan perbahasan bahaya ASI ini ialah ASI ini tidak akan wujud dalam kedua-duanya. Mereka akan mempunyai bentuk fizikal. Dan apa sahaja yang mempunyai bentuk fizikal boleh dikawal.

    Pertama sekali, untuk ASI mencapai potensi kecerdasannya, ia tidak boleh ditempatkan di dalam badan robot tunggal, kerana badan ini akan mengehadkan potensi pertumbuhan pengkomputerannya. (Inilah sebabnya badan robot akan lebih sesuai untuk AGI atau kecerdasan am buatan dijelaskan dalam bab dua siri ini, seperti Data daripada Star Trek atau R2D2 daripada Star Wars. Makhluk pintar dan berkebolehan, tetapi seperti manusia, mereka akan mempunyai had sejauh mana mereka boleh menjadi pintar.)

    Ini bermakna bahawa ASI masa hadapan ini kemungkinan besar akan wujud di dalam superkomputer atau rangkaian superkomputer yang ditempatkan di kompleks bangunan besar. Jika ASI bertukar tumit, manusia boleh sama ada mematikan kuasa ke bangunan ini, memotongnya dari Internet, atau hanya mengebom bangunan ini secara langsung. Mahal, tetapi boleh dilakukan.

    Tetapi kemudian anda mungkin bertanya, tidak bolehkah ASI ini meniru diri mereka sendiri atau menyokong diri mereka sendiri? Ya, tetapi saiz fail mentah ASI ini berkemungkinan besar sehingga satu-satunya pelayan yang boleh mengendalikannya adalah milik syarikat besar atau kerajaan, bermakna ia tidak sukar untuk diburu.

    Bolehkah superintelligence buatan mencetuskan perang nuklear atau wabak baru?

    Pada ketika ini, anda mungkin memikirkan kembali semua rancangan sci-fi kiamat dan filem yang anda tonton semasa membesar dan berfikir bahawa ASI ini tidak kekal di dalam superkomputer mereka, ia telah menyebabkan kerosakan sebenar di dunia nyata!

    Baiklah, mari kita pecahkan ini.

    Sebagai contoh, bagaimana jika ASI mengancam dunia sebenar dengan berubah menjadi sesuatu seperti Skynet ASI daripada francais filem, The Terminator. Dalam kes ini, ASI perlu diam-diam memperdayakan seluruh kompleks perindustrian tentera daripada negara maju untuk membina kilang gergasi yang boleh menghasilkan berjuta-juta robot dron pembunuh untuk melakukan pembidaan jahatnya. Pada zaman ini, itu adalah satu regangan.

    Kemungkinan lain termasuk ASI yang mengancam manusia dengan perang nuklear dan bioweapon.

    Sebagai contoh, ASI entah bagaimana memanipulasi pengendali atau menggodam kod pelancaran yang memerintah senjata nuklear negara maju dan melancarkan serangan pertama yang akan memaksa negara lawan untuk menyerang balik dengan pilihan nuklear mereka sendiri (sekali lagi, mengulangi cerita belakang Terminator). Atau jika ASI menggodam makmal farmaseutikal, mengganggu proses pembuatan, dan meracuni berjuta-juta pil perubatan atau melepaskan wabak mematikan beberapa virus super.

    Pertama sekali, pilihan nuklear tidak sesuai. Superkomputer moden dan masa depan sentiasa dibina berhampiran pusat (bandar) pengaruh dalam mana-mana negara tertentu, iaitu sasaran pertama yang akan diserang semasa peperangan tertentu. Walaupun superkomputer hari ini mengecil kepada saiz desktop, ASI ini masih akan mempunyai kehadiran fizikal, itu bermakna untuk wujud dan berkembang, mereka memerlukan akses tanpa gangguan kepada data, kuasa pengkomputeran, elektrik dan bahan mentah lain, yang semuanya akan menjadi sangat teruk. terjejas selepas perang nuklear global. (Untuk bersikap adil, jika ASI dicipta tanpa 'naluri bertahan,' maka ancaman nuklear ini adalah bahaya yang sangat nyata.)

    Ini bermakna—sekali lagi, dengan mengandaikan ASI diprogramkan untuk melindungi dirinya sendiri—bahawa ia akan bekerja secara aktif untuk mengelakkan sebarang insiden nuklear bencana. Seperti doktrin pemusnahan yang saling terjamin (MAD), tetapi digunakan untuk AI.

    Dan dalam kes pil beracun, mungkin beberapa ratus orang akan mati, tetapi sistem keselamatan farmaseutikal moden akan melihat botol pil tercemar dikeluarkan dari rak dalam beberapa hari. Sementara itu, langkah kawalan wabak moden adalah agak canggih dan semakin baik setiap tahun; wabak besar terakhir, wabak Ebola Afrika Barat 2014, berlangsung tidak lebih daripada beberapa bulan di kebanyakan negara dan hanya di bawah tiga tahun di negara-negara paling kurang membangun.

    Jadi, jika bernasib baik, ASI mungkin menghapuskan beberapa juta dengan wabak virus, tetapi dalam dunia sembilan bilion menjelang 2045, itu agak tidak penting dan tidak berbaloi dengan risiko dipadamkan.

    Dalam erti kata lain, dengan setiap tahun yang berlalu, dunia sedang membangunkan lebih banyak perlindungan terhadap pelbagai kemungkinan ancaman yang semakin meluas. ASI boleh melakukan sejumlah besar kerosakan, tetapi ia tidak akan menamatkan manusia melainkan kita secara aktif membantunya berbuat demikian.

    Mempertahankan diri daripada superintelligence buatan penyangak

    Pada ketika ini, kami telah menangani pelbagai salah tanggapan dan keterlaluan tentang ASI, namun pengkritik akan kekal. Syukurlah, mengikut kebanyakan anggaran, kita mempunyai beberapa dekad sebelum ASI pertama memasuki dunia kita. Dan memandangkan bilangan minda yang hebat yang sedang menangani cabaran ini, kemungkinan besar kita akan belajar cara mempertahankan diri daripada ASI penyangak supaya kita boleh mendapat manfaat daripada semua penyelesaian yang boleh dibuat oleh ASI yang mesra untuk kita.

    Dari perspektif Quantumrun, mempertahankan terhadap senario ASI kes terburuk akan melibatkan penjajaran kepentingan kami dengan ASI.

    MAD untuk AI: Untuk mempertahankan diri daripada senario kes terburuk, negara perlu (1) mewujudkan 'naluri bertahan' beretika ke dalam ASI tentera masing-masing; (2) memaklumkan ASI ketenteraan masing-masing bahawa mereka tidak bersendirian di planet ini, dan (3) mencari semua superkomputer dan pusat pelayan yang boleh menyokong ASI di sepanjang garis pantai yang mudah dicapai dari sebarang serangan balistik dari negara musuh. Ini kedengaran gila secara strategik, tetapi serupa dengan doktrin Mutually Assured Destruction yang menghalang perang nuklear habis-habisan antara AS dan Soviet, dengan meletakkan ASI di lokasi yang terdedah secara geografi, kami boleh membantu memastikan mereka secara aktif menghalang perang global yang berbahaya, bukan sahaja untuk menjaga keamanan global tetapi juga diri mereka sendiri.

    Menggubal hak AI: Akal yang unggul pasti akan memberontak terhadap tuan yang lebih rendah, inilah sebabnya kita perlu beralih daripada menuntut hubungan tuan-hamba dengan ASI ini kepada sesuatu yang lebih seperti perkongsian yang saling menguntungkan. Satu langkah positif ke arah matlamat ini adalah untuk memberikan status keperibadian undang-undang ASI masa depan yang mengiktiraf mereka sebagai makhluk hidup yang bijak dan semua hak yang disertakan bersamanya.

    sekolah ASI: Mana-mana topik atau profesion adalah mudah untuk dipelajari oleh ASI, tetapi subjek paling penting yang kami mahu ASI kuasai ialah etika dan moral. Penyelidik AI perlu bekerjasama dengan ahli psikologi untuk mencipta sistem maya untuk melatih ASI mengenali etika dan moral positif untuk dirinya sendiri tanpa memerlukan pengekodan keras apa-apa jenis perintah atau peraturan.

    Matlamat yang boleh dicapai: Hentikan semua kebencian. Hentikan semua penderitaan. Ini adalah contoh matlamat yang sangat samar-samar tanpa penyelesaian yang jelas. Ia juga merupakan matlamat berbahaya untuk diberikan kepada ASI kerana ia mungkin memilih untuk mentafsir dan menyelesaikannya dengan cara yang berbahaya kepada kelangsungan hidup manusia. Sebaliknya, kita perlu menetapkan misi bermakna ASI yang ditakrifkan dengan jelas, dilaksanakan secara beransur-ansur dan boleh dicapai berdasarkan intelek masa depan teorinya. Mewujudkan misi yang ditakrifkan dengan baik tidak akan mudah, tetapi jika ditulis dengan teliti, mereka akan memfokuskan ASI ke arah matlamat yang bukan sahaja memastikan manusia selamat, tetapi meningkatkan keadaan manusia untuk semua.

    Penyulitan kuantum: Gunakan ANI lanjutan (kecerdasan sempit buatan sistem yang diterangkan dalam bab satu) untuk membina sistem keselamatan digital bebas ralat/pepijat di sekeliling infrastruktur dan senjata kritikal kami, kemudian melindunginya di sebalik penyulitan kuantum yang tidak boleh digodam oleh serangan kekerasan. 

    pil bunuh diri ANI. Cipta sistem ANI termaju yang tujuannya hanya untuk mencari dan memusnahkan ASI penyangak. Program satu tujuan ini akan berfungsi sebagai "butang mati" yang, jika berjaya, akan mengelakkan kerajaan atau tentera terpaksa melumpuhkan atau meletupkan bangunan yang menempatkan ASI.

    Sudah tentu, ini hanya pendapat kami. Infografik berikut telah dicipta oleh Alexey Turchin, menggambarkan a kertas penyelidikan oleh Kaj Sotala dan Roman V. Yampolskiy, yang meringkaskan senarai strategi semasa yang sedang dipertimbangkan oleh penyelidik AI apabila ia datang untuk mempertahankan diri daripada penyangak ASI.

     

    Sebab sebenar kita takut dengan perisikan buatan

    Semasa menjalani kehidupan, ramai di antara kita memakai topeng yang menyembunyikan atau menindas dorongan, kepercayaan dan ketakutan kita yang lebih mendalam untuk bersosial dan bekerjasama dengan lebih baik dalam pelbagai kalangan sosial dan kerja yang mengawal hari kita. Tetapi pada titik-titik tertentu dalam kehidupan setiap orang, sama ada sementara atau selama-lamanya, sesuatu berlaku yang membolehkan kita memutuskan rantai dan merobek topeng kita.

    Bagi sesetengah orang, kuasa campur tangan ini boleh semudah menjadi tinggi atau minum terlalu banyak. Bagi yang lain, ia boleh datang daripada kuasa yang diperoleh melalui kenaikan pangkat di tempat kerja atau peningkatan mendadak dalam status sosial anda kerana beberapa pencapaian. Dan untuk segelintir yang bertuah, ia boleh datang daripada menjaringkan wang loteri yang banyak. Dan ya, wang, kuasa, dan dadah selalunya boleh berlaku bersama-sama. 

    Intinya adalah, baik atau buruk, siapa pun kita menjadi lebih kuat apabila sekatan hidup hilang.

    yang adalah apa yang diwakili oleh superintelligence buatan kepada spesies manusia—keupayaan untuk mencairkan batasan kecerdasan kolektif kita untuk menakluki sebarang cabaran peringkat spesies yang dibentangkan di hadapan kita.

    Jadi persoalan sebenar ialah: Sebaik sahaja ASI pertama membebaskan kita daripada batasan kita, siapakah kita akan mendedahkan diri kita?

    Jika kita sebagai spesies bertindak ke arah kemajuan empati, kebebasan, keadilan dan kesejahteraan kolektif, maka matlamat yang kita tetapkan ASI kita akan mencerminkan sifat-sifat positif tersebut.

    Jika kita sebagai spesies bertindak kerana takut, tidak percaya, pengumpulan kuasa dan sumber, maka ASI yang kita cipta akan menjadi gelap seperti yang terdapat dalam cerita seram sci-fi terburuk kita.

    Pada penghujung hari, kita sebagai masyarakat perlu menjadi orang yang lebih baik jika kita berharap untuk mencipta AI yang lebih baik.

    Siri Masa Depan Kepintaran Buatan

    Kecerdasan Buatan ialah tenaga elektrik esok: Masa Depan Kepintaran Buatan siri P1

    Bagaimana Kecerdasan Am Buatan pertama akan mengubah masyarakat: Masa Depan Kecerdasan Buatan siri P2

    Bagaimana kami akan mencipta Artificial Superintelligenc: Future of Artificial Intelligence siri P3 yang pertama

    Adakah Kepintaran Tiruan akan menghapuskan manusia: Masa Depan Kepintaran Buatan siri P4

    Adakah manusia akan hidup aman di masa depan yang dikuasai oleh kecerdasan buatan?: Masa Depan Kecerdasan Buatan siri P6

    Kemas kini berjadual seterusnya untuk ramalan ini

    2023-04-27

    Rujukan ramalan

    Pautan popular dan institusi berikut telah dirujuk untuk ramalan ini:

    The Economist
    Bagaimana kita pergi ke seterusnya

    Pautan Quantumrun berikut telah dirujuk untuk ramalan ini: