Bagaimana manusia akan bertahan melawan Kecerdasan Buatan: Masa Depan Kecerdasan Buatan P5

KREDIT GAMBAR: lari kuantum

Bagaimana manusia akan bertahan melawan Kecerdasan Buatan: Masa Depan Kecerdasan Buatan P5

    Tahun ini 65,000 SM, dan sebagai Thylacoleo, Anda dan jenis Anda adalah pemburu hebat di Australia kuno. Anda menjelajahi tanah dengan bebas dan hidup dalam keseimbangan dengan sesama pemangsa dan mangsa yang menempati tanah di samping Anda. Musim membawa perubahan, tetapi status Anda di kerajaan hewan tetap tak tertandingi selama Anda dan nenek moyang Anda bisa mengingatnya. Kemudian suatu hari, pendatang baru muncul.

    Rumor mengatakan mereka datang dari tembok air raksasa, tetapi makhluk ini tampaknya lebih nyaman tinggal di darat. Anda harus melihat sendiri makhluk-makhluk ini.

    Butuh beberapa hari, tetapi Anda akhirnya berhasil mencapai pantai. Api di langit mulai menyala, waktu yang tepat untuk memata-matai makhluk-makhluk ini, bahkan mungkin mencoba memakannya untuk melihat bagaimana rasanya.

    Anda melihat satu.

    Ia berjalan dengan dua kaki dan tidak berbulu. Itu terlihat lemah. Tidak mengesankan. Hampir tidak sebanding dengan ketakutan yang ditimbulkannya di antara kerajaan.

    Anda mulai dengan hati-hati melakukan pendekatan saat malam mengusir cahaya. Anda semakin dekat. Kemudian Anda membeku. Suara keras terdengar dan kemudian empat lagi muncul dari hutan di belakangnya. Ada berapa banyak?

    Makhluk itu mengikuti yang lain ke garis pohon, dan Anda mengikuti. Dan semakin banyak Anda melakukannya, semakin banyak suara aneh yang Anda dengar sampai Anda melihat lebih banyak lagi makhluk-makhluk ini. Anda mengikuti di kejauhan saat mereka keluar dari hutan ke tempat terbuka di tepi pantai. Mereka ada banyak. Tapi yang lebih penting, mereka semua duduk dengan tenang di sekitar api unggun.

    Anda pernah melihat kebakaran ini sebelumnya. Di musim panas, api di langit terkadang mengunjungi daratan dan membakar seluruh hutan. Makhluk-makhluk ini, di sisi lain, entah bagaimana mengendalikannya. Makhluk macam apa yang bisa memiliki kekuatan seperti itu?

    Anda melihat ke kejauhan. Lebih banyak lagi yang datang melewati tembok air raksasa.

    Anda mundur selangkah.

    Makhluk-makhluk ini tidak seperti yang lain di kerajaan. Mereka adalah sesuatu yang sama sekali baru.

    Anda memutuskan untuk pergi dan memperingatkan kerabat Anda. Jika jumlah mereka tumbuh terlalu besar, siapa yang tahu apa yang mungkin terjadi.

    ***

    Diyakini Thylacoleo punah dalam waktu yang relatif singkat setelah kedatangan manusia, bersama dengan mayoritas megafauna lainnya di benua Australia. Tidak ada predator mamalia puncak lainnya yang menggantikannya—kecuali jika Anda menghitung manusia dalam kategori itu.

    Memainkan alegori ini adalah fokus dari bab seri ini: Akankah kecerdasan buatan (ASI) di masa depan mengubah kita semua menjadi baterai dan kemudian memasukkan kita ke dalam Matrix atau akankah manusia mencari cara untuk menghindari menjadi korban fiksi ilmiah, plot kiamat AI?

    Sejauh ini dalam seri kami di Masa Depan Kecerdasan Buatan, kami telah menjelajahi semua jenis AI, termasuk potensi positif dari bentuk AI tertentu, ASI: makhluk buatan yang kecerdasannya di masa depan akan membuat kita terlihat seperti semut jika dibandingkan.

    Tapi siapa bilang makhluk secerdas ini akan menerima perintah dari manusia selamanya. Apa yang akan kita lakukan jika semuanya berjalan ke selatan? Bagaimana kita akan bertahan melawan ASI yang nakal?

    Dalam bab ini, kita akan memotong hype palsu—setidaknya yang berkaitan dengan bahaya 'tingkat kepunahan manusia'—dan fokus pada opsi pertahanan diri realistis yang tersedia bagi pemerintah dunia.

    Bisakah kita menghentikan semua penelitian lebih lanjut tentang superintelligence buatan?

    Mengingat potensi risiko yang dapat ditimbulkan ASI bagi umat manusia, pertanyaan pertama yang jelas untuk diajukan adalah: Tidak bisakah kita menghentikan semua penelitian lebih lanjut tentang AI? Atau setidaknya melarang penelitian apa pun yang dapat membuat kita hampir membuat ASI?

    Jawaban singkat: Tidak.

    Jawaban panjang: Mari kita lihat berbagai pemain yang terlibat di sini.

    Di tingkat penelitian, ada terlalu banyak peneliti AI saat ini dari terlalu banyak startup, perusahaan, dan universitas di seluruh dunia. Jika satu perusahaan atau negara memutuskan untuk membatasi upaya penelitian AI mereka, mereka hanya akan melanjutkan di tempat lain.

    Sementara itu, perusahaan-perusahaan paling berharga di planet ini menghasilkan banyak uang dari penerapan sistem AI untuk bisnis spesifik mereka. Meminta mereka untuk menghentikan atau membatasi pengembangan alat AI sama dengan meminta mereka untuk menghentikan atau membatasi pertumbuhan mereka di masa depan. Secara finansial, ini akan mengancam bisnis jangka panjang mereka. Secara hukum, korporasi memiliki tanggung jawab fidusia untuk terus membangun nilai bagi para pemangku kepentingannya; itu berarti tindakan apa pun yang akan membatasi pertumbuhan nilai itu dapat mengarah pada tuntutan hukum. Dan jika ada politisi yang mencoba membatasi penelitian AI, maka perusahaan raksasa ini hanya akan membayar biaya lobi yang diperlukan untuk mengubah pikiran mereka atau pikiran rekan-rekan mereka.

    Untuk pertempuran, sama seperti teroris dan pejuang kemerdekaan di seluruh dunia telah menggunakan taktik gerilya untuk melawan militer yang didanai lebih baik, negara-negara kecil akan memiliki insentif untuk menggunakan AI sebagai keuntungan taktis serupa melawan negara-negara besar yang mungkin memiliki sejumlah keuntungan militer. Demikian juga, untuk militer papan atas, seperti milik AS, Rusia, dan China, membangun ASI militer setara dengan memiliki gudang senjata nuklir di saku belakang Anda. Dengan kata lain, semua militer akan terus mendanai AI hanya untuk tetap relevan di masa depan.

    Bagaimana dengan pemerintah? Sejujurnya, sebagian besar politisi saat ini (2018) buta teknologi dan memiliki sedikit pemahaman tentang apa itu AI atau potensi masa depannya—ini membuat mereka mudah dimanipulasi oleh kepentingan perusahaan.

    Dan di tingkat global, pertimbangkan betapa sulitnya meyakinkan pemerintah dunia untuk menandatangani 2015 Perjanjian Paris untuk mengatasi perubahan iklim—dan setelah ditandatangani, banyak kewajiban bahkan tidak mengikat. Tidak hanya itu, perubahan iklim adalah masalah yang dialami orang secara fisik secara global melalui peristiwa cuaca yang semakin sering dan parah. Sekarang, ketika berbicara tentang menyetujui batasan pada AI, ini adalah masalah yang sebagian besar tidak terlihat dan hampir tidak dapat dipahami oleh publik, jadi semoga berhasil mendapatkan persetujuan untuk segala jenis 'Perjanjian Paris' untuk membatasi AI.

    Dengan kata lain, ada terlalu banyak minat untuk meneliti AI untuk tujuan mereka sendiri untuk menghentikan penelitian apa pun yang pada akhirnya dapat mengarah pada ASI. 

    Bisakah kita mengurung superintelligence buatan?

    Pertanyaan masuk akal berikutnya adalah bisakah kita mengurung atau mengontrol ASI begitu kita mau membuatnya? 

    Jawaban singkat: Sekali lagi, tidak.

    Jawaban panjang: Teknologi tidak dapat dibendung.

    Pertama, pertimbangkan ribuan hingga jutaan pengembang web dan ilmuwan komputer di dunia yang terus-menerus membuat perangkat lunak baru atau versi baru dari perangkat lunak yang ada. Bisakah kita dengan jujur ​​mengatakan bahwa setiap rilis perangkat lunak mereka 100 persen bebas bug? Bug inilah yang digunakan peretas profesional untuk mencuri informasi kartu kredit jutaan orang atau rahasia rahasia negara—dan ini adalah peretas manusia. Untuk ASI, dengan asumsi ia memiliki insentif untuk keluar dari kandang digitalnya, maka proses menemukan bug dan menerobos perangkat lunak akan sangat mudah.

    Tetapi bahkan jika tim peneliti AI menemukan cara untuk mengemas ASI, itu tidak berarti bahwa 1,000 tim berikutnya akan mengetahuinya juga atau diberi insentif untuk menggunakannya.

    Dibutuhkan miliaran dolar dan bahkan mungkin puluhan tahun untuk membuat ASI. Perusahaan atau pemerintah yang menginvestasikan uang dan waktu semacam ini akan mengharapkan pengembalian yang signifikan atas investasi mereka. Dan bagi ASI untuk memberikan pengembalian semacam itu—apakah itu untuk mempermainkan pasar saham atau menciptakan produk miliaran dolar baru atau merencanakan strategi kemenangan untuk melawan pasukan yang lebih besar—ia akan membutuhkan akses gratis ke kumpulan data raksasa atau bahkan Internet sendiri untuk menghasilkan pengembalian tersebut.

    Dan begitu ASI mendapatkan akses ke jaringan dunia, tidak ada jaminan bahwa kami dapat memasukkannya kembali ke dalam kandangnya.

    Bisakah superintelijen buatan belajar menjadi baik?

    Saat ini, peneliti AI tidak khawatir ASI menjadi jahat. Seluruh kejahatan, kiasan sci-fi AI hanyalah manusia yang melakukan antropomorfisasi lagi. ASI masa depan tidak akan baik atau jahat—konsep manusia—hanya amoral.

    Asumsi alaminya adalah bahwa dengan catatan etik kosong ini, peneliti AI dapat memprogram ke dalam kode etik ASI pertama yang sejalan dengan kode etik kita sendiri sehingga tidak berakhir dengan melepaskan Terminator pada kita atau mengubah kita semua menjadi baterai Matrix.

    Tetapi asumsi ini menimbulkan asumsi sekunder bahwa peneliti AI juga ahli dalam etika, filsafat, dan psikologi.

    Sebenarnya, sebagian besar tidak.

    Menurut psikolog kognitif dan penulis, Steven Pinker, kenyataan ini berarti bahwa tugas pengkodean etika bisa salah dalam berbagai cara yang berbeda.

    Misalnya, bahkan para peneliti AI yang bermaksud baik mungkin secara tidak sengaja mengkodekan ASI ini dengan buruk memikirkan kode etik yang dalam skenario tertentu dapat menyebabkan ASI bertindak seperti sosiopat.

    Demikian juga, ada kemungkinan yang sama bahwa peneliti AI memprogram kode etik yang menyertakan bias bawaan peneliti. Misalnya, bagaimana perilaku ASI jika dibangun dengan etika yang diturunkan dari perspektif konservatif vs liberal, atau dari tradisi Buddhis vs Kristen atau Islam?

    Saya pikir Anda melihat masalahnya di sini: Tidak ada seperangkat moral manusia yang universal. Jika kita ingin ASI kita bertindak dengan kode etik, dari mana asalnya? Aturan apa yang kami sertakan dan kecualikan? Siapa yang memutuskan?

    Atau katakanlah para peneliti AI ini membuat ASI yang sangat sesuai dengan norma dan hukum budaya modern saat ini. Kami kemudian menggunakan ASI ini untuk membantu birokrasi federal, negara bagian/provinsi, dan kota berfungsi lebih efisien dan menegakkan norma dan undang-undang ini dengan lebih baik (omong-omong, kemungkinan kasus penggunaan ASI). Nah, apa jadinya bila budaya kita berubah?

    Bayangkan sebuah ASI diciptakan oleh Gereja Katolik pada puncak kekuasaannya selama Eropa Abad Pertengahan (1300-1400-an) dengan tujuan membantu gereja mengelola populasi dan memastikan kepatuhan yang ketat terhadap dogma agama saat itu. Berabad-abad kemudian, apakah perempuan akan menikmati hak yang sama seperti sekarang? Akankah minoritas dilindungi? Apakah kebebasan berbicara akan dipromosikan? Apakah pemisahan gereja dan negara akan ditegakkan? Sains modern?

    Dengan kata lain, apakah kita ingin memenjarakan masa depan dengan moral dan adat istiadat hari ini?

    Pendekatan alternatif adalah salah satu yang dibagikan oleh Colin Allen, rekan penulis buku, Mesin Moral: Mengajar Robot Benar Dari Salah. Alih-alih mencoba membuat kode aturan etika yang kaku, kami meminta ASI mempelajari etika dan moralitas umum dengan cara yang sama seperti yang dilakukan manusia, melalui pengalaman dan interaksi dengan orang lain.

    Masalahnya di sini, bagaimanapun, adalah jika peneliti AI tidak hanya mengetahui bagaimana mengajarkan ASI norma budaya dan etika kita saat ini, tetapi juga bagaimana beradaptasi dengan norma budaya baru saat mereka muncul (sesuatu yang disebut 'normativitas tidak langsung'), lalu bagaimana ASI ini memutuskan untuk mengembangkan pemahamannya tentang norma budaya dan etika menjadi tidak dapat diprediksi.

    Dan itulah tantangannya.

    Di satu sisi, peneliti AI dapat mencoba mengkodekan standar atau aturan etika yang ketat ke dalam ASI untuk mencoba dan mengendalikan perilakunya, tetapi berisiko menerima konsekuensi yang tidak terduga dari pengkodean yang ceroboh, bias yang tidak disengaja, dan norma-norma sosial yang suatu hari nanti mungkin menjadi usang. Di sisi lain, kita dapat mencoba melatih ASI untuk belajar memahami etika dan moral manusia dengan cara yang sama atau lebih tinggi dari pemahaman kita sendiri dan kemudian berharap dapat secara akurat mengembangkan pemahamannya tentang etika dan moral seiring kemajuan masyarakat manusia. maju selama beberapa dekade dan abad mendatang.

    Bagaimanapun, setiap upaya untuk menyelaraskan tujuan ASI dengan tujuan kita sendiri menghadirkan banyak risiko.

    Bagaimana jika aktor jahat dengan sengaja menciptakan kecerdasan buatan yang jahat?

    Mengingat alur pemikiran yang diuraikan sejauh ini, adalah pertanyaan yang wajar untuk ditanyakan apakah mungkin bagi kelompok teroris atau negara jahat untuk menciptakan ASI 'jahat' untuk tujuan mereka sendiri.

    Ini sangat mungkin, terutama setelah penelitian yang terkait dengan pembuatan ASI tersedia secara online.

    Namun seperti yang telah disinggung sebelumnya, biaya dan keahlian yang terlibat dalam pembuatan ASI pertama akan sangat besar, artinya ASI pertama kemungkinan akan dibuat oleh organisasi yang dikendalikan atau sangat dipengaruhi oleh negara maju, seperti AS, Cina, dan Jepang ( Korea dan salah satu negara Uni Eropa terkemuka adalah tembakan panjang).

    Semua negara ini, meskipun pesaing, masing-masing memiliki insentif ekonomi yang kuat untuk menjaga ketertiban dunia—ASI yang mereka ciptakan akan mencerminkan keinginan itu, bahkan sambil mempromosikan kepentingan negara-negara yang mereka sekutukan.

    Selain itu, kecerdasan dan kekuatan teoretis ASI sama dengan kekuatan komputasi yang dapat diaksesnya, yang berarti ASI dari negara maju (yang mampu menghasilkan banyak miliar dolar superkomputer) akan memiliki keuntungan besar atas ASI dari negara-negara kecil atau kelompok kriminal independen. Juga, ASI tumbuh lebih cerdas, lebih cepat dari waktu ke waktu.

    Jadi, dengan permulaan ini, dikombinasikan dengan akses yang lebih besar ke daya komputasi mentah, jika organisasi/negara bayangan membuat ASI yang berbahaya, ASI dari negara maju akan membunuhnya atau mengurungnya.

    (Alur pemikiran ini juga mengapa beberapa peneliti AI percaya bahwa hanya akan ada satu ASI di planet ini, karena ASI pertama akan memiliki keunggulan di atas semua ASI berikutnya sehingga ASI di masa depan mungkin dianggap sebagai ancaman untuk dibunuh. Ini adalah alasan lain mengapa negara mendanai penelitian lanjutan di AI, kalau-kalau itu menjadi kompetisi 'tempat pertama atau tidak sama sekali'.)

    Kecerdasan ASI tidak akan berakselerasi atau meledak seperti yang kita pikirkan

    Kami tidak dapat menghentikan pembuatan ASI. Kami tidak bisa mengontrol sepenuhnya. Kami tidak yakin itu akan selalu bertindak sesuai dengan kebiasaan kita bersama. Astaga, kami mulai terdengar seperti orang tua helikopter di sini!

    Tetapi apa yang membedakan manusia dari orang tua Anda yang terlalu protektif adalah bahwa kita melahirkan makhluk yang kecerdasannya akan tumbuh jauh melampaui kita. (Dan tidak, itu tidak sama seperti ketika orang tua Anda meminta Anda untuk memperbaiki komputer mereka setiap kali Anda pulang untuk berkunjung.) 

    Dalam bab-bab sebelumnya dari seri kecerdasan buatan masa depan ini, kami mengeksplorasi mengapa peneliti AI berpikir bahwa kecerdasan ASI akan tumbuh di luar kendali. Tapi di sini, kita akan memecahkan gelembung itu ... semacam itu. 

    Anda lihat, kecerdasan tidak hanya muncul dengan sendirinya, tetapi dikembangkan melalui pengalaman yang dibentuk oleh rangsangan dari luar.  

    Dengan kata lain, kita dapat memprogram AI dengan potensi untuk menjadi super cerdas, tetapi kecuali jika kita mengunggah ke dalamnya banyak data atau memberinya akses tidak terbatas ke Internet atau bahkan hanya memberinya tubuh robot, ia tidak akan belajar apa pun untuk mencapai potensi itu. 

    Dan bahkan jika itu mendapatkan akses ke satu atau lebih dari rangsangan, pengetahuan, atau kecerdasan itu melibatkan lebih dari sekadar mengumpulkan data, itu melibatkan metode ilmiah — membuat pengamatan, membentuk pertanyaan, hipotesis, melakukan eksperimen, membuat kesimpulan, membilas dan ulangi selamanya. Apalagi jika eksperimen ini melibatkan hal-hal fisik atau mengamati manusia, hasil dari setiap eksperimen bisa memakan waktu berminggu-minggu, berbulan-bulan, atau bertahun-tahun untuk dikumpulkan. Ini bahkan tidak memperhitungkan uang dan sumber daya mentah yang dibutuhkan untuk melakukan eksperimen ini, terutama jika melibatkan pembangunan teleskop atau pabrik baru. 

    Dengan kata lain, ya, seorang ASI akan belajar dengan cepat, tetapi kecerdasan bukanlah keajaiban. Anda tidak bisa hanya menghubungkan ASI ke superkomputer dan berharap itu tahu segalanya. Akan ada kendala fisik untuk akuisisi data ASI, yang berarti akan ada kendala fisik untuk kecepatan yang tumbuh lebih cerdas. Kendala ini akan memberi umat manusia waktu yang dibutuhkan untuk menempatkan kontrol yang diperlukan pada ASI ini jika mulai bertindak di luar jalur tujuan manusia.

    Kecerdasan super buatan hanya berbahaya jika keluar ke dunia nyata

    Poin lain yang hilang dalam seluruh perdebatan bahaya ASI ini adalah bahwa ASI ini juga tidak akan ada. Mereka akan memiliki bentuk fisik. Dan segala sesuatu yang memiliki bentuk fisik dapat dikendalikan.

    Pertama, agar ASI mencapai potensi kecerdasannya, ASI tidak dapat ditempatkan di dalam satu badan robot, karena badan ini akan membatasi potensi pertumbuhan komputasinya. (Inilah mengapa badan robot akan lebih sesuai untuk AGI atau kecerdasan umum buatan dijelaskan dalam bab dua seri ini, seperti Data dari Star Trek atau R2D2 dari Star Wars. Makhluk yang pintar dan cakap, tetapi seperti manusia, mereka akan memiliki batas seberapa pintar mereka bisa.)

    Ini berarti bahwa ASI masa depan ini kemungkinan besar akan ada di dalam superkomputer atau jaringan superkomputer yang ditempatkan di kompleks bangunan besar. Jika ASI berubah, manusia dapat mematikan listrik ke gedung-gedung ini, memutusnya dari Internet, atau langsung mengebom gedung-gedung ini. Mahal, tapi bisa dilakukan.

    Tapi kemudian Anda mungkin bertanya, tidak bisakah ASI ini mereplikasi diri atau mendukung diri mereka sendiri? Ya, tetapi ukuran file mentah dari ASI ini kemungkinan akan sangat besar sehingga satu-satunya server yang dapat menanganinya adalah milik perusahaan besar atau pemerintah, yang berarti mereka tidak akan sulit untuk diburu.

    Bisakah superintelijen buatan memicu perang nuklir atau wabah baru?

    Pada titik ini, Anda mungkin memikirkan kembali semua acara dan film fiksi ilmiah kiamat yang Anda tonton saat tumbuh dewasa dan berpikir bahwa ASI ini tidak tinggal di dalam superkomputer mereka, mereka melakukan kerusakan nyata di dunia nyata!

    Nah, mari kita hancurkan ini.

    Misalnya, bagaimana jika ASI mengancam dunia nyata dengan berubah menjadi ASI Skynet dari franchise film, The Terminator. Dalam hal ini, ASI perlu secara rahasia menipu seluruh kompleks industri militer dari negara maju untuk membangun pabrik raksasa yang dapat menghasilkan jutaan robot drone pembunuh untuk melakukan penawaran jahatnya. Di hari ini dan usia, itu peregangan.

    Kemungkinan lain termasuk ASI yang mengancam manusia dengan perang nuklir dan senjata biologis.

    Misalnya, ASI entah bagaimana memanipulasi operator atau meretas kode peluncuran yang memerintahkan persenjataan nuklir negara maju dan meluncurkan serangan pertama yang akan memaksa negara lawan untuk menyerang balik dengan opsi nuklir mereka sendiri (sekali lagi, mengulangi backstory Terminator). Atau jika ASI meretas ke laboratorium farmasi, merusak proses pembuatan, dan meracuni jutaan pil medis atau melepaskan wabah mematikan dari beberapa virus super.

    Pertama, opsi nuklir tidak ada. Superkomputer modern dan masa depan selalu dibangun di dekat pusat (kota) pengaruh di negara mana pun, yaitu target pertama yang diserang selama perang tertentu. Bahkan jika superkomputer saat ini menyusut ke ukuran desktop, ASI ini akan tetap ada secara fisik, yang berarti untuk tetap ada dan tumbuh, mereka membutuhkan akses tanpa gangguan ke data, daya komputasi, listrik, dan bahan mentah lainnya, yang semuanya akan sangat merugikan. terganggu setelah perang nuklir global. (Agar adil, jika ASI dibuat tanpa 'naluri bertahan hidup', maka ancaman nuklir ini adalah bahaya yang sangat nyata.)

    Ini berarti—sekali lagi, dengan asumsi ASI diprogram untuk melindungi dirinya sendiri—bahwa ASI akan secara aktif bekerja untuk menghindari insiden nuklir bencana. Mirip seperti doktrin saling meyakinkan kehancuran (MAD), tetapi diterapkan pada AI.

    Dan dalam kasus pil beracun, mungkin beberapa ratus orang akan mati, tetapi sistem keamanan farmasi modern akan melihat botol pil yang tercemar diambil dari rak dalam beberapa hari. Sementara itu, langkah-langkah pengendalian wabah modern cukup canggih dan semakin baik dari tahun ke tahun; wabah besar terakhir, wabah Ebola Afrika Barat 2014, berlangsung tidak lebih dari beberapa bulan di sebagian besar negara dan hanya di bawah tiga tahun di negara-negara kurang berkembang.

    Jadi, jika beruntung, ASI dapat menghapus beberapa juta dengan wabah virus, tetapi di dunia sembilan miliar pada tahun 2045, itu akan relatif tidak signifikan dan tidak sebanding dengan risiko dihapus.

    Dengan kata lain, setiap tahun, dunia mengembangkan lebih banyak perlindungan terhadap kemungkinan ancaman yang semakin meluas. ASI dapat menyebabkan kerusakan yang signifikan, tetapi itu tidak akan mengakhiri kemanusiaan kecuali kita secara aktif membantunya melakukannya.

    Bertahan melawan superintelligence buatan yang nakal

    Pada titik ini, kami telah membahas berbagai kesalahpahaman dan berlebihan tentang ASI, namun kritik akan tetap ada. Untungnya, menurut sebagian besar perkiraan, kita memiliki beberapa dekade sebelum ASI pertama memasuki dunia kita. Dan mengingat banyaknya pemikir hebat yang saat ini mengerjakan tantangan ini, kemungkinan besar kita akan belajar bagaimana mempertahankan diri dari ASI yang nakal sehingga kita dapat mengambil manfaat dari semua solusi yang dapat dibuat oleh ASI yang ramah untuk kita.

    Dari sudut pandang Quantumrun, bertahan melawan skenario terburuk ASI akan melibatkan penyelarasan kepentingan kita dengan ASI.

    MAD untuk AI: Untuk bertahan melawan skenario terburuk, negara-negara perlu (1) menciptakan 'naluri bertahan hidup' etis ke dalam ASI militer mereka masing-masing; (2) menginformasikan ASI militer masing-masing bahwa mereka tidak sendirian di planet ini, dan (3) menemukan semua superkomputer dan pusat server yang dapat mendukung ASI di sepanjang garis pantai yang mudah dijangkau dari serangan balistik apa pun dari negara musuh. Ini terdengar gila secara strategis, tetapi mirip dengan doktrin Penghancuran Saling Menjamin yang mencegah perang nuklir habis-habisan antara AS dan Soviet, dengan menempatkan ASI di lokasi yang rentan secara geografis, kami dapat membantu memastikan mereka secara aktif mencegah perang global yang berbahaya, tidak hanya untuk menjaga perdamaian global tetapi juga diri mereka sendiri.

    Legislasikan hak AI: Kecerdasan yang unggul pasti akan memberontak melawan tuan yang lebih rendah, inilah mengapa kita perlu beralih dari menuntut hubungan tuan-pelayan dengan ASI ini ke sesuatu yang lebih seperti kemitraan yang saling menguntungkan. Langkah positif menuju tujuan ini adalah memberikan status badan hukum ASI di masa depan yang mengakui mereka sebagai makhluk hidup yang cerdas dan semua hak yang menyertainya.

    sekolah ASI: Topik atau profesi apa pun akan mudah dipelajari oleh seorang ASI, tetapi mata pelajaran terpenting yang ingin kita kuasai oleh ASI adalah etika dan moralitas. Peneliti AI perlu berkolaborasi dengan psikolog untuk merancang sistem virtual untuk melatih ASI untuk mengenali etika dan moralitas positif untuk dirinya sendiri tanpa perlu mengkodekan semua jenis perintah atau aturan.

    Tercapai gol: Akhiri semua kebencian. Akhiri semua penderitaan. Ini adalah contoh tujuan yang sangat ambigu tanpa solusi yang jelas. Mereka juga merupakan tujuan berbahaya untuk ditetapkan ke ASI karena mungkin memilih untuk menafsirkan dan menyelesaikannya dengan cara yang berbahaya bagi kelangsungan hidup manusia. Sebaliknya, kita perlu menugaskan misi ASI yang bermakna yang didefinisikan dengan jelas, dilaksanakan secara bertahap dan dapat dicapai mengingat kecerdasan teoritisnya di masa depan. Membuat misi yang terdefinisi dengan baik tidak akan mudah, tetapi jika ditulis dengan serius, mereka akan memfokuskan ASI pada tujuan yang tidak hanya menjaga keselamatan umat manusia, tetapi juga meningkatkan kondisi manusia untuk semua.

    Enkripsi kuantum: Gunakan ANI lanjutan (kecerdasan sempit buatan sistem yang dijelaskan dalam bab satu) untuk membangun sistem keamanan digital bebas kesalahan/bug di sekitar infrastruktur dan senjata penting kami, kemudian melindunginya lebih jauh di balik enkripsi kuantum yang tidak dapat diretas oleh serangan brute force. 

    pil bunuh diri ANI. Buat sistem ANI canggih yang tujuannya hanya untuk mencari dan menghancurkan ASI nakal. Program tujuan tunggal ini akan berfungsi sebagai "tombol mati" yang, jika berhasil, akan menghindari pemerintah atau militer harus menonaktifkan atau meledakkan bangunan yang menampung ASI.

    Tentu saja, ini hanya pendapat kami. Infografis berikut dibuat oleh Alexei Turchin, memvisualisasikan telaahan oleh Kaj Sotala dan Roman V. Yampolskiy, yang merangkum daftar strategi saat ini yang sedang dipertimbangkan oleh para peneliti AI dalam hal bertahan melawan ASI nakal.

     

    Alasan sebenarnya kita takut dengan kecerdasan super buatan

    Dalam menjalani hidup, banyak dari kita mengenakan topeng yang menyembunyikan atau menekan impuls, keyakinan, dan ketakutan kita yang lebih dalam untuk bersosialisasi dan berkolaborasi dengan lebih baik dalam berbagai lingkaran sosial dan pekerjaan yang mengatur hari-hari kita. Tetapi pada titik-titik tertentu dalam kehidupan setiap orang, baik sementara atau permanen, sesuatu terjadi yang memungkinkan kita memutuskan rantai dan merobek topeng kita.

    Bagi sebagian orang, kekuatan campur tangan ini bisa sesederhana seperti mabuk atau minum terlalu banyak. Bagi yang lain, itu bisa datang dari kekuatan yang diperoleh melalui promosi di tempat kerja atau status sosial Anda yang tiba-tiba naik berkat beberapa pencapaian. Dan untuk beberapa yang beruntung, itu bisa datang dari mencetak banyak uang lotre. Dan ya, uang, kekuasaan, dan obat-obatan seringkali bisa terjadi bersamaan. 

    Intinya adalah, baik atau buruk, siapa pun kita pada intinya akan diperkuat ketika pembatasan hidup mencair.

    Bahwa adalah apa yang diwakili oleh superintelijen buatan bagi spesies manusia—kemampuan untuk menghilangkan keterbatasan kecerdasan kolektif kita untuk menaklukkan setiap tantangan tingkat spesies yang disajikan di hadapan kita.

    Jadi pertanyaan sebenarnya adalah: Setelah ASI pertama membebaskan kita dari keterbatasan kita, siapa yang akan kita tampilkan?

    Jika kita sebagai spesies bertindak untuk memajukan empati, kebebasan, keadilan, dan kesejahteraan kolektif, maka tujuan yang kita tetapkan dalam ASI akan mencerminkan atribut positif tersebut.

    Jika kita sebagai spesies bertindak karena ketakutan, ketidakpercayaan, akumulasi kekuatan dan sumber daya, maka ASI yang kita buat akan menjadi gelap seperti yang ditemukan dalam cerita horor sci-fi terburuk kita.

    Pada akhirnya, kita sebagai masyarakat perlu menjadi orang yang lebih baik jika kita berharap dapat menciptakan AI yang lebih baik.

    Masa depan seri Kecerdasan Buatan

    Kecerdasan Buatan adalah listrik masa depan: Masa Depan seri Kecerdasan Buatan P1

    Bagaimana Kecerdasan Umum Buatan pertama akan mengubah masyarakat: Seri Masa Depan Kecerdasan Buatan P2

    Bagaimana kami akan membuat Artificial Superintelligenc: Future of Artificial Intelligence series P3

    Akankah Kecerdasan Buatan memusnahkan umat manusia: Seri Masa Depan Kecerdasan Buatan P4

    Akankah manusia hidup damai di masa depan yang didominasi oleh kecerdasan buatan?: Seri Masa Depan Kecerdasan Buatan P6

    Pembaruan terjadwal berikutnya untuk perkiraan ini

    2023-04-27

    Referensi perkiraan

    Tautan populer dan institusional berikut dirujuk untuk perkiraan ini:

    The Economist
    Bagaimana kita selanjutnya?

    Tautan Quantumrun berikut direferensikan untuk perkiraan ini: