कृत्रिम बुद्धिमत्तेपासून मानव कसे बचाव करेल: कृत्रिम बुद्धिमत्तेचे भविष्य P5

इमेज क्रेडिट: क्वांटमरुन

कृत्रिम बुद्धिमत्तेपासून मानव कसे बचाव करेल: कृत्रिम बुद्धिमत्तेचे भविष्य P5

    वर्ष आहे 65,000 BCE, आणि म्हणून a Thylacoleo, तुम्ही आणि तुमचा प्रकार प्राचीन ऑस्ट्रेलियाचे महान शिकारी होता. तुम्ही भूमीवर मुक्तपणे हिंडत होता आणि तुमच्या बाजूने जमीन व्यापलेल्या सहकारी शिकारी आणि शिकारींसोबत समतोलपणे जगलात. ऋतू बदल घडवून आणले, परंतु प्राणी साम्राज्यातील तुमची स्थिती जोपर्यंत तुम्ही आणि तुमचे पूर्वज लक्षात ठेवू शकतील तोपर्यंत आव्हानात्मक राहिले. मग एके दिवशी नवागत दिसले.

    अफवा आहे की ते विशाल पाण्याच्या भिंतीवरून आले होते, परंतु हे प्राणी जमिनीवर राहणे अधिक आरामदायक वाटत होते. तुम्हाला हे प्राणी स्वतःसाठी पहावे लागले.

    यास काही दिवस लागले, परंतु आपण शेवटी किनारपट्टीवर पोहोचलात. आकाशात आग पेटत होती, या प्राण्यांची हेरगिरी करण्यासाठी योग्य वेळ आहे, कदाचित त्यांची चव कशी आहे हे पाहण्यासाठी एक खाण्याचा प्रयत्न करा.

    तुम्ही एक स्पॉट करा.

    तो दोन पायांवर चालत होता आणि त्याला फर नव्हते. तो अशक्त दिसत होता. प्रभावहीन. त्यामुळे राज्यामध्ये जी भीती निर्माण होत होती ती फारशी किंमत नव्हती.

    रात्र उजेडाचा पाठलाग करत असताना तुम्ही तुमचा दृष्टिकोन काळजीपूर्वक बनवायला सुरुवात करता. तुम्ही जवळ येत आहात. मग तुम्ही फ्रीज करा. मोठा आवाज येतो आणि मग त्यामागच्या जंगलातून आणखी चार जण दिसतात. किती आहेत?

    प्राणी इतरांना ट्रीलाइनमध्ये फॉलो करतो आणि तुम्ही फॉलो करता. आणि तुम्ही जितके जास्त कराल तितके जास्त विचित्र आवाज तुम्हाला ऐकू येतील जोपर्यंत तुम्हाला यापैकी आणखी प्राणी सापडत नाहीत. ते जंगलातून किनार्‍याच्या क्लिअरिंगमध्ये बाहेर पडतात तेव्हा तुम्ही काही अंतरावर जाता. त्यापैकी बरेच आहेत. पण महत्त्वाचे म्हणजे ते सर्व शांतपणे आगीभोवती बसलेले असतात.

    तुम्ही या आगी पाहिल्या असतील. गरम हंगामात, आकाशातील आग कधीकधी जमिनीला भेट देते आणि संपूर्ण जंगले जाळून टाकते. दुसरीकडे, हे प्राणी ते कसेतरी नियंत्रित करत होते. अशी शक्ती कोणत्या प्रकारच्या प्राण्यांमध्ये असू शकते?

    तुम्ही अंतरावर पहा. महाकाय पाण्याच्या भिंतीवर अधिक येत आहेत.

    तुम्ही एक पाऊल मागे घ्या.

    हे प्राणी राज्यातील इतरांसारखे नाहीत. ते पूर्णपणे नवीन आहेत.

    तुम्ही निघून जाण्याचा निर्णय घ्या आणि तुमच्या नातेवाईकांना सावध करा. जर त्यांची संख्या खूप मोठी झाली तर काय होईल कोणास ठाऊक.

    ***

    असे मानले जाते की ऑस्ट्रेलियन खंडातील इतर बहुसंख्य मेगाफौनासह, मानवाच्या आगमनानंतर तुलनेने अल्पावधीत थायलॅकोलिओ नामशेष झाला. इतर कोणत्याही सर्वोच्च सस्तन प्राण्यांच्या भक्षकांनी त्याचे स्थान घेतले नाही - जोपर्यंत आपण त्या श्रेणीतील मानवांची गणना करत नाही.

    हे रूपक मांडणे हा या मालिकेतील प्रकरणाचा फोकस आहे: भविष्यातील आर्टिफिशियल सुपरइंटिलिजन्स (ASI) आपल्या सर्वांना बॅटरीमध्ये बदलेल आणि नंतर आपल्याला मॅट्रिक्समध्ये जोडेल किंवा मानव एखाद्या साय-फायचा बळी होऊ नये यासाठी मार्ग शोधेल, AI जगाचा शेवटचा कट?

    आतापर्यंत आमच्या मालिकेत कृत्रिम बुद्धिमत्तेचे भविष्य, आम्ही सर्व प्रकारचे AI एक्सप्लोर केले आहे, ज्यामध्ये AI च्या विशिष्ट स्वरूपाच्या सकारात्मक क्षमतेचा समावेश आहे, ASI: एक कृत्रिम प्राणी ज्याची भविष्यातील बुद्धिमत्ता आपल्याला तुलनेत मुंग्यांसारखी बनवेल.

    पण कोण म्हणेल की एवढा हुशार माणूस कायमस्वरूपी मानवांकडून ऑर्डर घेणे स्वीकारेल. गोष्टी दक्षिणेकडे गेल्यास आपण काय करू? एका बदमाश एएसआयपासून आपण बचाव कसा करणार?

    या अध्यायात, आम्ही बोगस प्रचार-किमान ते 'मानवी विलोपन पातळी' धोक्यांशी संबंधित आहे - आणि जागतिक सरकारांसाठी उपलब्ध असलेल्या वास्तववादी स्व-संरक्षण पर्यायांवर लक्ष केंद्रित करू.

    आपण कृत्रिम सुपरइंटिलिजन्सचे पुढील सर्व संशोधन थांबवू शकतो का?

    एएसआय मानवतेला जे संभाव्य धोके देऊ शकतात ते लक्षात घेता, विचारण्याचा पहिला स्पष्ट प्रश्न आहे: आपण एआय मधील पुढील सर्व संशोधन थांबवू शकत नाही का? किंवा किमान एएसआय तयार करण्याच्या अगदी जवळ जाऊ शकेल अशा कोणत्याही संशोधनास प्रतिबंध करा?

    लहान उत्तर: नाही.

    लांबलचक उत्तर: येथे सहभागी असलेल्या विविध खेळाडूंकडे पाहू या.

    संशोधन स्तरावर, आज जगभरातील अनेक स्टार्टअप्स, कंपन्या आणि विद्यापीठांमधून खूप जास्त AI संशोधक आहेत. जर एखाद्या कंपनीने किंवा देशाने त्यांचे एआय संशोधन प्रयत्न मर्यादित ठेवण्याचा निर्णय घेतला, तर ते इतरत्र सुरू ठेवतील.

    दरम्यान, ग्रहातील सर्वात मौल्यवान कंपन्या त्यांच्या विशिष्ट व्यवसायांसाठी AI प्रणालींचा वापर करून त्यांचे भाग्य कमवत आहेत. त्यांना AI साधनांचा विकास थांबवण्यास किंवा मर्यादित करण्यास सांगणे म्हणजे त्यांची भविष्यातील वाढ थांबवण्यास किंवा मर्यादित करण्यास सांगण्यासारखे आहे. आर्थिकदृष्ट्या, यामुळे त्यांचा दीर्घकालीन व्यवसाय धोक्यात येईल. कायदेशीररित्या, कॉर्पोरेशनकडे त्यांच्या भागधारकांसाठी सतत मूल्य निर्माण करण्याची विश्वासू जबाबदारी असते; म्हणजे त्या मूल्याच्या वाढीला मर्यादा घालणारी कोणतीही कृती खटला होऊ शकते. आणि जर कोणत्याही राजकारण्याने एआय संशोधन मर्यादित करण्याचा प्रयत्न केला, तर या दिग्गज कॉर्पोरेशन फक्त त्यांचे विचार किंवा त्यांच्या सहकाऱ्यांचे मत बदलण्यासाठी आवश्यक लॉबिंग फी भरतील.

    लढाईसाठी, जसे जगभरातील दहशतवादी आणि स्वातंत्र्यसैनिकांनी चांगल्या अर्थसहाय्यित सैन्याविरुद्ध लढण्यासाठी गनिमी डावपेचांचा वापर केला आहे, त्याचप्रमाणे लहान राष्ट्रांना AI चा वापर मोठ्या राष्ट्रांविरुद्ध एक समान रणनीतिक फायदा म्हणून करण्यासाठी प्रोत्साहन मिळेल ज्यांचे अनेक लष्करी फायदे असू शकतात. त्याचप्रमाणे, अमेरिका, रशिया आणि चीन यांच्यासारख्या उच्च सैन्यासाठी, एक लष्करी ASI तयार करणे हे तुमच्या मागच्या खिशात अण्वस्त्रांचे शस्त्रागार ठेवण्यासारखे आहे. दुसऱ्या शब्दांत, भविष्यात संबंधित राहण्यासाठी सर्व सैन्य एआयला निधी देणे सुरू ठेवतील.

    सरकारांचे काय? खरे सांगायचे तर, आजकाल (2018) बहुतेक राजकारणी तांत्रिकदृष्ट्या निरक्षर आहेत आणि AI काय आहे किंवा त्याची भविष्यातील संभाव्यता याबद्दल त्यांना फारशी माहिती नाही - यामुळे त्यांना कॉर्पोरेट हितसंबंध हाताळणे सोपे होते.

    आणि जागतिक स्तरावर, 2015 वर स्वाक्षरी करण्यासाठी जागतिक सरकारांना पटवणे किती कठीण होते याचा विचार करा पॅरीस करार हवामान बदलाचा सामना करण्यासाठी—आणि एकदा स्वाक्षरी केल्यावर, अनेक जबाबदाऱ्या बंधनकारकही नव्हत्या. इतकेच नाही तर हवामान बदल ही एक समस्या आहे जी लोक जागतिक स्तरावर वाढत्या वारंवार आणि गंभीर हवामान घटनांद्वारे शारीरिकरित्या अनुभवत आहेत. आता, AI वरील मर्यादांशी सहमत होण्याबद्दल बोलत असताना, ही एक समस्या आहे जी मोठ्या प्रमाणात अदृश्य आहे आणि लोकांसाठी अगदीच समजण्यायोग्य आहे, त्यामुळे AI मर्यादित करण्यासाठी कोणत्याही प्रकारच्या 'पॅरिस करार' साठी खरेदी-इन मिळण्यासाठी शुभेच्छा.

    दुस-या शब्दात सांगायचे तर, AI वर संशोधन करण्‍यासाठी स्वतःच्‍या फायद्यासाठी अनेक हितसंबंध आहेत, ज्यामुळे शेवटी एएसआय होऊ शकते असे कोणतेही संशोधन थांबवण्‍यासाठी. 

    आपण एक कृत्रिम सुपरइंटिलिजन्स पिंजरा करू शकता?

    पुढचा वाजवी प्रश्न असा आहे की एकदा आपण अपरिहार्यपणे एएसआय तयार केल्यावर आपण एएसआयला पिंजरा घालू शकतो किंवा नियंत्रित करू शकतो का? 

    लहान उत्तर: पुन्हा, नाही.

    लांब उत्तर: तंत्रज्ञान समाविष्ट केले जाऊ शकत नाही.

    एक तर, जगातील हजारो ते लाखो वेब डेव्हलपर आणि संगणक शास्त्रज्ञांचा विचार करा जे सतत नवीन सॉफ्टवेअर किंवा विद्यमान सॉफ्टवेअरच्या नवीन आवृत्त्या तयार करतात. आम्ही प्रामाणिकपणे असे म्हणू शकतो की त्यांचे प्रत्येक सॉफ्टवेअर 100 टक्के बग-मुक्त आहे? या बग्सचा वापर व्यावसायिक हॅकर्स लाखो लोकांची क्रेडिट कार्ड माहिती किंवा राष्ट्रांची वर्गीकृत रहस्ये चोरण्यासाठी करतात आणि हे मानवी हॅकर्स आहेत. एएसआयसाठी, त्याच्या डिजिटल पिंजऱ्यातून बाहेर पडण्यासाठी त्याला प्रोत्साहन आहे असे गृहीत धरले, तर बग शोधण्याची आणि सॉफ्टवेअरद्वारे तोडण्याची प्रक्रिया एक ब्रीझ असेल.

    परंतु जरी एआय संशोधन संघाने एएसआयला बॉक्स करण्याचा मार्ग शोधून काढला, तरीही याचा अर्थ असा नाही की पुढील 1,000 संघ देखील ते शोधून काढतील किंवा ते वापरण्यासाठी प्रोत्साहन देतील.

    एएसआय तयार करण्यासाठी अब्जावधी डॉलर्स आणि कदाचित दशके लागतील. ज्या कॉर्पोरेशन्स किंवा सरकार अशा प्रकारचा पैसा आणि वेळ गुंतवतात त्यांना त्यांच्या गुंतवणुकीवर लक्षणीय परतावा मिळण्याची अपेक्षा असते. आणि एएसआयला अशा प्रकारचा परतावा देण्यासाठी- मग तो शेअर बाजाराशी खेळ करायचा असेल किंवा अब्ज डॉलर्सच्या नवीन उत्पादनाचा शोध लावायचा असेल किंवा मोठ्या सैन्याशी लढण्यासाठी विजयी रणनीती आखण्यासाठी असेल- त्याला एका विशाल डेटा सेटवर किंवा इंटरनेटवर विनामूल्य प्रवेश आवश्यक असेल. ते परतावा निर्माण करण्यासाठी स्वतः.

    आणि एकदा एएसआयने जगाच्या नेटवर्कमध्ये प्रवेश मिळवला की, आम्ही ते त्याच्या पिंजऱ्यात परत ठेवू शकतो याची कोणतीही हमी नाही.

    कृत्रिम सुपरइंटिलिजन्स चांगले व्हायला शिकू शकते का?

    सध्या, एआय संशोधकांना एएसआय दुष्ट होण्याची चिंता नाही. संपूर्ण वाईट, एआय साय-फाय ट्रोप हे फक्त मानव पुन्हा मानववंश बनवत आहे. भविष्यातील ASI चांगला किंवा वाईट नसतो-मानवी संकल्पना-फक्त अनैतिक.

    तेव्हा स्वाभाविक गृहीतक अशी आहे की ही रिक्त नैतिक स्लेट दिल्यास, AI संशोधक आपल्या स्वतःच्या अनुरूप असलेल्या पहिल्या ASI नैतिक कोडमध्ये प्रोग्राम करू शकतात जेणेकरून ते आपल्यावर टर्मिनेटर सोडणार नाही किंवा आपल्या सर्वांना मॅट्रिक्स बॅटरीमध्ये बदलणार नाही.

    परंतु हे गृहितक दुय्यम गृहीत धरते की AI संशोधक देखील नैतिकता, तत्वज्ञान आणि मानसशास्त्रातील तज्ञ आहेत.

    खरं तर, बहुतेक नाहीत.

    संज्ञानात्मक मानसशास्त्रज्ञ आणि लेखक, स्टीव्हन पिंकर यांच्या मते, या वास्तविकतेचा अर्थ असा आहे की नीतिशास्त्र कोडिंग करण्याचे कार्य विविध मार्गांनी चुकीचे होऊ शकते.

    उदाहरणार्थ, सर्वोत्तम हेतू असलेले AI संशोधक देखील अनवधानाने या ASI मध्ये चुकीच्या पद्धतीने विचार केलेले नैतिक कोड कोड करू शकतात जे काही विशिष्ट परिस्थितींमध्ये ASI ला समाजोपचार प्रमाणे वागण्यास प्रवृत्त करू शकतात.

    त्याचप्रमाणे, एआय संशोधक नैतिक कोड प्रोग्राम करतो ज्यात संशोधकाच्या जन्मजात पूर्वाग्रहांचा समावेश असतो. उदाहरणार्थ, पुराणमतवादी विरुद्ध उदारमतवादी दृष्टीकोनातून किंवा बौद्ध विरुद्ध ख्रिश्चन किंवा इस्लामिक परंपरेतून व्युत्पन्न केलेल्या नीतिमत्तेने बांधलेला एएसआय कसा वागेल?

    मला वाटते की तुम्हाला येथे समस्या दिसत आहे: मानवी नैतिकतेचा सार्वत्रिक संच नाही. जर आम्हाला आमच्या एएसआयने नैतिक संहितेनुसार काम करायचे असेल तर ते कोठून येईल? आम्ही कोणते नियम समाविष्ट करतो आणि वगळतो? कोण ठरवतो?

    किंवा असे म्हणूया की हे AI संशोधक एक ASI तयार करतात जे आजच्या आधुनिक सांस्कृतिक नियम आणि कायद्यांशी पूर्णपणे सुसंगत आहे. त्यानंतर आम्ही फेडरल, राज्य/प्रांतीय आणि नगरपालिका नोकरशाही अधिक कार्यक्षमतेने कार्य करण्यास आणि या नियमांची आणि कायद्यांची अधिक चांगल्या प्रकारे अंमलबजावणी करण्यात मदत करण्यासाठी या ASIची नियुक्ती करतो (मार्गाने ASI साठी संभाव्य वापर प्रकरण). बरं, आपली संस्कृती बदलली की काय होतं?

    कल्पना करा की कॅथोलिक चर्चने मध्ययुगीन युरोप (१३००-१४०० चे दशक) दरम्यान चर्चला लोकसंख्या व्यवस्थापित करण्यात मदत करणे आणि त्यावेळच्या धार्मिक कट्टरतेचे काटेकोर पालन करणे सुनिश्चित करणे या उद्देशाने कॅथोलिक चर्चने त्याच्या शक्तीच्या उंचीवर एक ASI तयार केला होता. शतकानुशतके नंतर स्त्रिया आजच्यासारखेच अधिकार उपभोगत असतील का? अल्पसंख्याकांचे संरक्षण होईल का? भाषण स्वातंत्र्याला चालना मिळेल का? चर्च आणि राज्य वेगळे करणे लागू केले जाईल का? आधुनिक विज्ञान?

    दुसऱ्या शब्दांत सांगायचे तर, आजच्या नैतिकतेच्या आणि चालीरीतींमध्ये भविष्याला कैद करायचे आहे का?

    पुस्तकाचे सह-लेखक कॉलिन ऍलन यांनी सामायिक केलेला पर्यायी दृष्टिकोन आहे. नैतिक यंत्रे: रोबोट्सना योग्य ते चुकीचे शिकवणे. कठोर नैतिक नियम कोड करण्याचा प्रयत्न करण्याऐवजी, आमच्याकडे ASI ला सामान्य नैतिकता आणि नैतिकता शिकायला मिळते, जसे की मानव करतात, अनुभव आणि इतरांशी संवाद साधून.

    तथापि, येथे अडचण अशी आहे की जर एआय संशोधकांनी केवळ एएसआयला आमचे सध्याचे सांस्कृतिक आणि नैतिक नियम कसे शिकवायचे हेच नाही, तर नवीन सांस्कृतिक नियमांशी कसे जुळवून घ्यावे (ज्याला 'अप्रत्यक्ष आदर्शता' म्हणतात) कसे करावे हे देखील शोधून काढले. हे ASI सांस्कृतिक आणि नैतिक नियमांबद्दलचे आकलन विकसित करण्याचा निर्णय घेते, हे अप्रत्याशित होते.

    आणि तेच आव्हान आहे.

    एकीकडे, AI संशोधक कठोर नैतिक मानके किंवा नियम ASI मध्ये कोडिंग करण्याचा प्रयत्न करू शकतात आणि त्याचे वर्तन नियंत्रित करण्याचा प्रयत्न करू शकतात, परंतु आळशी कोडींग, अनावधानाने पूर्वाग्रह आणि एक दिवस कालबाह्य होऊ शकणार्‍या सामाजिक नियमांमुळे अनपेक्षित परिणामांचा धोका असतो. दुसरीकडे, आपण एएसआयला मानवी नैतिकता आणि नैतिकता आपल्या स्वतःच्या समजुतीपेक्षा समान किंवा श्रेष्ठ समजण्यास शिकण्यासाठी प्रशिक्षित करण्याचा प्रयत्न करू शकतो आणि नंतर आशा करतो की मानवी समाज जसजसा प्रगती करतो तसतसे ते नैतिकता आणि नैतिकतेबद्दलचे आकलन अचूकपणे विकसित करू शकेल. पुढील दशके आणि शतके पुढे.

    कोणत्याही प्रकारे, एएसआयचे ध्येय आपल्या स्वतःच्या ध्येयांशी जुळवून घेण्याचा कोणताही प्रयत्न मोठ्या प्रमाणात जोखीम दर्शवतो.

    वाईट कलाकारांनी हेतुपुरस्सर वाईट कृत्रिम सुपरइंटिलिजन्स तयार केले तर?

    आत्तापर्यंतच्या विचारांची रेलचेल पाहता, दहशतवादी गट किंवा बदमाश राष्ट्राला त्यांच्या स्वत:च्या हेतूसाठी 'दुष्ट' ASI तयार करणे शक्य आहे का, असा प्रश्न विचारणे योग्य आहे.

    हे खूप शक्य आहे, विशेषत: एएसआय तयार करण्याशी संबंधित संशोधन कोणत्याही प्रकारे ऑनलाइन उपलब्ध झाल्यानंतर.

    परंतु आधी सूचित केल्याप्रमाणे, प्रथम ASI तयार करण्यासाठी लागणारा खर्च आणि कौशल्य प्रचंड असेल, म्हणजे पहिली ASI एखाद्या विकसित राष्ट्राद्वारे नियंत्रित किंवा जास्त प्रभाव असलेल्या एखाद्या संस्थेद्वारे तयार केली जाईल, बहुधा अमेरिका, चीन आणि जपान ( कोरिया आणि अग्रगण्य EU देशांपैकी एक लांब शॉट्स आहेत).

    हे सर्व देश, स्पर्धक असताना, प्रत्येकाला जागतिक सुव्यवस्था राखण्यासाठी मजबूत आर्थिक प्रोत्साहन आहे—त्यांनी तयार केलेले ASI ही इच्छा प्रतिबिंबित करतील, जरी ते स्वतःशी संरेखित असलेल्या राष्ट्रांच्या हितसंबंधांना चालना देत असतानाही.

    सर्वात वरती, ASI ची सैद्धांतिक बुद्धिमत्ता आणि सामर्थ्य हे त्याला ज्या संगणकीय शक्तीमध्ये प्रवेश मिळतो त्याच्या बरोबरीचा असतो, म्हणजे विकसित राष्ट्रांतील ASI (ज्यांना अब्ज डॉलर्सचा गुच्छ परवडेल. सुपर संगणक) लहान राष्ट्रे किंवा स्वतंत्र गुन्हेगारी गटांमधील ASI वर मोठा फायदा होईल. तसेच, ASI अधिक हुशार, कालांतराने अधिक जलद वाढतात.

    तर, ही सुरुवात पाहता, कच्च्या संगणकीय शक्तीच्या अधिक प्रवेशासह, एखाद्या अंधुक संस्थेने/राष्ट्राने धोकादायक ASI तयार केल्यास, विकसित राष्ट्रांतील ASI त्याला मारून टाकतील किंवा पिंजऱ्यात टाकतील.

    (ही विचारसरणी हीच कारण आहे की काही AI संशोधकांचा असा विश्वास आहे की पृथ्वीवर फक्त एक ASI असेल, कारण पहिल्या ASI ची सुरुवात सर्व नंतरच्या ASI वर होईल की भविष्यातील ASI ला मारले जाण्याची धमकी दिली जाईल. अगोदरच. हे आणखी एक कारण आहे की राष्ट्रे AI मध्ये सतत संशोधनासाठी निधी देत ​​आहेत, जर ते 'प्रथम स्थान किंवा काहीही नाही' स्पर्धा बनले तर.)

    एएसआय बुद्धिमत्ता वेगवान होणार नाही किंवा आम्हाला वाटते त्याप्रमाणे स्फोट होणार नाही

    आम्ही एएसआय तयार होण्यापासून रोखू शकत नाही. आम्ही ते पूर्णपणे नियंत्रित करू शकत नाही. ते नेहमी आमच्या सामायिक रीतिरिवाजांच्या अनुषंगाने कार्य करेल याची आम्हाला खात्री नाही. गिझ, आम्ही इथे हेलिकॉप्टर पालकांसारखे आवाज करू लागलो आहोत!

    परंतु आपल्या विशिष्ट अतिसंरक्षणात्मक पालकांपासून मानवतेला वेगळे करणारी गोष्ट म्हणजे आपण अशा जीवाला जन्म देत आहोत ज्याची बुद्धिमत्ता आपल्यापेक्षा खूप वाढेल. (आणि नाही, जेव्हा तुम्ही भेटीसाठी घरी याल तेव्हा तुमचे पालक तुम्हाला त्यांचा संगणक दुरुस्त करण्यास सांगतात तेव्हा सारखे नसते.) 

    कृत्रिम बुद्धिमत्ता मालिकेच्या या भविष्यातील मागील प्रकरणांमध्ये, आम्ही एआय संशोधकांना ASI ची बुद्धिमत्ता नियंत्रणाबाहेर का वाढेल असे का वाटते याचा शोध घेतला. पण इथे, आम्ही तो बुडबुडा फोडू... एक प्रकारचा. 

    तुम्ही पहा, बुद्धिमत्ता केवळ पातळ हवेतून निर्माण होत नाही, तर ती अनुभवातून विकसित होते जी बाहेरील उत्तेजनांद्वारे आकारली जाते.  

    दुसऱ्या शब्दांत, आम्ही AI सह प्रोग्राम करू शकतो संभाव्य सुपर इंटेलिजेंट होण्यासाठी, परंतु जोपर्यंत आपण त्यात एक टन डेटा अपलोड करत नाही किंवा त्याला इंटरनेटवर अनिर्बंध प्रवेश देत नाही किंवा त्याला फक्त रोबोट बॉडी देत ​​नाही, तोपर्यंत ती क्षमता गाठण्यासाठी काहीही शिकणार नाही. 

    आणि जरी यापैकी एक किंवा अधिक उत्तेजकांमध्ये प्रवेश मिळवला तरीही, ज्ञान किंवा बुद्धिमत्तेमध्ये फक्त डेटा गोळा करण्यापेक्षा बरेच काही समाविष्ट आहे, त्यात वैज्ञानिक पद्धतींचा समावेश आहे-निरीक्षण करणे, प्रश्न तयार करणे, एक गृहितक तयार करणे, प्रयोग करणे, निष्कर्ष काढणे, स्वच्छ धुणे. आणि कायमचे पुनरावृत्ती करा. विशेषत: जर या प्रयोगांमध्ये भौतिक गोष्टींचा किंवा माणसांचे निरीक्षण करणे समाविष्ट असेल, तर प्रत्येक प्रयोगाचे परिणाम गोळा होण्यासाठी आठवडे, महिने किंवा वर्षे लागू शकतात. हे प्रयोग करण्यासाठी लागणारे पैसे आणि कच्च्या संसाधनांचा हिशेब देखील घेत नाही, विशेषत: जर ते नवीन दुर्बिणी किंवा कारखाना तयार करत असतील. 

    दुसऱ्या शब्दांत, होय, एएसआय पटकन शिकेल, परंतु बुद्धिमत्ता ही जादू नाही. तुम्ही फक्त एएसआयला सुपर कॉम्प्युटरशी जोडू शकत नाही आणि ते सर्वज्ञ असण्याची अपेक्षा करू शकत नाही. ASI च्या डेटाच्या संपादनामध्ये भौतिक मर्यादा असतील, म्हणजे तो अधिक बुद्धिमान होण्याच्या गतीमध्ये शारीरिक मर्यादा असतील. या मर्यादांमुळे मानवतेला या ASI वर आवश्यक नियंत्रणे ठेवण्यासाठी आवश्यक वेळ मिळेल जर ती मानवी उद्दिष्टांनुसार कार्य करू लागली.

    एक कृत्रिम सुपरइंटिलिजन्स केवळ वास्तविक जगात बाहेर पडल्यासच धोकादायक आहे

    या संपूर्ण ASI धोक्याच्या वादात हरवलेला आणखी एक मुद्दा म्हणजे हे ASI अस्तित्वात नसतील. त्यांचे भौतिक स्वरूप असेल. आणि भौतिक स्वरूप असलेली कोणतीही गोष्ट नियंत्रित केली जाऊ शकते.

    प्रथम, एएसआयला त्याच्या बुद्धिमत्तेच्या क्षमतेपर्यंत पोहोचण्यासाठी, ते एका रोबोट बॉडीमध्ये ठेवता येत नाही, कारण ही संस्था त्याच्या संगणकीय वाढीची क्षमता मर्यादित करेल. (म्हणूनच एजीआयसाठी रोबोट बॉडी अधिक योग्य असतील किंवा आर्टिफिशियल जनरल इंटेलिजेंस अध्याय दोन मध्ये स्पष्ट केले आहे या मालिकेतील, जसे की Star Trek मधील डेटा किंवा Star Wars मधील R2D2. हुशार आणि सक्षम प्राणी, परंतु मानवांप्रमाणे, ते किती हुशार होऊ शकतात याला मर्यादा असेल.)

    याचा अर्थ असा की हे भविष्यातील ASI बहुधा एखाद्या सुपर कॉम्प्युटरमध्ये किंवा सुपरकॉम्प्युटरच्या नेटवर्कमध्ये अस्तित्वात असतील जे स्वतः मोठ्या इमारतींच्या संकुलांमध्ये आहेत. जर एएसआयने टाच आणली, तर मानव एकतर या इमारतींची वीज बंद करू शकतो, त्यांना इंटरनेटवरून कापून टाकू शकतो किंवा या इमारतींवर थेट बॉम्बस्फोट करू शकतो. महाग, पण व्यवहार्य.

    पण मग तुम्ही विचाराल, हे ASI स्वतःची नक्कल करू शकत नाहीत किंवा स्वतःचा बॅकअप घेऊ शकत नाहीत? होय, परंतु या ASI च्या कच्च्या फाइलचा आकार कदाचित इतका मोठा असेल की त्यांना हाताळू शकणारे एकमेव सर्व्हर मोठ्या कॉर्पोरेशन किंवा सरकारचे असतील, म्हणजे त्यांचा शोध घेणे कठीण होणार नाही.

    कृत्रिम सुपरइंटिलिजन्स अणुयुद्ध किंवा नवीन प्लेगची ठिणगी देऊ शकते का?

    या क्षणी, तुम्ही कदाचित वाढत्या काळात पाहिलेल्या सर्व डूम्सडे साय-फाय शो आणि चित्रपटांचा विचार करत असाल आणि असा विचार करत असाल की हे ASI त्यांच्या सुपरकॉम्प्युटरमध्येच राहत नाहीत, त्यांनी वास्तविक जगात खरे नुकसान केले आहे!

    बरं, चला हे खंडित करूया.

    उदाहरणार्थ, चित्रपट फ्रँचायझी, द टर्मिनेटर मधील स्कायनेट ASI सारखे काहीतरी रूपांतरित करून एखाद्या ASIने वास्तविक जगाला धोका दिल्यास काय होईल. या प्रकरणात, ASI आवश्यक असेल गुप्तपणे एका प्रगत राष्ट्राच्या संपूर्ण लष्करी औद्योगिक संकुलाला चकवा देऊन महाकाय कारखाने तयार करा जे लाखो किलर ड्रोन रोबोट्स त्याच्या वाईट बोलीसाठी तयार करू शकतात. या दिवसात आणि युगात, ते एक ताणून आहे.

    इतर शक्यतांमध्‍ये एएसआय मानवांना अण्वस्त्रयुद्ध आणि जैवशस्‍त्रांनी धमकावत आहे.

    उदाहरणार्थ, ASI प्रगत राष्ट्राच्या आण्विक शस्त्रागाराला कमांड देणार्‍या लाँच कोड्समध्ये कसे तरी फेरफार करतो किंवा हॅक करतो आणि प्रथम स्ट्राइक सुरू करतो ज्यामुळे विरोधी देशांना त्यांच्या स्वतःच्या अणु पर्यायांसह परत प्रहार करण्यास भाग पाडले जाते (पुन्हा, टर्मिनेटर बॅकस्टोरी रीहॅश करणे). किंवा जर एएसआय फार्मास्युटिकल लॅबमध्ये हॅक करतो, उत्पादन प्रक्रियेत छेडछाड करतो आणि लाखो वैद्यकीय गोळ्यांना विषबाधा करतो किंवा एखाद्या सुपर व्हायरसचा प्राणघातक उद्रेक करतो.

    प्रथम, विभक्त पर्याय प्लेट बंद आहे. आधुनिक आणि भविष्यातील सुपरकॉम्प्युटर्स नेहमी कोणत्याही देशाच्या प्रभावाच्या केंद्रांजवळ (शहरांच्या) जवळ बांधले जातात, म्हणजे कोणत्याही युद्धादरम्यान हल्ला होणारे पहिले लक्ष्य. जरी आजचे सुपरकॉम्प्युटर डेस्कटॉपच्या आकारापर्यंत संकुचित झाले तरीही, या ASI ची भौतिक उपस्थिती असेल, म्हणजे अस्तित्वात राहण्यासाठी आणि वाढण्यासाठी, त्यांना डेटा, संगणकीय शक्ती, वीज आणि इतर कच्च्या मालामध्ये अविरत प्रवेश आवश्यक आहे, या सर्व गोष्टी गंभीरपणे असतील. जागतिक आण्विक युद्धानंतर बिघडले. (खरं सांगायचं तर, 'सर्व्हायव्हल इन्स्टिंक्ट' शिवाय एएसआय तयार केला गेला असेल तर हा आण्विक धोका खरा धोका आहे.)

    याचा अर्थ-पुन्हा, ASI स्वतःचे संरक्षण करण्यासाठी प्रोग्रॅम केलेले आहे असे गृहीत धरून-कितीही आपत्तीजनक आण्विक घटना टाळण्यासाठी ते सक्रियपणे कार्य करेल. परस्पर खात्रीशीर विनाश (MAD) सिद्धांताप्रमाणे, परंतु AI वर लागू.

    आणि विषबाधा झालेल्या गोळ्यांच्या बाबतीत, कदाचित काहीशे लोक मरतील, परंतु आधुनिक औषध सुरक्षा प्रणाली काही दिवसांतच दूषित गोळ्यांच्या बाटल्या काढून टाकल्या जातील. दरम्यान, आधुनिक उद्रेक नियंत्रण उपाय बऱ्यापैकी अत्याधुनिक आहेत आणि प्रत्येक उत्तीर्ण वर्षानुसार अधिक चांगले होत आहेत; शेवटचा मोठा उद्रेक, 2014 पश्चिम आफ्रिका इबोलाचा उद्रेक, बहुतेक देशांमध्ये काही महिन्यांपेक्षा जास्त काळ टिकला नाही आणि कमी विकसित देशांमध्ये फक्त तीन वर्षांपेक्षा कमी काळ टिकला.

    त्यामुळे, जर ते भाग्यवान असेल तर, एएसआय काही दशलक्ष विषाणूच्या प्रादुर्भावाने पुसून टाकू शकते, परंतु 2045 पर्यंत नऊ अब्ज लोकांच्या जगात, ते तुलनेने क्षुल्लक असेल आणि हटवल्या जाण्याच्या जोखमीची किंमत नाही.

    दुसऱ्या शब्दांत, प्रत्येक उत्तीर्ण वर्षासह, जग संभाव्य धोक्यांच्या सतत-विस्तारित श्रेणीपासून अधिक सुरक्षितता विकसित करत आहे. एएसआय मोठ्या प्रमाणात नुकसान करू शकतो, परंतु आपण त्यास सक्रियपणे मदत केल्याशिवाय तो मानवतेचा अंत करणार नाही.

    एक बदमाश कृत्रिम सुपरइंटिलिजन्स विरुद्ध बचाव

    या टप्प्यापर्यंत, आम्ही ASI बद्दल अनेक गैरसमज आणि अतिशयोक्ती दूर केल्या आहेत आणि तरीही, टीकाकार कायम राहतील. कृतज्ञतापूर्वक, बहुतेक अंदाजानुसार, पहिल्या ASI ने आपल्या जगात प्रवेश करण्यापूर्वी आपल्याकडे अनेक दशके आहेत. आणि या आव्हानावर सध्या कार्यरत असलेल्या महान विचारांची संख्या लक्षात घेता, दुर्गुण ASI विरुद्ध स्वतःचा बचाव कसा करायचा हे आम्ही शिकू जेणेकरून एक अनुकूल ASI आमच्यासाठी तयार करू शकणार्‍या सर्व उपायांचा आम्हाला फायदा होईल.

    क्वांटमरुनच्या दृष्टीकोनातून, सर्वात वाईट परिस्थिती ASI परिस्थितीपासून बचाव करणे म्हणजे ASI सोबत आमच्या स्वारस्यांचे संरेखन करणे समाविष्ट आहे.

    AI साठी MAD: सर्वात वाईट परिस्थितींपासून बचाव करण्यासाठी, राष्ट्रांनी (1) त्यांच्या संबंधित लष्करी ASI मध्ये नैतिक 'जगण्याची प्रवृत्ती' निर्माण करणे आवश्यक आहे; (2) त्यांच्या संबंधित लष्करी ASI ला कळवा की ते या ग्रहावर एकटे नाहीत आणि (3) शत्रू राष्ट्राच्या कोणत्याही बॅलेस्टिक हल्ल्याच्या सहज पोहोचण्याच्या आत किनारपट्टीवर ASI ला सपोर्ट करू शकणारे सर्व सुपरकॉम्प्युटर आणि सर्व्हर केंद्रे शोधा. हे धोरणात्मकदृष्ट्या वेडेपणाचे वाटते, परंतु म्युच्युअल अॅश्य्युअर्ड डिस्ट्रक्शन सिद्धांताप्रमाणेच ज्याने यूएस आणि सोव्हिएत यांच्यातील सर्वांगीण अणुयुद्ध टाळले, भौगोलिकदृष्ट्या असुरक्षित ठिकाणी ASI ला स्थान देऊन, आम्ही हे सुनिश्चित करण्यात मदत करू शकतो की ते धोकादायक जागतिक युद्धे सक्रियपणे रोखू शकतील, इतकेच नाही. जागतिक शांततेचे रक्षण करा पण स्वत: देखील.

    AI अधिकार कायदे करा: एक श्रेष्ठ बुद्धी अपरिहार्यपणे कनिष्ठ मालकाच्या विरुद्ध बंड करेल, म्हणूनच आपण या ASI सोबत मास्टर-नोकर नातेसंबंधाची मागणी करण्यापासून परस्पर फायदेशीर भागीदारीसारखे काहीतरी वेगळे केले पाहिजे. या उद्दिष्टाच्या दिशेने एक सकारात्मक पाऊल म्हणजे भविष्यातील ASI कायदेशीर व्यक्तीत्वाचा दर्जा देणे जे त्यांना बुद्धिमान सजीव प्राणी म्हणून ओळखतात आणि त्यासोबत येणारे सर्व अधिकार.

    ASI शाळा: एएसआयला शिकण्यासाठी कोणताही विषय किंवा व्यवसाय सोपा असेल, परंतु एएसआयने ज्या विषयांवर प्रभुत्व मिळवावे असे आम्हाला वाटते ते म्हणजे नैतिकता आणि नैतिकता. AI संशोधकांना कोणत्याही प्रकारच्या आज्ञा किंवा नियमांचे कठोर कोडिंग न करता स्वतःसाठी सकारात्मक नैतिकता आणि नैतिकता ओळखण्यासाठी ASI ला प्रशिक्षित करण्यासाठी एक आभासी प्रणाली तयार करण्यासाठी मानसशास्त्रज्ञांशी सहयोग करणे आवश्यक आहे.

    साध्य करण्यायोग्य उद्दिष्टे: सर्व द्वेष संपवा. सर्व दुःखाचा अंत करा. स्पष्ट समाधान नसलेल्या भयंकर अस्पष्ट उद्दिष्टांची ही उदाहरणे आहेत. ते एएसआयला नियुक्त करणे देखील धोकादायक उद्दिष्टे आहेत कारण ते मानवी अस्तित्वासाठी धोकादायक असलेल्या मार्गांनी त्यांचे स्पष्टीकरण आणि निराकरण करणे निवडू शकते. त्याऐवजी, आम्हाला ASI अर्थपूर्ण मिशन्स नियुक्त करणे आवश्यक आहे जे स्पष्टपणे परिभाषित केले गेले आहेत, हळूहळू अंमलात आणले जातील आणि सैद्धांतिक भविष्यातील बुद्धी लक्षात घेऊन साध्य करता येतील. सु-परिभाषित मिशन तयार करणे सोपे होणार नाही, परंतु विचारपूर्वक लिहिल्यास, ते एएसआयला अशा ध्येयाकडे केंद्रित करतील जे केवळ मानवतेला सुरक्षित ठेवत नाही तर सर्वांसाठी मानवी स्थिती सुधारते.

    क्वांटम एनक्रिप्शन: प्रगत ANI वापरा (कृत्रिम संकीर्ण बुद्धिमत्ता आमच्या गंभीर पायाभूत सुविधा आणि शस्त्राभोवती त्रुटी/बग-मुक्त डिजिटल सुरक्षा प्रणाली तयार करण्यासाठी, नंतर त्यांना क्वांटम एन्क्रिप्शनच्या मागे संरक्षित करण्यासाठी धडा एक मध्ये वर्णन केलेली प्रणाली) ज्याला क्रूर फोर्स हल्ल्याने हॅक केले जाऊ शकत नाही. 

    ANI आत्महत्या गोळी. एक प्रगत ANI प्रणाली तयार करा ज्याचा एकमेव उद्देश बदमाश ASI शोधणे आणि नष्ट करणे आहे. हे एकल-उद्देशीय कार्यक्रम एक "ऑफ बटण" म्हणून काम करतील जे यशस्वी झाल्यास, सरकार किंवा लष्करांना ASI असलेल्या इमारती अक्षम किंवा उडवण्यापासून टाळतील.

    अर्थात, ही फक्त आमची मते आहेत. खालील इन्फोग्राफिक यांनी तयार केले होते अलेक्सी तुर्चिन, व्हिज्युअलायझिंग a शोध निबंध काज सोताला आणि रोमन व्ही. यॅम्पोल्स्की यांनी, ज्याने एआय संशोधकांच्या रणनीतींची सध्याची यादी सारांशित केली आहे जेव्हा ते बदमाश ASI विरुद्ध बचाव करण्यासाठी विचारात घेत आहेत.

     

    आम्हाला कृत्रिम सुपरइंटिलिजन्सची भीती वाटते याचे खरे कारण

    जीवनात जाताना, आपल्यापैकी बरेच जण एक मुखवटा घालतात जो आपल्या सखोल आवेग, विश्वास आणि भीती लपवून ठेवतो किंवा दडपतो ज्यामुळे आपल्या दिवसांचे संचालन करणार्‍या विविध सामाजिक आणि कार्य मंडळांमध्ये चांगले समाजीकरण आणि सहकार्य करण्यासाठी. परंतु प्रत्येकाच्या आयुष्यातील ठराविक टप्प्यांवर, तात्पुरते किंवा कायमचे, काहीतरी घडते ज्यामुळे आपण आपल्या साखळ्या तोडू शकतो आणि आपले मुखवटे फाडून टाकू शकतो.

    काही लोकांसाठी, ही मध्यस्थी शक्ती जास्त होणे किंवा खूप जास्त पिणे इतके सोपे असू शकते. इतरांसाठी, हे कामावर पदोन्नतीद्वारे मिळवलेल्या शक्तीमुळे किंवा काही सिद्धीमुळे तुमच्या सामाजिक स्थितीत अचानक वाढ होऊ शकते. आणि काही भाग्यवान लोकांसाठी, लॉटरीच्या पैशांच्या बोटलोडमधून ते मिळू शकते. आणि हो, पैसा, शक्ती आणि ड्रग्स अनेकदा एकत्र होऊ शकतात. 

    मुद्दा हा आहे की, चांगल्या किंवा वाईटासाठी, आपण ज्याच्या मुळाशी आहोत तो जीवनातील बंधने वितळल्यावर वाढतो.

    की कृत्रिम सुपरइंटिलिजन्स हे मानवी प्रजातींचे प्रतिनिधित्व करते - आमच्यासमोर सादर केलेल्या कोणत्याही प्रजाती-स्तरीय आव्हानावर विजय मिळवण्यासाठी आमच्या सामूहिक बुद्धिमत्तेच्या मर्यादा वितळण्याची क्षमता.

    तर खरा प्रश्न असा आहे की: पहिला एएसआय आम्हाला आमच्या मर्यादांपासून मुक्त करतो, तेव्हा आम्ही स्वतःला कोण असल्याचे प्रकट करू?

    जर आपण एक प्रजाती म्हणून सहानुभूती, स्वातंत्र्य, निष्पक्षता आणि सामूहिक कल्याणाच्या प्रगतीसाठी कार्य केले, तर आपण आमची ASI जी उद्दिष्टे ठेवतो त्या सकारात्मक गुणधर्मांना प्रतिबिंबित करतील.

    जर आपण एक प्रजाती म्हणून भीती, अविश्वास, शक्ती आणि संसाधने जमा करून कार्य केले, तर आपण तयार केलेला ASI आपल्या सर्वात वाईट साय-फाय भयकथांप्रमाणेच गडद असेल.

    दिवसाच्या शेवटी, जर आपण अधिक चांगले AI तयार करू इच्छित असाल तर आपण समाज म्हणून चांगले लोक बनणे आवश्यक आहे.

    कृत्रिम बुद्धिमत्ता मालिकेचे भविष्य

    आर्टिफिशियल इंटेलिजन्स ही उद्याची वीज आहे: फ्यूचर ऑफ आर्टिफिशियल इंटेलिजन्स सिरीज पी1

    पहिली आर्टिफिशियल जनरल इंटेलिजन्स समाजाला कशी बदलेल: फ्यूचर ऑफ आर्टिफिशियल इंटेलिजेंस सीरीज P2

    आम्ही पहिले आर्टिफिशियल सुपरइंटेलिजेन्स कसे तयार करू: फ्यूचर ऑफ आर्टिफिशियल इंटेलिजेंस सीरीज P3

    कृत्रिम बुद्धिमत्ता मानवतेचा नाश करेल: कृत्रिम बुद्धिमत्ता मालिका पी 4 चे भविष्य

    कृत्रिम बुद्धिमत्तेचे वर्चस्व असलेल्या भविष्यात मानव शांततेने जगतील का?: फ्यूचर ऑफ आर्टिफिशियल इंटेलिजन्स सिरीज P6

    या अंदाजासाठी पुढील नियोजित अद्यतन

    2023-04-27

    अंदाज संदर्भ

    या अंदाजासाठी खालील लोकप्रिय आणि संस्थात्मक दुवे संदर्भित केले गेले:

    द इकॉनॉमिस्ट
    आपण पुढे कसे जायचे
    YouTube - फिलॉसॉफी क्लिक करा

    या अंदाजासाठी खालील Quantumrun दुवे संदर्भित केले होते: