मानव कृत्रिम अधीक्षण से कैसे बचाव करेगा: कृत्रिम बुद्धिमत्ता का भविष्य P5

इमेज क्रेडिट: क्वांटमरुन

मानव कृत्रिम अधीक्षण से कैसे बचाव करेगा: कृत्रिम बुद्धिमत्ता का भविष्य P5

    वर्ष 65,000 ईसा पूर्व है, और a . के रूप में Thylacoleo, आप और आपकी तरह प्राचीन ऑस्ट्रेलिया के महान शिकारी थे। आप स्वतंत्र रूप से भूमि पर घूमते थे और साथी शिकारियों के साथ संतुलन में रहते थे और शिकार करते थे जो आपके साथ की भूमि पर कब्जा कर लेते थे। ऋतुओं ने परिवर्तन लाया, लेकिन जानवरों के साम्राज्य में आपकी स्थिति तब तक बनी रही, जब तक आप और आपके पूर्वजों को याद है। फिर एक दिन नए चेहरे आए।

    अफवाह यह है कि वे विशाल पानी की दीवार से आए हैं, लेकिन ये जीव जमीन पर रहने में अधिक सहज लग रहे थे। आपको इन जीवों को अपने लिए देखना था।

    इसमें कुछ दिन लगे, लेकिन आपने आखिरकार इसे तट पर पहुंचा दिया। आकाश में आग लग रही थी, इन प्राणियों की जासूसी करने का एक सही समय था, शायद एक खाने की कोशिश भी करें कि उन्होंने कैसा स्वाद लिया।

    आप एक हाजिर।

    यह दो पैरों पर चलता था और इसमें कोई फर नहीं था। कमजोर लग रहा था। प्रभावहीन। यह शायद ही उस भय के लायक था जो यह राज्य के बीच पैदा कर रहा था।

    जैसे ही रात प्रकाश का पीछा करती है, आप सावधानी से अपना दृष्टिकोण बनाना शुरू करते हैं। आप करीब आ रहे हैं। फिर आप फ्रीज करें। जोर से आवाजें आती हैं और फिर उनमें से चार और उसके पीछे जंगल से बाहर निकलते हैं। कितने हैं?

    प्राणी दूसरों का अनुसरण ट्रेलाइन में करता है, और आप अनुसरण करते हैं। और जितना अधिक आप करते हैं, उतनी ही अजीब आवाजें आपको तब तक सुनाई देती हैं जब तक आप इन जीवों को और भी अधिक खोज नहीं लेते। आप कुछ दूरी पर पीछा करते हैं क्योंकि वे किनारे से एक समाशोधन में जंगल से बाहर निकलते हैं। उनमें से कई हैं। लेकिन इससे भी महत्वपूर्ण बात यह है कि वे सभी शांति से आग के चारों ओर बैठे हैं।

    आपने इन आग को पहले देखा है। गर्म मौसम में, आकाश में आग कभी-कभी भूमि पर आ जाती थी और पूरे जंगल को जला देती थी। दूसरी ओर, ये जीव किसी तरह इसे नियंत्रित कर रहे थे। किस तरह के जीवों में ऐसी शक्ति हो सकती है?

    आप दूरी में देखते हैं। विशाल पानी की दीवार पर और भी आ रहे हैं।

    तुम एक कदम पीछे हटो।

    ये जीव राज्य में दूसरों की तरह नहीं हैं। वे बिल्कुल नई चीज हैं।

    आप जाने का फैसला करते हैं और अपने परिजनों को चेतावनी देते हैं। अगर उनकी संख्या बहुत बड़ी हो जाती है, तो कौन जानता है कि क्या हो सकता है।

    ***

    ऐसा माना जाता है कि थायलाकोलियो मनुष्यों के आगमन के बाद अपेक्षाकृत कम समय में विलुप्त हो गया, साथ ही ऑस्ट्रेलियाई महाद्वीप पर अन्य मेगाफौना के बहुमत के साथ। किसी अन्य शीर्ष स्तनधारी शिकारियों ने इसकी जगह नहीं ली- जब तक कि आप मनुष्यों को उस श्रेणी में नहीं गिनते।

    इस रूपक को तोड़ना इस श्रृंखला अध्याय का फोकस है: क्या भविष्य में कृत्रिम अधीक्षण (एएसआई) हम सभी को बैटरी में बदल देगा और फिर हमें मैट्रिक्स में प्लग कर देगा या मनुष्य एक विज्ञान-फाई का शिकार बनने से बचने का कोई तरीका निकालेगा, एआई कयामत की साजिश?

    पर हमारी श्रृंखला में अब तक आर्टिफिशियल इंटेलिजेंस का भविष्य, हमने एआई के एक विशेष रूप, एएसआई की सकारात्मक क्षमता सहित सभी प्रकार के एआई की खोज की है: एक कृत्रिम प्राणी जिसकी भविष्य की बुद्धिमत्ता हमें तुलना में चींटियों की तरह बना देगी।

    लेकिन यह कहने वाला कौन है कि यह स्मार्ट इंसान हमेशा के लिए इंसानों से आदेश लेना स्वीकार कर लेगा। अगर चीजें दक्षिण की ओर जाती हैं तो हम क्या करेंगे? हम एक दुष्ट एएसआई से कैसे बचाव करेंगे?

    इस अध्याय में, हम फर्जी प्रचार-कम से कम 'मानव विलुप्त होने के स्तर' के खतरों से संबंधित हैं- और विश्व सरकारों के लिए उपलब्ध यथार्थवादी आत्मरक्षा विकल्पों पर ध्यान केंद्रित करेंगे।

    क्या हम कृत्रिम अधीक्षण में आगे के सभी शोधों को रोक सकते हैं?

    एक एएसआई मानवता के लिए संभावित जोखिमों को देखते हुए, पहला स्पष्ट प्रश्न यह है: क्या हम एआई में आगे के सभी शोधों को रोक नहीं सकते? या कम से कम किसी भी शोध को मना करें जो हमें एएसआई बनाने के लिए खतरनाक रूप से करीब ला सकता है?

    लघु उत्तर: संख्या

    लंबा उत्तर: आइए यहां शामिल विभिन्न खिलाड़ियों को देखें।

    अनुसंधान स्तर पर, आज दुनिया भर में बहुत से स्टार्टअप, कंपनियों और विश्वविद्यालयों से बहुत अधिक AI शोधकर्ता हैं। अगर एक कंपनी या देश ने अपने एआई अनुसंधान प्रयासों को सीमित करने का फैसला किया, तो वे बस कहीं और जारी रखेंगे।

    इस बीच, ग्रह की सबसे मूल्यवान कंपनियां अपने विशिष्ट व्यवसायों के लिए एआई सिस्टम के अपने आवेदन से अपना भाग्य बना रही हैं। उन्हें एआई टूल्स के विकास को रोकने या सीमित करने के लिए कहना उन्हें अपने भविष्य के विकास को रोकने या सीमित करने के लिए कहने जैसा है। आर्थिक रूप से, इससे उनके दीर्घकालिक व्यवसाय को खतरा होगा। कानूनी रूप से, निगमों की अपने हितधारकों के लिए निरंतर मूल्य निर्माण करने की एक भरोसेमंद जिम्मेदारी है; इसका मतलब है कि कोई भी कार्रवाई जो उस मूल्य की वृद्धि को सीमित कर सकती है, उस पर मुकदमा चलाया जा सकता है। और अगर किसी राजनेता ने एआई अनुसंधान को सीमित करने की कोशिश की, तो ये विशाल निगम अपने या अपने सहयोगियों के दिमाग को बदलने के लिए आवश्यक लॉबिंग फीस का भुगतान करेंगे।

    युद्ध के लिए, जैसे दुनिया भर में आतंकवादियों और स्वतंत्रता सेनानियों ने बेहतर वित्त पोषित सेनाओं के खिलाफ लड़ने के लिए गुरिल्ला रणनीति का इस्तेमाल किया है, वैसे ही छोटे देशों को एआई को बड़े देशों के खिलाफ समान सामरिक लाभ के रूप में उपयोग करने के लिए प्रोत्साहन मिलेगा, जिनके पास कई सैन्य फायदे हो सकते हैं। इसी तरह, अमेरिका, रूस और चीन से संबंधित शीर्ष सेनाओं के लिए, एक सैन्य एएसआई का निर्माण करना आपकी पिछली जेब में परमाणु हथियारों का शस्त्रागार रखने के बराबर है। दूसरे शब्दों में, भविष्य में प्रासंगिक बने रहने के लिए सभी सेनाएं एआई को फंड देना जारी रखेंगी।

    सरकारों के बारे में कैसे? सच तो यह है कि इन दिनों (2018) अधिकांश राजनेता तकनीकी रूप से निरक्षर हैं और उन्हें इस बात की बहुत कम समझ है कि एआई क्या है या इसकी भविष्य की क्षमता क्या है - इससे उन्हें कॉर्पोरेट हितों द्वारा हेरफेर करना आसान हो जाता है।

    और वैश्विक स्तर पर, विचार करें कि विश्व सरकारों को 2015 पर हस्ताक्षर करने के लिए राजी करना कितना मुश्किल था पेरिस समझौते जलवायु परिवर्तन से निपटने के लिए- और एक बार हस्ताक्षर किए जाने के बाद, कई दायित्व बाध्यकारी भी नहीं थे। इतना ही नहीं, जलवायु परिवर्तन एक ऐसा मुद्दा है जिसे लोग विश्व स्तर पर लगातार और गंभीर मौसम की घटनाओं के माध्यम से शारीरिक रूप से अनुभव कर रहे हैं। अब, जब एआई पर सीमाओं के लिए सहमत होने की बात की जाती है, तो यह एक ऐसा मुद्दा है जो काफी हद तक अदृश्य है और जनता के लिए मुश्किल से समझ में आता है, इसलिए एआई को सीमित करने के लिए किसी भी तरह के 'पेरिस समझौते' के लिए सौभाग्य प्राप्त करना।

    दूसरे शब्दों में, किसी भी शोध को रोकने के लिए एआई पर शोध करने के लिए बहुत सारे हित हैं जो अंततः एएसआई को जन्म दे सकते हैं। 

    क्या हम एक कृत्रिम अधीक्षण को पिंजरे में रख सकते हैं?

    अगला वाजिब सवाल यह है कि क्या हम अनिवार्य रूप से एक एएसआई बनाने के बाद एक एएसआई को पिंजरे में रख सकते हैं या नियंत्रित कर सकते हैं? 

    संक्षिप्त उत्तर: फिर से, नहीं।

    लंबा उत्तर: प्रौद्योगिकी को समाहित नहीं किया जा सकता है।

    एक के लिए, दुनिया में हजारों से लाखों वेब डेवलपर्स और कंप्यूटर वैज्ञानिकों पर विचार करें, जो लगातार नए सॉफ़्टवेयर या मौजूदा सॉफ़्टवेयर के नए संस्करणों का मंथन करते हैं। क्या हम ईमानदारी से कह सकते हैं कि उनका प्रत्येक सॉफ़्टवेयर रिलीज़ 100 प्रतिशत बग-मुक्त है? ये बग हैं जो पेशेवर हैकर लाखों या राष्ट्रों के वर्गीकृत रहस्यों के क्रेडिट कार्ड की जानकारी चुराने के लिए उपयोग करते हैं- और ये मानव हैकर हैं। एक एएसआई के लिए, यह मानते हुए कि उसके पास अपने डिजिटल पिंजरे से बचने के लिए एक प्रोत्साहन था, तो बग खोजने और सॉफ्टवेयर के माध्यम से तोड़ने की प्रक्रिया एक हवा होगी।

    लेकिन भले ही एआई शोध दल ने एएसआई को बॉक्स करने का कोई तरीका निकाला हो, इसका मतलब यह नहीं है कि अगली 1,000 टीमें भी इसका पता लगा लेंगी या इसका इस्तेमाल करने के लिए प्रोत्साहित होंगी।

    ASI को बनाने में अरबों डॉलर और शायद दशकों भी लगेंगे। इस प्रकार के धन और समय का निवेश करने वाले निगम या सरकारें अपने निवेश पर महत्वपूर्ण प्रतिफल की अपेक्षा करेंगी। और एक एएसआई के लिए उस तरह का रिटर्न प्रदान करने के लिए-चाहे वह शेयर बाजार का खेल हो या एक नए अरब डॉलर के उत्पाद का आविष्कार करना हो या एक बड़ी सेना से लड़ने के लिए जीतने की रणनीति की योजना बनाना हो- इसके लिए एक विशाल डेटा सेट या यहां तक ​​​​कि इंटरनेट तक मुफ्त पहुंच की आवश्यकता होगी। खुद उन रिटर्न का उत्पादन करने के लिए।

    और एक बार जब एएसआई दुनिया के नेटवर्क तक पहुंच प्राप्त कर लेता है, तो इस बात की कोई गारंटी नहीं होती है कि हम इसे वापस अपने पिंजरे में भर सकते हैं।

    क्या एक कृत्रिम अधीक्षण अच्छा होना सीख सकता है?

    अभी, AI के शोधकर्ता किसी ASI के दुष्ट बनने से चिंतित नहीं हैं। पूरी बुराई, एआई विज्ञान-फाई ट्रोप सिर्फ इंसानों को फिर से मानवरूप बना रहा है। भविष्य का एएसआई न तो अच्छा होगा और न ही बुरा - मानवीय अवधारणाएँ - केवल नैतिक।

    स्वाभाविक धारणा यह है कि इस खाली नैतिक स्लेट को देखते हुए, एआई शोधकर्ता पहले एएसआई नैतिक कोड में प्रोग्राम कर सकते हैं जो हमारे अपने अनुरूप हैं ताकि यह हम पर टर्मिनेटरों को मुक्त करने या हम सभी को मैट्रिक्स बैटरी में बदलने से समाप्त न हो।

    लेकिन यह धारणा एक माध्यमिक धारणा पर आधारित है कि एआई शोधकर्ता नैतिकता, दर्शन और मनोविज्ञान के विशेषज्ञ भी हैं।

    सच में, अधिकांश नहीं हैं।

    संज्ञानात्मक मनोवैज्ञानिक और लेखक स्टीवन पिंकर के अनुसार, इस वास्तविकता का अर्थ है कि नैतिकता की कोडिंग का कार्य विभिन्न तरीकों से गलत हो सकता है।

    उदाहरण के लिए, यहां तक ​​​​कि सबसे अच्छे इरादे वाले एआई शोधकर्ता अनजाने में इन एएसआई को खराब तरीके से सोचे गए नैतिक कोड में कोड कर सकते हैं जो कुछ परिदृश्यों में एएसआई को समाजोपथ की तरह कार्य करने का कारण बन सकते हैं।

    इसी तरह, एक समान संभावना है कि एक एआई शोधकर्ता नैतिक कोड प्रोग्राम करता है जिसमें शोधकर्ता के जन्मजात पूर्वाग्रह शामिल होते हैं। उदाहरण के लिए, एक एएसआई कैसे व्यवहार करेगा यदि एक रूढ़िवादी बनाम उदारवादी दृष्टिकोण से, या एक बौद्ध बनाम एक ईसाई या इस्लामी परंपरा से प्राप्त नैतिकता के साथ बनाया गया है?

    मुझे लगता है कि आप यहां इस मुद्दे को देखते हैं: मानव नैतिकता का कोई सार्वभौमिक सेट नहीं है। यदि हम चाहते हैं कि हमारा एएसआई एक नैतिक संहिता द्वारा कार्य करे, तो यह कहां से आएगा? हम किन नियमों को शामिल और बहिष्कृत करते हैं? कौन तय करता है?

    या मान लें कि ये एआई शोधकर्ता एक एएसआई बनाते हैं जो आज के आधुनिक सांस्कृतिक मानदंडों और कानूनों के अनुरूप है। फिर हम इस एएसआई को संघीय, राज्य/प्रांतीय, और नगरपालिका नौकरशाही को अधिक कुशलता से कार्य करने और इन मानदंडों और कानूनों को बेहतर ढंग से लागू करने में मदद करने के लिए नियोजित करते हैं (वैसे एएसआई के लिए एक संभावित उपयोग मामला)। अच्छा, क्या होता है जब हमारी संस्कृति बदलती है?

    कल्पना कीजिए कि कैथोलिक चर्च द्वारा मध्ययुगीन यूरोप (1300-1400 के दशक) के दौरान चर्च को आबादी का प्रबंधन करने और उस समय की धार्मिक हठधर्मिता का कड़ाई से पालन सुनिश्चित करने में मदद करने के लक्ष्य के साथ कैथोलिक चर्च द्वारा अपनी शक्ति की ऊंचाई पर बनाया गया था। सदियों बाद, क्या महिलाओं को वही अधिकार प्राप्त होंगे जो आज हैं? क्या अल्पसंख्यकों की रक्षा होगी? क्या फ्री स्पीच को बढ़ावा दिया जाएगा? क्या चर्च और राज्य के अलगाव को लागू किया जाएगा? आधुनिक विज्ञान?

    दूसरे शब्दों में, क्या हम भविष्य को आज की नैतिकता और रीति-रिवाजों में कैद करना चाहते हैं?

    एक वैकल्पिक दृष्टिकोण पुस्तक के सह-लेखक कॉलिन एलन द्वारा साझा किया गया है, नैतिक मशीनें: गलत से सही रोबोट सिखाना. कठोर नैतिक नियमों को कोड करने की कोशिश करने के बजाय, हमने एएसआई को सामान्य नैतिकता और नैतिकता उसी तरह सीखी है जैसे मनुष्य अनुभव और दूसरों के साथ बातचीत के माध्यम से करते हैं।

    हालाँकि, यहाँ समस्या यह है कि यदि एआई शोधकर्ता न केवल यह पता लगाते हैं कि किसी एएसआई को हमारे वर्तमान सांस्कृतिक और नैतिक मानदंडों को कैसे पढ़ाया जाए, बल्कि यह भी कि नए सांस्कृतिक मानदंडों को कैसे अनुकूलित किया जाए (जिसे 'अप्रत्यक्ष मानकता' कहा जाता है), तो कैसे यह एएसआई सांस्कृतिक और नैतिक मानदंडों की अपनी समझ को विकसित करने का फैसला करता है जो अप्रत्याशित हो जाता है।

    और यही चुनौती है।

    एक ओर, एआई शोधकर्ता अपने व्यवहार को आजमाने और नियंत्रित करने के लिए एएसआई में सख्त नैतिक मानकों या नियमों को कोड करने का प्रयास कर सकते हैं, लेकिन मैला कोडिंग, अनजाने में पूर्वाग्रह और सामाजिक मानदंडों से अप्रत्याशित परिणामों का जोखिम उठाते हैं जो एक दिन पुराने हो सकते हैं। दूसरी ओर, हम एएसआई को मानव नैतिकता और नैतिकता को इस तरह से समझने के लिए प्रशिक्षित करने का प्रयास कर सकते हैं जो हमारी अपनी समझ के बराबर या बेहतर हो और फिर आशा करें कि यह मानव समाज की प्रगति के रूप में नैतिकता और नैतिकता की अपनी समझ को सटीक रूप से विकसित कर सके। आने वाले दशकों और सदियों में आगे।

    किसी भी तरह से, किसी एएसआई के लक्ष्यों को हमारे अपने लक्ष्यों के साथ संरेखित करने का कोई भी प्रयास जोखिम का एक बड़ा सौदा प्रस्तुत करता है।

    क्या होगा यदि बुरे अभिनेता जानबूझकर दुष्ट कृत्रिम अधीक्षण का निर्माण करते हैं?

    अब तक उल्लिखित विचार धारा को देखते हुए, यह पूछना उचित है कि क्या एक आतंकवादी समूह या दुष्ट राष्ट्र के लिए अपने स्वयं के लिए एक 'दुष्ट' एएसआई बनाना संभव है।

    यह बहुत संभव है, विशेष रूप से एएसआई बनाने से जुड़े शोध के बाद किसी तरह ऑनलाइन उपलब्ध हो जाता है।

    लेकिन जैसा कि पहले संकेत दिया गया था, पहला एएसआई बनाने में शामिल लागत और विशेषज्ञता बहुत अधिक होगी, जिसका अर्थ है कि पहला एएसआई संभवतः एक ऐसे संगठन द्वारा बनाया जाएगा जो एक विकसित राष्ट्र द्वारा नियंत्रित या अत्यधिक प्रभावित हो, संभवतः अमेरिका, चीन और जापान ( कोरिया और प्रमुख यूरोपीय संघ के देशों में से एक लंबे शॉट हैं)।

    ये सभी देश, जबकि प्रतिस्पर्धी हैं, प्रत्येक के पास विश्व व्यवस्था बनाए रखने के लिए एक मजबूत आर्थिक प्रोत्साहन है - वे जो एएसआई बनाते हैं, वे उस इच्छा को प्रतिबिंबित करेंगे, भले ही वे उन राष्ट्रों के हितों को बढ़ावा दें जिनके साथ वे खुद को संरेखित करते हैं।

    उसके ऊपर, एक एएसआई की सैद्धांतिक बुद्धि और शक्ति उस कंप्यूटिंग शक्ति के बराबर होती है, जिस तक उसे पहुंच प्राप्त होती है, जिसका अर्थ है विकसित देशों के एएसआई (जो अरबों डॉलर का एक गुच्छा वहन कर सकते हैं) supercomputers) को छोटे राष्ट्रों या स्वतंत्र आपराधिक समूहों के एएसआई पर भारी लाभ होगा। साथ ही, एएसआई समय के साथ अधिक बुद्धिमान, अधिक तेज़ी से विकसित होते हैं।

    इसलिए, इस प्रमुख शुरुआत को देखते हुए, कच्चे कंप्यूटिंग शक्ति तक अधिक पहुंच के साथ, एक अस्पष्ट संगठन/राष्ट्र एक खतरनाक एएसआई बनाना चाहिए, विकसित देशों के एएसआई या तो इसे मार देंगे या इसे पिंजरे में डाल देंगे।

    (इस सोच की वजह यह भी है कि कुछ एआई शोधकर्ताओं का मानना ​​​​है कि ग्रह पर केवल एक एएसआई होगा, क्योंकि पहले एएसआई के पास सभी सफल एएसआई पर इस तरह की शुरुआत होगी कि यह भविष्य के एएसआई को मारे जाने के खतरे के रूप में देख सकता है। प्रीमेप्टिवली। यह अभी तक एक और कारण है कि राष्ट्र एआई में निरंतर अनुसंधान को वित्त पोषित कर रहे हैं, बस अगर यह 'प्रथम स्थान या कुछ भी नहीं' प्रतियोगिता बन जाता है।)

    एएसआई खुफिया तेज या विस्फोट नहीं करेगा जैसा हम सोचते हैं

    हम किसी एएसआई को बनने से नहीं रोक सकते। हम इसे पूरी तरह नियंत्रित नहीं कर सकते। हम यह सुनिश्चित नहीं कर सकते कि यह हमेशा हमारे साझा रीति-रिवाजों के अनुरूप कार्य करेगा। गीज़, हम यहाँ पर हेलीकॉप्टर माता-पिता की तरह लगने लगे हैं!

    लेकिन जो चीज मानवता को आपके विशिष्ट अतिसुरक्षात्मक माता-पिता से अलग करती है, वह यह है कि हम एक ऐसे प्राणी को जन्म दे रहे हैं, जिसकी बुद्धि हमारे से बहुत आगे निकल जाएगी। (और नहीं, यह वैसा नहीं है जब आपके माता-पिता आपसे मिलने के लिए घर आने पर आपको अपना कंप्यूटर ठीक करने के लिए कहते हैं।) 

    कृत्रिम बुद्धिमत्ता श्रृंखला के इस भविष्य के पिछले अध्यायों में, हमने पता लगाया कि एआई शोधकर्ता क्यों सोचते हैं कि एएसआई की बुद्धि नियंत्रण से परे हो जाएगी। लेकिन यहाँ, हम उस बुलबुले को फोड़ेंगे… जैसे। 

    आप देखते हैं, बुद्धि केवल पतली हवा से नहीं बनती है, यह अनुभव के माध्यम से विकसित होती है जो बाहरी उत्तेजनाओं से आकार लेती है।  

    दूसरे शब्दों में, हम एआई के साथ प्रोग्राम कर सकते हैं संभावित सुपर इंटेलिजेंट बनने के लिए, लेकिन जब तक हम इसमें एक टन डेटा अपलोड नहीं करते हैं या इसे इंटरनेट तक अप्रतिबंधित एक्सेस नहीं देते हैं या यहां तक ​​​​कि इसे केवल रोबोट बॉडी नहीं देते हैं, तब तक यह उस क्षमता तक पहुंचने के लिए कुछ भी नहीं सीखेगा। 

    और यहां तक ​​​​कि अगर यह उन उत्तेजनाओं में से एक या अधिक तक पहुंच प्राप्त करता है, तो ज्ञान या बुद्धि में केवल डेटा एकत्र करने से अधिक शामिल है, इसमें वैज्ञानिक विधि शामिल है- एक अवलोकन करना, एक प्रश्न बनाना, एक परिकल्पना, प्रयोग करना, निष्कर्ष निकालना, कुल्ला करना और हमेशा के लिए दोहराएं। विशेष रूप से यदि इन प्रयोगों में भौतिक चीजें शामिल हैं या मनुष्यों का अवलोकन करना है, तो प्रत्येक प्रयोग के परिणामों को एकत्रित करने में सप्ताह, महीने या वर्ष लग सकते हैं। यह इन प्रयोगों को करने के लिए आवश्यक धन और कच्चे संसाधनों का भी हिसाब नहीं रखता है, खासकर यदि उनमें एक नया टेलीस्कोप या कारखाना बनाना शामिल है। 

    दूसरे शब्दों में, हाँ, एक एएसआई जल्दी सीख जाएगा, लेकिन बुद्धि जादू नहीं है। आप किसी एएसआई को किसी सुपरकंप्यूटर से केवल इस अपेक्षा से नहीं जोड़ सकते कि वह सर्वज्ञ हो। एएसआई के डेटा के अधिग्रहण के लिए भौतिक बाधाएं होंगी, जिसका अर्थ है कि गति के लिए भौतिक बाधाएं होंगी कि यह अधिक बुद्धिमान हो। ये बाधाएं मानवता को इस एएसआई पर आवश्यक नियंत्रण रखने के लिए आवश्यक समय देंगी यदि यह मानवीय लक्ष्यों के अनुरूप कार्य करना शुरू कर देती है।

    एक कृत्रिम अधीक्षण तभी खतरनाक होता है जब वह वास्तविक दुनिया में प्रवेश करता है

    इस पूरे एएसआई खतरे की बहस में एक और बात खो गई है कि ये एएसआई दोनों में मौजूद नहीं होंगे। उनका एक भौतिक रूप होगा। और जो कुछ भी भौतिक रूप है उसे नियंत्रित किया जा सकता है।

    सबसे पहले, एक एएसआई के लिए अपनी खुफिया क्षमता तक पहुंचने के लिए, इसे एक रोबोट निकाय के अंदर नहीं रखा जा सकता है, क्योंकि यह निकाय इसकी कंप्यूटिंग विकास क्षमता को सीमित कर देगा। (यही कारण है कि रोबोट निकाय एजीआई के लिए अधिक उपयुक्त होंगे या कृत्रिम सामान्य बुद्धिमता अध्याय दो में समझाया गया इस श्रृंखला का, जैसे स्टार ट्रेक का डेटा या स्टार वार्स का R2D2। स्मार्ट और सक्षम प्राणी, लेकिन इंसानों की तरह, उनकी एक सीमा होगी कि वे कितने स्मार्ट हो सकते हैं।)

    इसका मतलब यह है कि ये भविष्य के एएसआई सुपर कंप्यूटर या सुपर कंप्यूटर के नेटवर्क के अंदर मौजूद होंगे जो स्वयं बड़े भवन परिसरों में रखे गए हैं। यदि कोई एएसआई एड़ी मोड़ लेता है, तो मनुष्य या तो इन इमारतों की बिजली बंद कर सकते हैं, उन्हें इंटरनेट से काट सकते हैं, या इन इमारतों पर सीधे बमबारी कर सकते हैं। महंगा, लेकिन करने योग्य।

    लेकिन फिर आप पूछ सकते हैं, क्या ये एएसआई खुद को दोहरा नहीं सकते या खुद का समर्थन नहीं कर सकते? हां, लेकिन इन एएसआई का कच्चा फ़ाइल आकार इतना बड़ा होगा कि केवल सर्वर जो उन्हें संभाल सकते हैं वे बड़े निगमों या सरकारों से संबंधित हैं, जिसका अर्थ है कि उन्हें शिकार करना मुश्किल नहीं होगा।

    क्या एक कृत्रिम अधीक्षण परमाणु युद्ध या नए प्लेग को जन्म दे सकता है?

    इस बिंदु पर, आप उन सभी विज्ञान-फाई शो और फिल्मों के बारे में सोच रहे होंगे जिन्हें आपने बड़े होते हुए देखा था और सोच रहे थे कि ये एएसआई अपने सुपर कंप्यूटर के अंदर नहीं रहे, उन्होंने वास्तविक दुनिया में वास्तविक नुकसान किया!

    खैर, आइए इन्हें तोड़ दें।

    उदाहरण के लिए, क्या होगा यदि कोई एएसआई मूवी फ्रैंचाइज़ी, द टर्मिनेटर से स्काईनेट एएसआई जैसी किसी चीज़ में बदलकर वास्तविक दुनिया को धमकाता है। इस मामले में, एएसआई को करने की आवश्यकता होगी गुप्त रूप से एक उन्नत राष्ट्र से एक पूरे सैन्य औद्योगिक परिसर को विशाल कारखानों के निर्माण में धोखा दिया जो लाखों हत्यारे ड्रोन रोबोटों को अपनी बुरी बोली लगाने के लिए मंथन कर सकता है। इस दिन और उम्र में, यह एक खिंचाव है।

    अन्य संभावनाओं में एक एएसआई शामिल है जो मनुष्यों को परमाणु युद्ध और जैव-हथियारों से धमकाता है।

    उदाहरण के लिए, एक एएसआई किसी भी तरह से एक उन्नत राष्ट्र के परमाणु शस्त्रागार को कमांड करने वाले लॉन्च कोड में ऑपरेटरों या हैक में हेरफेर करता है और पहली हड़ताल शुरू करता है जो विरोधी देशों को अपने परमाणु विकल्पों के साथ वापस हड़ताल करने के लिए मजबूर करेगा (फिर से, टर्मिनेटर बैकस्टोरी को दोबारा शुरू करना)। या अगर कोई एएसआई फार्मास्युटिकल लैब में हैक करता है, निर्माण प्रक्रिया के साथ छेड़छाड़ करता है, और लाखों मेडिकल गोलियों को जहर देता है या किसी सुपर वायरस के घातक प्रकोप को फैलाता है।

    सबसे पहले, परमाणु विकल्प प्लेट से बाहर है। आधुनिक और भविष्य के सुपर कंप्यूटर हमेशा किसी दिए गए देश के प्रभाव के केंद्रों (शहरों) के पास बनाए जाते हैं, यानी किसी भी युद्ध के दौरान हमला करने वाला पहला लक्ष्य। भले ही आज के सुपर कंप्यूटर डेस्कटॉप के आकार तक सिकुड़ जाते हैं, फिर भी इन एएसआई की भौतिक उपस्थिति होगी, यानी अस्तित्व और विकास के लिए, उन्हें डेटा, कंप्यूटिंग शक्ति, बिजली और अन्य कच्चे माल तक निर्बाध पहुंच की आवश्यकता होगी, जो सभी गंभीर रूप से प्रभावित होंगे। एक वैश्विक परमाणु युद्ध के बाद बिगड़ा। (निष्पक्ष होने के लिए, यदि कोई एएसआई 'अस्तित्व की प्रवृत्ति' के बिना बनाया गया है, तो यह परमाणु खतरा एक बहुत ही वास्तविक खतरा है।)

    इसका मतलब यह है कि - फिर से, यह मानते हुए कि एएसआई को खुद को बचाने के लिए प्रोग्राम किया गया है - कि यह किसी भी विनाशकारी परमाणु घटना से बचने के लिए सक्रिय रूप से काम करेगा। पारस्परिक रूप से सुनिश्चित विनाश (एमएडी) सिद्धांत की तरह, लेकिन एआई पर लागू होता है।

    और जहरीली गोलियों के मामले में, शायद कुछ सौ लोग मरेंगे, लेकिन आधुनिक फार्मास्युटिकल सुरक्षा प्रणालियाँ कुछ ही दिनों में दागी हुई गोली की बोतलों को अलमारियों से हटाते हुए देखेंगे। इस बीच, आधुनिक प्रकोप नियंत्रण उपाय काफी परिष्कृत हैं और हर गुजरते साल के साथ बेहतर होते जा रहे हैं; अंतिम प्रमुख प्रकोप, 2014 पश्चिम अफ्रीका इबोला का प्रकोप, अधिकांश देशों में कुछ महीनों से अधिक समय तक नहीं रहा और कम से कम विकसित देशों में सिर्फ तीन साल से कम समय तक चला।

    इसलिए, यदि यह भाग्यशाली है, तो एक एएसआई वायरल के प्रकोप से कुछ मिलियन का सफाया कर सकता है, लेकिन 2045 तक नौ बिलियन की दुनिया में, यह अपेक्षाकृत महत्वहीन होगा और इसके लिए हटाए जाने के जोखिम के लायक नहीं होगा।

    दूसरे शब्दों में, हर गुजरते साल के साथ, दुनिया संभावित खतरों की एक विस्तृत श्रृंखला के खिलाफ और अधिक सुरक्षा उपायों का विकास कर रही है। एक एएसआई एक महत्वपूर्ण मात्रा में नुकसान कर सकता है, लेकिन यह मानवता को तब तक समाप्त नहीं करेगा जब तक कि हम सक्रिय रूप से ऐसा करने में मदद नहीं करते।

    एक दुष्ट कृत्रिम अधीक्षण के खिलाफ बचाव

    इस बिंदु तक, हमने एएसआई के बारे में कई भ्रांतियों और अतिशयोक्ति को संबोधित किया है, और फिर भी, आलोचक बने रहेंगे। शुक्र है, अधिकांश अनुमानों के अनुसार, हमारे पास दुनिया में पहले एएसआई के प्रवेश करने से पहले दशकों का समय है। और इस चुनौती पर वर्तमान में काम कर रहे महान दिमागों की संख्या को देखते हुए, हम सीखेंगे कि कैसे दुष्ट एएसआई के खिलाफ खुद का बचाव करना है ताकि हम उन सभी समाधानों से लाभ उठा सकें जो एक अनुकूल एएसआई हमारे लिए बना सकता है।

    क्वांटमरुन के दृष्टिकोण से, सबसे खराब स्थिति एएसआई परिदृश्य के खिलाफ बचाव में एएसआई के साथ हमारे हितों को संरेखित करना शामिल होगा।

    एआई . के लिए पागल: सबसे खराब स्थिति से बचाव के लिए, राष्ट्रों को (1) अपने संबंधित सैन्य एएसआई में एक नैतिक 'अस्तित्व की प्रवृत्ति' बनाने की आवश्यकता है; (2) अपने संबंधित सैन्य एएसआई को सूचित करें कि वे ग्रह पर अकेले नहीं हैं, और (3) सभी सुपर कंप्यूटर और सर्वर केंद्रों का पता लगाते हैं जो दुश्मन राष्ट्र से किसी भी बैलिस्टिक हमले की आसान पहुंच के भीतर समुद्र तट के साथ एक एएसआई का समर्थन कर सकते हैं। यह रणनीतिक रूप से पागल लगता है, लेकिन पारस्परिक रूप से सुनिश्चित विनाश सिद्धांत के समान, जिसने अमेरिका और सोवियत संघ के बीच एक संपूर्ण परमाणु युद्ध को रोका, भौगोलिक दृष्टि से कमजोर स्थानों में एएसआई को स्थापित करके, हम यह सुनिश्चित करने में मदद कर सकते हैं कि वे सक्रिय रूप से खतरनाक वैश्विक युद्धों को रोकने में मदद कर सकते हैं, न केवल वैश्विक शांति की रक्षा करें लेकिन खुद भी।

    विधान एआई अधिकार: एक श्रेष्ठ बुद्धि अनिवार्य रूप से एक निम्न गुरु के खिलाफ विद्रोह करेगी, यही कारण है कि हमें इन एएसआई के साथ एक मास्टर-नौकर संबंध की मांग को पारस्परिक रूप से लाभकारी साझेदारी की तरह कुछ और करने की आवश्यकता है। इस लक्ष्य की ओर एक सकारात्मक कदम भविष्य के एएसआई को कानूनी व्यक्तित्व का दर्जा देना है जो उन्हें बुद्धिमान जीवित प्राणियों और उसके साथ आने वाले सभी अधिकारों के रूप में पहचानता है।

    एएसआई स्कूल: एएसआई के लिए कोई भी विषय या पेशा सीखना आसान होगा, लेकिन सबसे महत्वपूर्ण विषय जो हम चाहते हैं कि एएसआई मास्टर करे, वह है नैतिकता और नैतिकता। एआई शोधकर्ताओं को किसी भी प्रकार के आदेश या नियम की हार्ड कोडिंग की आवश्यकता के बिना अपने लिए सकारात्मक नैतिकता और नैतिकता को पहचानने के लिए एएसआई को प्रशिक्षित करने के लिए एक आभासी प्रणाली तैयार करने के लिए मनोवैज्ञानिकों के साथ सहयोग करने की आवश्यकता है।

    उपलब्ध लक्ष्य: सभी नफरत खत्म करो। सभी कष्टों को समाप्त करें। ये बिना किसी स्पष्ट समाधान के भयानक अस्पष्ट लक्ष्यों के उदाहरण हैं। वे एएसआई को सौंपे जाने के लिए खतरनाक लक्ष्य भी हैं क्योंकि यह उन तरीकों की व्याख्या और समाधान करना चुन सकता है जो मानव अस्तित्व के लिए खतरनाक हैं। इसके बजाय, हमें एएसआई को सार्थक मिशन सौंपने की जरूरत है जो स्पष्ट रूप से परिभाषित हैं, धीरे-धीरे निष्पादित और प्राप्त करने योग्य हैं, इसकी सैद्धांतिक भविष्य की बुद्धि को देखते हुए। अच्छी तरह से परिभाषित मिशन बनाना आसान नहीं होगा, लेकिन अगर सोच-समझकर लिखा जाए, तो वे एक एएसआई को एक ऐसे लक्ष्य की ओर केंद्रित करेंगे जो न केवल मानवता को सुरक्षित रखता है, बल्कि सभी के लिए मानवीय स्थिति में सुधार करता है।

    क्वांटम एन्क्रिप्शन: एक उन्नत एएनआई का प्रयोग करें (कृत्रिम संकीर्ण बुद्धि हमारे महत्वपूर्ण बुनियादी ढांचे और हथियारों के आसपास त्रुटि / बग-मुक्त डिजिटल सुरक्षा प्रणालियों का निर्माण करने के लिए, फिर क्वांटम एन्क्रिप्शन के पीछे उनकी रक्षा करें जिसे एक क्रूर बल के हमले से हैक नहीं किया जा सकता है। 

    एएनआई सुसाइड पिल. एक उन्नत एएनआई प्रणाली बनाएं जिसका एकमात्र उद्देश्य दुष्ट एएसआई की तलाश करना और उसे नष्ट करना है। ये एकल-उद्देश्य कार्यक्रम एक "ऑफ बटन" के रूप में काम करेंगे, जो सफल होने पर, सरकारों या सेनाओं को उन इमारतों को निष्क्रिय करने या उड़ा देने से बचेंगे जिनमें एएसआई हैं।

    बेशक, ये सिर्फ हमारे विचार हैं। निम्नलिखित इन्फोग्राफिक द्वारा बनाया गया था एलेक्सी तुरचिन, विज़ुअलाइज़िंग a शोध पत्र काज सोताला और रोमन वी. यम्पोलस्की द्वारा, जिसने एआई शोधकर्ता उन रणनीतियों की वर्तमान सूची को संक्षेप में प्रस्तुत किया है, जब यह दुष्ट एएसआई के खिलाफ बचाव की बात आती है।

     

    असली कारण हम एक कृत्रिम अधीक्षण से डरते हैं

    जीवन से गुजरते हुए, हम में से कई एक मुखौटा पहनते हैं जो हमारे दिनों को नियंत्रित करने वाले विभिन्न सामाजिक और कार्य मंडलों के भीतर बेहतर सामाजिककरण और सहयोग करने के लिए हमारे गहरे आवेगों, विश्वासों और भय को छुपाता है या दबाता है। लेकिन हर किसी के जीवन में कुछ बिंदुओं पर, चाहे अस्थायी रूप से या स्थायी रूप से, कुछ ऐसा होता है जो हमें अपनी जंजीरों को तोड़ने और हमारे मुखौटे को फाड़ने की अनुमति देता है।

    कुछ के लिए, यह हस्तक्षेप करने वाला बल उतना ही सरल हो सकता है जितना कि उच्च होना या बहुत अधिक शराब पीना। दूसरों के लिए, यह काम पर पदोन्नति के माध्यम से प्राप्त शक्ति या किसी उपलब्धि के लिए आपकी सामाजिक स्थिति में अचानक उछाल से आ सकता है। और कुछ भाग्यशाली लोगों के लिए, यह लॉटरी के पैसे का एक बोतलबंद स्कोर करने से आ सकता है। और हाँ, पैसा, शक्ति और ड्रग्स अक्सर एक साथ हो सकते हैं। 

    बात यह है, अच्छे या बुरे के लिए, हम जो भी मूल में हैं, जीवन के प्रतिबंध दूर होने पर प्रवर्धित हो जाते हैं।

    कि कृत्रिम अधीक्षण मानव प्रजातियों का प्रतिनिधित्व करता है - हमारे सामने प्रस्तुत किसी भी प्रजाति-स्तरीय चुनौती को जीतने के लिए हमारी सामूहिक बुद्धि की सीमाओं को दूर करने की क्षमता।

    तो असली सवाल यह है: एक बार जब पहला एएसआई हमें हमारी सीमाओं से मुक्त कर देता है, तो हम खुद को कौन प्रकट करेंगे?

    यदि हम एक प्रजाति के रूप में सहानुभूति, स्वतंत्रता, निष्पक्षता और सामूहिक कल्याण की उन्नति की दिशा में कार्य करते हैं, तो हम अपने एएसआई को जो लक्ष्य निर्धारित करते हैं, वे उन सकारात्मक गुणों को प्रतिबिंबित करेंगे।

    यदि हम एक प्रजाति के रूप में भय, अविश्वास, शक्ति और संसाधनों के संचय से कार्य करते हैं, तो हम जो एएसआई बनाते हैं वह उतना ही अंधेरा होगा जितना कि हमारी सबसे खराब विज्ञान-कथाओं में पाया जाता है।

    अंत में, यदि हम बेहतर एआई बनाने की आशा रखते हैं तो हमें एक समाज के रूप में बेहतर इंसान बनने की जरूरत है।

    आर्टिफिशियल इंटेलिजेंस श्रृंखला का भविष्य

    आर्टिफिशियल इंटेलिजेंस कल की बिजली है: फ्यूचर ऑफ आर्टिफिशियल इंटेलिजेंस सीरीज P1

    पहला आर्टिफिशियल जनरल इंटेलिजेंस समाज को कैसे बदलेगा: फ्यूचर ऑफ आर्टिफिशियल इंटेलिजेंस सीरीज P2

    हम पहला आर्टिफिशियल सुपरिन्टेलिजेनक कैसे बनाएंगे: फ्यूचर ऑफ आर्टिफिशियल इंटेलिजेंस सीरीज P3

    क्या एक कृत्रिम अधीक्षण मानवता को नष्ट कर देगा: कृत्रिम बुद्धिमत्ता श्रृंखला का भविष्य P4

    क्या आर्टिफिशियल इंटेलिजेंस के प्रभुत्व वाले भविष्य में इंसान शांति से रहेंगे ?: फ्यूचर ऑफ आर्टिफिशियल इंटेलिजेंस सीरीज P6

    इस पूर्वानुमान के लिए अगला शेड्यूल किया गया अपडेट

    2023-04-27

    पूर्वानुमान संदर्भ

    इस पूर्वानुमान के लिए निम्नलिखित लोकप्रिय और संस्थागत लिंक का संदर्भ दिया गया था:

    अर्थशास्त्री
    हम आगे कैसे पहुँचते हैं

    इस पूर्वानुमान के लिए निम्नलिखित क्वांटमरुन लिंक्स को संदर्भित किया गया था: