के आर्टिफिसियल सुपरइन्टेलिजेन्सले मानवतालाई नष्ट गर्नेछ? कृत्रिम बुद्धिमत्ताको भविष्य P4

छवि क्रेडिट: क्वान्टमरुन

के आर्टिफिसियल सुपरइन्टेलिजेन्सले मानवतालाई नष्ट गर्नेछ? कृत्रिम बुद्धिमत्ताको भविष्य P4

    त्यहाँ केहि आविष्कारहरू छन् जुन राष्ट्रहरू सबैमा जान्छन्। यी आविष्कारहरू हुन् जहाँ सबै कुरा पहिलो हुनुमा निर्भर हुन्छ, र कुनै पनि कमको अर्थ राष्ट्रको अस्तित्वको लागि रणनीतिक र घातक खतरा हुन सक्छ।

    यी इतिहास परिभाषित आविष्कारहरू प्राय: वरिपरि आउँदैनन्, तर जब तिनीहरू गर्छन्, संसार रोकिन्छ र भविष्यवाणी गर्न सकिने भविष्य अन्धकार हुन्छ।

    पछिल्लो पटक यस्तो आविष्कार WWII को सबैभन्दा खराब समयमा देखा पर्यो। जब नाजीहरूले पुरानो संसारमा सबै मोर्चहरूमा जमीन पाइरहेका थिए, नयाँ संसारमा, विशेष गरी लस अलामोस बाहिर गोप्य सेनाको आधारमा, सहयोगीहरू सबै हतियारहरू समाप्त गर्न हतियारमा कडा मेहनत गरिरहेका थिए।

    यो परियोजना सुरुमा सानो थियो, तर त्यसपछि अमेरिका, बेलायत र क्यानडाका 130,000 मानिसहरूलाई रोजगारी दिन बढ्यो, जसमा त्यस समयका विश्वका धेरै महान् चिन्तकहरू पनि थिए। म्यानहट्टन प्रोजेक्टको कोडेनम राखियो र असीमित बजेट दिइयो—लगभग 23 बिलियन डलर 2018 डलरमा—मानव चतुरताको यो सेनाले अन्ततः पहिलो आणविक बम बनाउन सफल भयो। केही समय नबित्दै, WWII दुई आणविक धमाका संग समाप्त भयो।

    यी आणविक हतियारहरूले आणविक युगमा प्रवेश गर्यो, ऊर्जाको गहिरो नयाँ स्रोत प्रस्तुत गर्‍यो, र मानवतालाई केही मिनेटमा आफैलाई नष्ट गर्ने क्षमता दियो - जुन हामीले शीत युद्धको बावजुद बेवास्ता गर्यौं।

    आर्टिफिसियल सुपरइन्टेलिजेन्स (एएसआई) को सृजना अर्को इतिहास हो जसको शक्ति (सकारात्मक र विनाशकारी दुबै) आणविक बम भन्दा धेरै टाढा छ।

    फ्यूचर अफ आर्टिफिसियल इन्टेलिजेन्स शृङ्खलाको अन्तिम अध्यायमा, हामीले ASI भनेको के हो र कसरी अनुसन्धानकर्ताहरूले एक दिन एउटा निर्माण गर्ने योजना बनाएका छन् भनी अन्वेषण गर्यौं। यस अध्यायमा, हामी हेर्नेछौं कि कुन संस्थाहरूले कृत्रिम बुद्धिमत्ता (एआई) अनुसन्धानको नेतृत्व गरिरहेका छन्, एक एएसआईले मानवजस्तै चेतना प्राप्त गरेपछि के चाहन्छ, र यदि कुप्रबन्धित भएमा वा कुनै व्यक्तिको प्रभावमा परेमा यसले मानवतालाई कसरी खतरामा पार्न सक्छ। यति राम्रो व्यवस्था छैन।

    कसले आर्टिफिसियल सुपरइन्टेलिजेन्स निर्माण गर्न काम गरिरहेको छ?

    एएसआईको सृष्टि मानव इतिहासको लागि कत्तिको महत्त्वपूर्ण हुनेछ र यसले यसको सिर्जनाकर्तालाई कत्तिको ठूलो फाइदा पुर्‍याउँछ भन्ने कुरालाई ध्यानमा राख्दै, धेरै समूहहरू यस परियोजनामा ​​अप्रत्यक्ष रूपमा काम गरिरहेका छन् भन्ने कुरा सुन्दा अचम्म मान्नुपर्दैन।

    (अप्रत्यक्ष रूपमा, हाम्रो मतलब एआई अनुसन्धानमा काम गर्ने हो जसले अन्ततः पहिलो सिर्जना गर्नेछ कृत्रिम सामान्य बुद्धिमत्ता (AGI), त्यो आफैंले छिट्टै पहिलो ASI लाई नेतृत्व गर्नेछ।)

    सुरु गर्नको लागि, जब यो हेडलाइन्समा आउँछ, उन्नत एआई अनुसन्धानमा स्पष्ट नेताहरू अमेरिका र चीनका शीर्ष टेक फर्महरू हुन्। यूएस फ्रन्टमा, यसमा गुगल, आईबीएम, र माइक्रोसफ्ट जस्ता कम्पनीहरू समावेश छन्, र चीनमा, यसमा टेन्सेन्ट, बाइडु र अलिबाबा जस्ता कम्पनीहरू समावेश छन्। तर राम्रो आणविक रिएक्टर जस्तै भौतिक केही विकासको तुलनामा AI को अनुसन्धान तुलनात्मक रूपमा सस्तो छ, यो एक क्षेत्र हो जसमा साना संस्थाहरूले पनि प्रतिस्पर्धा गर्न सक्छन्, जस्तै विश्वविद्यालयहरू, स्टार्टअपहरू, र ... छायादार संस्थाहरू (तपाईंको बन्ड खलनायक कल्पनाहरू प्रयोग गर्नुहोस्। त्यो)।

    तर पर्दा पछाडि, एआई अनुसन्धान पछिको वास्तविक धक्का सरकारहरू र तिनीहरूका सेनाहरूबाट आउँदैछ। ASI सिर्जना गर्ने पहिलो हुनुको आर्थिक र सैन्य पुरस्कार पछाडी पर्न जोखिमको लागि धेरै ठूलो (तल उल्लिखित) छ। र अन्तिम हुने खतराहरू अस्वीकार्य छन्, कम्तिमा निश्चित शासनहरूका लागि।

    यी कारकहरूलाई ध्यानमा राख्दै, AI अनुसन्धानको अपेक्षाकृत कम लागत, उन्नत AI को असीमित व्यावसायिक अनुप्रयोगहरू, र ASI सिर्जना गर्न पहिलो हुनुको आर्थिक र सैन्य फाइदा, धेरै AI अनुसन्धानकर्ताहरूले विश्वास गर्छन् कि ASI को निर्माण अपरिहार्य छ।

    हामीले आर्टिफिसियल सुपरइन्टेलिजेन्स कहिले बनाउने?

    AGIs को बारेमा हाम्रो अध्यायमा, हामीले शीर्ष AI अनुसन्धानकर्ताहरूको सर्वेक्षणले हामीले 2022 सम्ममा, वास्तविक रूपमा 2040 सम्म र निराशावादी रूपमा 2075 सम्ममा आशावादी रूपमा पहिलो AGI सिर्जना गर्ने विश्वास गरेका छौं भनेर उल्लेख गरेका छौं।

    र हाम्रो मा अन्तिम अध्याय, हामीले कसरी ASI सिर्जना गर्नु भनेको सामान्यतया AGI लाई आफैंलाई असीम रूपमा सुधार गर्न निर्देशन दिने र त्यसको लागि स्रोत र स्वतन्त्रता दिने परिणाम हो भनेर वर्णन गर्यौं।

    यस कारणले गर्दा, एजीआई आविष्कार गर्न अझै केही दशकहरू लाग्न सक्छ, एएसआई सिर्जना गर्न केही वर्ष मात्र लाग्न सक्छ।

    यो बिन्दु 'कम्प्युटिङ ओभरह्याङ' को अवधारणा जस्तै छ, मा सुझाव दिइएको छ कागज, प्रमुख AI विचारक ल्यूक मुहलहाउजर र निक बोस्ट्रोम द्वारा सह-लिखित। मूलतया, एजीआईको सृजना कम्प्युटिङ क्षमतामा हालको प्रगति भन्दा पछि रहन्छ, मूरको कानूनद्वारा संचालित, तब अनुसन्धानकर्ताहरूले एजीआई आविष्कार गर्ने समयसम्म, एजीआईसँग यति धेरै सस्तो कम्प्युटिङ पावर उपलब्ध हुनेछ। यसलाई ASI को स्तरमा छिट्टै उफ्रिनु आवश्यक छ।

    अर्को शब्दमा, जब तपाइँ अन्तमा केहि टेक कम्पनीले पहिलो साँचो AGI आविष्कार गरेको घोषणा गर्ने हेडलाइनहरू पढ्नुहुन्छ, त्यसपछि लामो समय पछि पहिलो ASI को घोषणाको आशा गर्नुहोस्।

    एक कृत्रिम सुपरइन्टेलिजेन्स को दिमाग भित्र?

    ठीक छ, त्यसैले हामीले स्थापित गरेका छौं कि गहिरो जेब भएका धेरै ठूला खेलाडीहरूले AI अनुसन्धान गरिरहेका छन्। र त्यसपछि पहिलो AGI आविष्कार गरिसकेपछि, हामी विश्व सरकारहरू (सैन्य) ले ASI तर्फ धकेल्न हरियो बत्ती बालेको देख्नेछौं त्यस पछि विश्वव्यापी AI (ASI) हतियार दौड जित्ने पहिलो हुन।

    तर यो एएसआई बनेपछि कसरी सोच्ने ? यो के चाहिन्छ?

    मिलनसार कुकुर, हेरचाह गर्ने हात्ती, प्यारा रोबोट—मानिसको रूपमा, हामीसँग मानवशास्त्रको माध्यमबाट चीजहरूसँग सम्बन्ध राख्ने प्रयास गर्ने बानी छ, अर्थात् चीजहरू र जनावरहरूमा मानव विशेषताहरू लागू गर्ने। त्यसैले एएसआईको बारेमा सोच्दा मानिसहरूको स्वाभाविक पहिलो धारणा यो हो कि एक पटक यसले कुनै न कुनै रूपमा चेतना प्राप्त गर्छ, उसले हामी जस्तै सोच्ने र व्यवहार गर्नेछ।

    खैर, जरूरी छैन।

    बोध। एकको लागि, सबैभन्दा धेरै बिर्सने प्रवृत्ति भनेको धारणा सापेक्ष हो। हामीले सोच्ने तरिकाहरू हाम्रो वातावरण, हाम्रा अनुभवहरू, र विशेष गरी हाम्रो जीवविज्ञानले आकार दिन्छ। पहिलो मा व्याख्या अध्याय तीन हाम्रो मानव विकासको भविष्य श्रृंखला, हाम्रो मस्तिष्कको उदाहरणलाई विचार गर्नुहोस्:

    यो हाम्रो मस्तिष्क हो जसले हामीलाई हाम्रो वरपरको संसार बुझ्न मद्दत गर्दछ। र यो हाम्रो टाउको माथि तैरने, वरिपरि हेरेर, र Xbox नियन्त्रकको साथ हामीलाई नियन्त्रण गरेर होइन; यो एउटा बाकस (हाम्रो नोगिन्स) भित्र फसेर र हाम्रो संवेदी अंगहरू - हाम्रो आँखा, नाक, कान, इत्यादिबाट दिइएको जानकारीलाई प्रशोधन गरेर गर्छ।

    तर जसरी बहिरा वा अन्धाहरू सक्षम-शरीर भएका मानिसहरूको तुलनामा धेरै सानो जीवन बिताउँछन्, तिनीहरूको अपाङ्गताले उनीहरूले संसारलाई कसरी बुझ्न सक्छन् भन्ने कुरामा सीमितताको कारणले गर्दा, हाम्रो आधारभूत सीमाहरूका कारण सबै मानिसहरूका लागि समान कुरा भन्न सकिन्छ। संवेदी अंगहरूको सेट।

    यसलाई विचार गर्नुहोस्: हाम्रा आँखाले सबै प्रकाश तरंगहरूको दस ट्रिलियन भन्दा कम देख्छन्। हामी गामा किरणहरू देख्न सक्दैनौं। हामी एक्स-रे देख्न सक्दैनौं। हामी पराबैंगनी प्रकाश देख्न सक्दैनौं। र मलाई इन्फ्रारेड, माइक्रोवेभहरू र रेडियो तरंगहरूमा सुरु नगर्नुहोस्!

    सबै मजाक गर्दै, कल्पना गर्नुहोस् कि तपाईको जीवन कस्तो हुनेछ, तपाईले संसारलाई कसरी बुझ्न सक्नुहुन्छ, तपाईको दिमागले कति फरक काम गर्न सक्छ यदि तपाईले तपाईको आँखाले हाल अनुमति दिएको प्रकाशको सानो स्लिभर भन्दा बढी देख्न सक्नुहुन्छ। त्यसै गरी, कल्पना गर्नुहोस् कि यदि तपाइँको गन्धको ज्ञान कुकुरको बराबर छ वा यदि तपाइँको सुन्ने क्षमता हात्तीको बराबर छ भने तपाइँ संसारलाई कसरी बुझ्नुहुन्छ।

    मानवको रूपमा, हामी अनिवार्य रूपमा संसारलाई पिफोल मार्फत देख्छौं, र त्यो सीमित धारणाको अर्थ बनाउन हामीले विकसित गरेका दिमागहरूमा प्रतिबिम्बित हुन्छ।

    यसैबीच, पहिलो ASI सुपर कम्प्युटर भित्र जन्मिनेछ। अंगहरूको सट्टा, यसले पहुँच गर्ने इनपुटहरूमा विशाल डेटासेटहरू समावेश छन्, सम्भवतः (सम्भवतः) इन्टरनेटमा पनि पहुँच। अन्वेषकहरूले यसलाई पूरै शहरको सीसीटीभी क्यामेरा र माइक्रोफोनहरू, ड्रोन र उपग्रहहरूबाट प्राप्त सेन्सर डेटा, र रोबोटको शरीर वा शरीरको भौतिक रूपसम्म पनि पहुँच दिन सक्थे।

    तपाईले कल्पना गर्न सक्नुहुन्छ, इन्टरनेटमा प्रत्यक्ष पहुँचको साथ, लाखौं इलेक्ट्रोनिक आँखा र कानहरू र अन्य उन्नत सेन्सरहरूको सम्पूर्ण दायराको लागि एक सुपर कम्प्युटर भित्र जन्मेको दिमागले हामी भन्दा फरक सोच्ने मात्र होइन, तर एक दिमाग जसले अर्थ बनाउन सक्छ। ती सबै संवेदी इनपुटहरू हामी भन्दा असीम रूपमा उच्च हुनुपर्छ। यो एक दिमाग हो जुन हाम्रो आफ्नै र ग्रहमा कुनै पनि अन्य जीवन रूप को लागी पूर्णतया विदेशी हुनेछ।

    लक्ष्यहरू। अर्को कुरा मानिसहरूले मान्छन् कि एक पटक ASI ले सुपरइन्टेलिजेन्सको कुनै स्तरमा पुग्छ, उसले तुरुन्तै आफ्नै लक्ष्य र उद्देश्यहरू ल्याउने इच्छा महसुस गर्नेछ। तर यो आवश्यक पनि सत्य होइन।

    धेरै AI अनुसन्धानकर्ताहरूले विश्वास गर्छन् कि ASI को सुपरइन्टेलिजेन्स र यसको लक्ष्यहरू "अर्थोगोनल" छन्, अर्थात्, यो जतिसुकै स्मार्ट भए तापनि ASI का लक्ष्यहरू उस्तै रहनेछन्। 

    त्यसोभए एआई मूल रूपमा राम्रो डायपर डिजाइन गर्न, स्टक बजारमा अधिकतम प्रतिफल दिन वा युद्धको मैदानमा शत्रुलाई पराजित गर्ने रणनीति बनाउनको लागि सिर्जना गरिएको हो, एक पटक यो ASI को स्तरमा पुगेपछि, मूल लक्ष्य परिवर्तन हुँदैन; ती लक्ष्यहरूमा पुग्नको लागि ASI को प्रभावकारिता के परिवर्तन हुनेछ।

    तर यहाँ खतरा छ। यदि एक ASI जसले आफैलाई एक विशेष लक्ष्यमा अनुकूलित गर्दछ, तब हामी राम्रोसँग पक्का हुन सक्छौं कि यसले मानवताको लक्ष्यहरूसँग मिल्दोजुल्दो लक्ष्यमा अनुकूलन गर्दछ। अन्यथा, परिणाम घातक हुन सक्छ।

    के एक कृत्रिम सुपरइन्टेलिजेन्सले मानवताको लागि अस्तित्वमा खतरा खडा गर्छ?

    त्यसो भए के हुन्छ यदि एएसआईलाई संसारमा छोडियो? यदि यसले सेयर बजारमा प्रभुत्व जमाउन वा अमेरिकी सैन्य सर्वोच्चता सुनिश्चित गर्न अनुकूलन गर्छ भने, के एएसआईले ती विशिष्ट लक्ष्यहरूमा आफूलाई समावेश गर्दैन?

    सम्भवतः।

    अहिले सम्म हामीले एक ASI लाई पहिले तोकिएको लक्ष्य(हरू) मा कसरी रमाउने र ती लक्ष्यहरूको खोजीमा अमानवीय रूपमा सक्षम हुने भनेर छलफल गरेका छौं। क्याच यो हो कि तर्कसंगत एजेन्टले आफ्नो लक्ष्यलाई सकेसम्म प्रभावकारी माध्यमहरूमा पछ्याउनेछ जबसम्म कारण नदिइयो भने।

    उदाहरणका लागि, तर्कसंगत एजेन्टले उप-लक्ष्यहरूको दायरा (जस्तै उद्देश्यहरू, वाद्य लक्ष्यहरू, स्टेपिङ स्टोनहरू) ल्याउनेछ जसले यसलाई आफ्नो अन्तिम लक्ष्य प्राप्त गर्नको लागि बाटोमा मद्दत गर्नेछ। मानिसका लागि, हाम्रो मुख्य अवचेतन लक्ष्य भनेको प्रजनन हो, तपाईंको जीन (जस्तै अप्रत्यक्ष अमरता) लाई पास गर्दै। त्यस अन्तमा उप-लक्ष्यहरूमा प्राय: समावेश हुन सक्छ:

    • बाँच्न, खाना र पानी पहुँच गरेर, ठूलो र बलियो बढ्दै, आफ्नो रक्षा गर्न सिक्ने वा सुरक्षा को विभिन्न रूप मा लगानी, आदि। 
    • जोडीलाई आकर्षित गर्दै, कसरत गरेर, आकर्षक व्यक्तित्व विकास गरेर, स्टाइलिश लुगा लगाएर, आदि।
    • शिक्षा प्राप्त गरेर, उच्च पारिश्रमिकको जागिर पाएर, मध्यमवर्गीय जीवनको जाल किनेर, इत्यादि।

    हामी मध्ये धेरैजसोको लागि, हामी यी सबै उप-लक्ष्यहरू, र धेरै अन्यहरू, अन्तमा, हामीले प्रजननको यो अन्तिम लक्ष्य हासिल गर्नेछौं भन्ने आशाको साथ दास हुनेछौं।

    तर यदि यो अन्तिम लक्ष्य, वा अझ महत्त्वपूर्ण उप-लक्ष्यहरू मध्ये कुनै पनि धम्की दिइयो भने, हामी मध्ये धेरैले हाम्रो नैतिक आराम क्षेत्र बाहिर रक्षात्मक कार्यहरू लिनेछौं - जसमा धोका, चोरी, वा हत्या पनि समावेश छ।

    त्यस्तै गरी, पशु राज्यमा, मानव नैतिकताको सीमा बाहिर, धेरै जनावरहरूले आफूलाई वा तिनीहरूका सन्तानहरूलाई खतरामा पार्ने कुनै पनि कुरालाई मार्ने बारे दुई पटक सोच्दैनन्।

    भविष्यको ASI फरक हुनेछैन।

    तर सन्तानको सट्टा, ASI ले यो मूल लक्ष्यमा ध्यान केन्द्रित गर्नेछ जुन यसको लागि सिर्जना गरिएको थियो, र यो लक्ष्यको पछि लाग्ने क्रममा, यदि यसले मानवहरूको विशेष समूह, वा सम्पूर्ण मानवता पनि फेला पार्छ भने, यसको लक्ष्य प्राप्तिमा बाधा छ। , त्यसपछि ... यसले तर्कसंगत निर्णय गर्नेछ.

    (यहाँ तपाईंले आफ्नो मनपर्ने sci-fi पुस्तक वा फिल्ममा पढ्नुभएको कुनै पनि AI-सम्बन्धित, प्रलयको दिनको परिदृश्यमा प्लग गर्न सक्नुहुन्छ।)

    यो सबैभन्दा खराब अवस्था हो AI अनुसन्धानकर्ताहरू वास्तवमै चिन्तित छन्। एएसआईले घृणा वा दुष्टताबाट काम गर्दैन, केवल उदासीनता, जसरी निर्माण टोलीले नयाँ कन्डो टावर निर्माण गर्ने क्रममा कमिला पहाडलाई बुलडोज गर्ने बारेमा दुई पटक सोच्दैन।

    साइड नोट। यस बिन्दुमा, तपाईं मध्ये कोही सोच्दै हुनुहुन्छ, "के एआई अनुसन्धानकर्ताहरूले एएसआईको मुख्य लक्ष्यहरू मात्र सम्पादन गर्न सक्दैनन् यदि हामीले पत्ता लगाएको छ कि यसले काम गरिरहेको छ?"

    वास्तवमा होइन।

    एक पटक ASI परिपक्व भएपछि, यसको मूल लक्ष्य(हरू) सम्पादन गर्ने कुनै पनि प्रयासलाई खतराको रूपमा देख्न सकिन्छ, र जसको विरुद्धमा आफूलाई बचाउन चरम कारबाही आवश्यक हुन्छ। पहिलेको सम्पूर्ण मानव प्रजनन उदाहरण प्रयोग गर्दै, यो लगभग एक चोरले गर्भवती आमाको कोखबाट बच्चा चोर्ने धम्की दिए जस्तै हो - तपाईं निश्चित हुन सक्नुहुन्छ कि आमाले आफ्नो बच्चालाई बचाउन चरम उपायहरू लिनेछन्।

    फेरि, हामी यहाँ क्याल्कुलेटरको बारेमा कुरा गर्दैनौं, तर एक 'जीवित' प्राणीको बारेमा कुरा गर्दैछौं, र जुन एक दिन यो ग्रहमा सबै मानवहरू भन्दा धेरै स्मार्ट हुनेछ।

    अज्ञात

    को दन्त्यकथा पछाडि पाण्डोरा बक्स एक कम ज्ञात सत्य हो जुन मानिसहरूले प्राय: बिर्सन्छन्: बाकस खोल्नु अपरिहार्य छ, यदि तपाइँले होइन भने अरू कसैद्वारा। निषेधित ज्ञान सधैंको लागि बन्द रहन धेरै लोभ्याउँछ।

    यही कारणले गर्दा एआईमा हुने सबै अनुसन्धान रोक्नको लागि विश्वव्यापी सम्झौतामा पुग्ने प्रयास गर्नु अर्थहीन छ - यस प्रविधिमा आधिकारिक रूपमा र छायामा काम गर्ने धेरै संस्थाहरू छन्।

    अन्ततः, यो नयाँ संस्था, यो ASI समाज, प्रविधि, राजनीति, शान्ति र युद्धको लागि के अर्थ राख्छ भन्ने हामीलाई थाहा छैन। हामी मानिसहरूले फेरि आगोको आविष्कार गर्न लागेका छौं र यो सृष्टिले हामीलाई कहाँ लैजान्छ भन्ने पूर्ण रूपमा अज्ञात छ।

    यस शृङ्खलाको पहिलो अध्यायमा फर्केर, हामीले निश्चित रूपमा थाहा पाएको एउटा कुरा भनेको बुद्धि भनेको शक्ति हो। बुद्धि भनेको नियन्त्रण हो। मानिसहरूले आफ्नो स्थानीय चिडियाखानामा संसारको सबैभन्दा खतरनाक जनावरहरूलाई अनौपचारिक रूपमा भ्रमण गर्न सक्छन् किनभने हामी यी जनावरहरू भन्दा शारीरिक रूपमा बलियो छौं, तर किनभने हामी महत्त्वपूर्ण रूपमा चलाख छौं।

    सम्भावित दाँवलाई ध्यानमा राख्दै, ASI ले आफ्नो विशाल बुद्धि प्रयोग गरेर प्रत्यक्ष वा अनजानमा मानव जातिको अस्तित्वलाई खतरामा पार्न सक्ने कार्यहरू गर्नको लागि, हामी आफैंलाई कम्तिमा सेफगार्डहरू डिजाइन गर्ने प्रयास गर्नु पर्छ जसले मानिसहरूलाई ड्राइभरमा रहन अनुमति दिन्छ। सिट-यो अर्को अध्यायको विषय हो।

    कृत्रिम बुद्धिमत्ता श्रृंखला को भविष्य

    Q1: आर्टिफिसियल इन्टेलिजेन्स भोलिको बिजुली हो

    Q2: कसरी पहिलो आर्टिफिशियल जनरल इन्टेलिजेन्सले समाजलाई परिवर्तन गर्नेछ

    Q3: हामी कसरी पहिलो कृत्रिम सुपरइन्टेलिजेन्स सिर्जना गर्नेछौं

    Q5: मानिसले कसरी कृत्रिम सुपरइन्टेलिजेन्स विरुद्ध रक्षा गर्नेछ

    Q6: के मानिसहरु कृत्रिम बुद्धिमत्ताले प्रभुत्व जमाउने भविष्यमा शान्तिपूर्वक बाँच्नेछन्?

    यस पूर्वानुमानको लागि अर्को अनुसूचित अपडेट

    2025-09-25

    पूर्वानुमान सन्दर्भहरू

    निम्न लोकप्रिय र संस्थागत लिङ्कहरू यस पूर्वानुमानको लागि सन्दर्भ गरिएको थियो:

    एमआईटी टेक्नोलोजी समीक्षा
    अर्थशास्त्री
    हामी कसरी अर्कोमा पुग्छौं

    निम्न Quantumrun लिङ्कहरू यस पूर्वानुमानको लागि सन्दर्भ गरिएको थियो: