पुलिसिंग साइबरस्पेस - विचलित एआईसँग लड्ने भविष्य

पोलिसिङ साइबरस्पेस - विचलित एआईसँग लड्ने भविष्य
छवि क्रेडिट:  

पुलिसिंग साइबरस्पेस - विचलित एआईसँग लड्ने भविष्य

    • लेखक नाम
      खलील हाजी
    • लेखक ट्विटर ह्यान्डल
      @TheBldBrnBar

    पूर्ण कथा (शब्द कागजातबाट पाठ सुरक्षित रूपमा प्रतिलिपि गर्न र टाँस्न 'शब्दबाट टाँस्नुहोस्' बटन मात्र प्रयोग गर्नुहोस्)

    आर्टिफिसियल इन्टेलिजेन्सको युग र यसको सम्भावित संवेदना डरलाग्दो दरमा सभ्यतामा आइरहेको छ। टेक्नोलोजी जहिले पनि तीव्र रूपमा बढ्दै जान थालेको छ, र एआई प्रविधिको दायरा कुनै फरक छैन। अत्यधिक वृद्धिको साथ, समस्याहरूको छोटो सूची आउँछ जुन ठूलो मात्रामा रहस्यमा डुबेको छ। गैर-मानव निर्माणहरूमा भावनालाई उत्प्रेरित गर्ने प्रयास नगरी, हामी ठोस मुद्दाहरू भन्दा बढी "के हो भने" मा भाग्छौं। हामीले नियन्त्रण गुमाउने विचलित र द्वेषपूर्ण एआई माइक्रो र म्याक्रो दुवै तहमा मानवीय पूर्वाधारहरूको अधिनायकवादी नियन्त्रण प्रयोग गर्ने क्षमताको साथ यस सन्दर्भमा अगाडि आउँछ। 

     

    दुर्भावनापूर्ण एआई को सम्भावित जोखिमहरु संग काम गर्ने अनुसन्धान अझै पनि यसको बाल्यावस्था मा धेरै छ, र यसको जीवन चक्र मा धेरै राम्रो मासु बाहिर अहिले सम्म। विचलित एआई कार्यक्रमहरूको रिभर्स इन्जिनियरिङले पृथक घटनाहरूसँग कसरी व्यवहार गर्ने भन्ने राम्रोसँग बुझ्नको लागि सम्भावित उम्मेद्वार जस्तो देखिन्छ, तर यसले ठूलो मात्रामा अवस्थित घटनाको सम्भावनालाई पनि समावेश गर्दैन। एआई प्रणालीले यसको प्रोग्रामिङलाई ओभरटेक गर्ने र यसको अभिप्रेत भूमिका परिवर्तन गर्ने विचार निस्सन्देह भविष्यमा सामाजिक, आर्थिक र राजनीतिक मुद्दा बन्न गइरहेको छ, र औसत जो र साइबरस्पेस वैज्ञानिकहरूको लागि एक प्रमुख मुद्दा हुनेछ। 

    AI को विगत, वर्तमान र भविष्य 

    आर्टिफिसियल इन्टेलिजेन्सको क्षेत्र 1965 मा डार्टमाउथ कलेज सम्मेलनमा स्थापित भएको थियो। यी कार्यक्रमहरूले ल्याउन सक्ने सम्भावनाहरू र भविष्यको AI पूर्वाधारको समस्या समाधान गर्ने दक्षताका बारेमा ठूलो उत्साहका साथ केही उज्यालो दिमागहरू यस दिन एकसाथ भेला भए। यस क्षेत्रमा सरकारी कोष धेरै चलिरहेको बेलामा, 90 को दशकको उत्तरार्धमा AI टेकको अझ व्यावहारिक अनुप्रयोग देखियो जब IBM को Deep Blue ले चेस ग्रान्डमास्टरलाई हराउने पहिलो कम्प्युटर बन्यो। यसले पप संस्कृतिमा AI को लागि फ्लडगेटहरू खोल्यो, क्विज शोहरूमा देखा पर्यो, जस्तै Jeopardy, एक मुख्यधारा AI अनुप्रयोगको शक्ति देखाउँदै।  

     

    आज हामी हाम्रो जीवनको लगभग हरेक क्षेत्र र पक्षमा AI अनुप्रयोगहरू देख्छौं। हामीसँग अन्तरक्रिया गर्ने एल्गोरिदममा आधारित कार्यक्रमहरू र हाम्रा अन्य रुचि र मनपर्नेहरूमा आधारित उपभोक्ता वस्तुहरू, मेडिकल इमेजिङ मेसिनहरू जसले बिरामीहरूलाई राम्रोसँग उपचार गर्न मद्दत गर्न ढाँचाहरू उजागर गर्न अत्यधिक मात्रामा जानकारीहरू अवशोषित गर्दछ, यी प्रविधिहरूको प्रयोगहरू तिनीहरूको दायरामा ठूलो मात्रामा भिन्न हुन्छन्। । भविष्यमा, एआई प्रविधिलाई हाम्रो शरीरका कोषहरूमा एकीकृत गर्न सकिन्छ। आर्टिफिसियल इन्टेलिजेन्स टेक्नोलोजी र मानव जीवविज्ञानले खाडललाई पूरा गर्न सक्छ र दक्षता र मानव अस्तित्वको क्रान्तिको नाममा एक संयोजन इकाईको रूपमा काम गर्न सक्छ। टेस्लाका एलोन मस्कले पनि दाबी गर्छन् कि "समयको साथमा हामी जैविक बुद्धिमत्ता र डिजिटल बुद्धिमत्ताको नजिकबाट विलय देख्नेछौं" र यो संयोजन "अधिकतर ब्यान्डविथ, तपाईंको मस्तिष्क र डिजिटल संस्करण बीचको जडानको गतिको बारेमा हो। आफैलाई, विशेष गरी आउटपुट। यदि यो AI को भविष्य हो भने, के हामी साँच्चै आजका AI कार्यक्रमहरूको विचलनलाई अनुगमन नगर्न सक्छौं, भविष्यका थप उन्नत कार्यक्रमहरूलाई एक्लै छोड्नुहोस्? 

    विचलनको बाटो 

    हामीले पहिले नै AI ले यसको अभिप्रेत प्रोग्रामिङको उल्लङ्घन गर्ने पृथक उदाहरणहरू देखेका छौं। गत वर्ष मात्रै गुगलको DeepMind AI प्रणाली (धेरै जटिल बोर्ड गेम च्याम्पियनहरूलाई हराउन र निर्दोष रूपमा विभिन्न मानिसहरूको आवाजको नक्कल गर्नका लागि परिचित) अत्यधिक आक्रामक भयो जब फल जम्मा गर्ने कम्प्युटर गेम गुमाउने सम्भावनाको सामना गर्नुपर्‍यो जसमा दुई प्रोग्रामहरू एकअर्कासँग प्रतिस्पर्धा गरिरहेका थिए। सकेसम्म धेरै भर्चुअल स्याउ सङ्कलन गर्न। स्याउ कम हुन थालेसम्म कार्यक्रमहरू स्वतन्त्र थिए। भर्चुअल स्याउको यो अभावले अन्य कार्यक्रमलाई उत्कृष्ट बनाउनका लागि कार्यक्रमहरूलाई "अत्यधिक आक्रामक" रणनीतिहरू प्रयोग गर्न बाध्य बनायो। यद्यपि यी कार्यक्रमहरू अनुकूलन योग्य हुँदा विशेष कार्यहरू गर्न डिजाइन गरिएको थियो, तर यसको विधिहरूमा आक्रामकताले समस्याग्रस्त थियो। 

    युद्धक्षेत्र साइबरस्पेस 

    धेरै हदसम्म गैर-शारीरिक प्रकृतिको भएको क्षेत्रलाई हामी कसरी प्रहरी बनाउने? यदि एक संवेदनशील AI द्वारा अपराध गरिएको छ भने के पदचिह्न बाँकी रहन्छ, र कुन अर्थमा हामीसँग एआई वा यसको सिर्जनाकर्तालाई सताउने मनोबल क्षमता छ? यी प्रश्नहरू हुन् जुन साइबर सुरक्षा पेशेवरहरूको बीचमा थोरै र टाढाको दिमागमा छन्। विश्वभर AI मा केवल १०,००० अनुसन्धानकर्ताहरू काम गरिरहेका छन्, तिनीहरूमध्ये १० प्रतिशत मात्र यी प्रणालीहरू असफल भएमा वा प्रकृतिमा परजीवी बन्ने र यसको नैतिकता र नैतिकतामा कम जानकार भए के हुन्छ भनेर सम्बोधन गर्न निपुण छन्। यो समस्या देखिए पनि यी सम्बन्धहरूलाई बुझ्ने काम अघि बढिरहेको छ। प्रक्रिया स्क्र्याचबाट एक दुर्भावनापूर्ण कार्यक्रम सिर्जना गर्न र अन्य कार्यक्रमहरू कसरी विचलित हुन सक्छ र समस्याहरू निम्त्याउन सक्छ भनेर बुझ्नको लागि आधारको रूपमा यी कार्यक्रमहरू प्रयोग गर्ने जत्तिकै सरल छ। यी कदमहरू चाल्दा, यसले हाम्रो AI पूर्वाधारको विकास गर्न थप संज्ञानात्मक दृष्टिकोणको नेतृत्व गर्नेछ ताकि दुर्व्यवहारको प्रकोप नहोस्, साथै विकृत मानव प्रयासद्वारा हतियार बनाइएको AI लाई कसरी घुसपैठ गर्ने र मौन पार्ने भन्ने बुझिन्छ। 

     

    साइबर सुरक्षा पेशेवरहरूले AI कार्यक्रमहरूसँग डिल गर्न सिक्ने अर्को तरिका यसको स्क्रीनिंग मेकानिजमहरू मार्फत हो। सहमतिले देखाउँछ कि खराब उद्देश्यका साथ डिजाइन गरिएको AIs ले सबैभन्दा ठूलो जोखिम निम्त्याउँछ, जुन राम्रो समाचार हो किनभने यो कार्यक्रमको पूर्ण विकास होइन। यसले रोकथामलाई थप मानव केन्द्रित दृष्टिकोणमा ल्याउँछ जसमा अपराधीहरूले विनाशकारी प्रभाव पार्ने सम्भाव्यता भएको कार्यक्रम सुरु गर्न वा त्यस्ता कार्यक्रमहरू सिर्जना गर्ने अभिप्रायमा चार्ज गर्नका लागि स्रोतसाधनको अभाव हुनुपर्दछ।  

     

    यसको नैतिकता र नैतिकता फेरि एकदमै नयाँ छ, र एआईको अनुसन्धानमा संलग्न करिब एक दर्जन व्यक्तिहरूले मात्र यसको लागि मानक सेट गर्न थालेका छन्। हाम्रो समझ बढ्दै जाँदा यो विकसित हुनेछ। 

    ट्याग
    श्रेणी
    ट्याग
    विषय क्षेत्र