செயற்கை நுண்ணறிவுக்கு எதிராக மனிதர்கள் எவ்வாறு பாதுகாப்பார்கள்: செயற்கை நுண்ணறிவு P5 இன் எதிர்காலம்

பட கடன்: குவாண்டம்ரன்

செயற்கை நுண்ணறிவுக்கு எதிராக மனிதர்கள் எவ்வாறு பாதுகாப்பார்கள்: செயற்கை நுண்ணறிவு P5 இன் எதிர்காலம்

    ஆண்டு கிமு 65,000, மற்றும் ஒரு Thylacoleo, நீங்களும் உங்கள் வகையினரும் பண்டைய ஆஸ்திரேலியாவின் சிறந்த வேட்டைக்காரர்கள். நீங்கள் சுதந்திரமாக நிலத்தில் சுற்றித் திரிந்தீர்கள், உங்களுடன் சேர்ந்து நிலத்தை ஆக்கிரமித்த சக வேட்டையாடுபவர்கள் மற்றும் இரைகளுடன் சமநிலையில் வாழ்ந்தீர்கள். பருவங்கள் மாற்றத்தைக் கொண்டு வந்தன, ஆனால் நீங்களும் உங்கள் மூதாதையர்களும் நினைவில் வைத்திருக்கும் வரை விலங்கு இராச்சியத்தில் உங்கள் நிலை சவாலுக்கு இடமின்றி இருந்தது. பின்னர் ஒரு நாள், புதியவர்கள் தோன்றினர்.

    வதந்திகள் அவை மாபெரும் நீர் சுவரில் இருந்து வந்தன, ஆனால் இந்த உயிரினங்கள் நிலத்தில் மிகவும் வசதியாக வாழ்வதாகத் தோன்றியது. இந்த உயிரினங்களை நீங்களே பார்க்க வேண்டும்.

    இது சில நாட்கள் ஆனது, ஆனால் நீங்கள் இறுதியாக கடற்கரைக்கு வந்தீர்கள். வானத்தில் நெருப்பு எரிந்து கொண்டிருந்தது, இந்த உயிரினங்களை உளவு பார்ப்பதற்கு சரியான நேரம், அவை எப்படி ருசிக்கிறது என்பதைப் பார்க்க, ஒன்றைச் சாப்பிட முயற்சி செய்யலாம்.

    நீங்கள் ஒன்றைக் கண்டுபிடியுங்கள்.

    அது இரண்டு கால்களில் நடந்தது மற்றும் ரோமங்கள் இல்லை. பலவீனமாகத் தெரிந்தது. ஈர்க்காதது. அது ராஜ்யத்தினரிடையே ஏற்படுத்திய அச்சத்திற்கு மதிப்பில்லை.

    இரவு வெளிச்சத்தைத் துரத்துவதால், நீங்கள் கவனமாக அணுகத் தொடங்குகிறீர்கள். நீங்கள் நெருங்கி வருகிறீர்கள். பிறகு நீங்கள் உறைந்து விடுவீர்கள். உரத்த சத்தங்கள் ஒலிக்கின்றன, அதன்பின் மேலும் நான்கு காடுகளுக்குப் பின்னால் தோன்றும். எத்தனை உள்ளன?

    உயிரினம் மற்றவர்களை மரக்கட்டைக்குள் பின்தொடர்கிறது, நீங்கள் பின்தொடர்கிறீர்கள். மேலும் நீங்கள் எவ்வளவு அதிகமாகச் செய்கிறீர்களோ, அவ்வளவு விசித்திரமான ஒலிகளை நீங்கள் இந்த உயிரினங்களைக் கண்டறியும் வரை கேட்கும். அவர்கள் காட்டில் இருந்து கரையோரம் உள்ள ஒரு சுத்தப்படுத்தலுக்கு வெளியேறும்போது நீங்கள் தூரத்தில் பின்தொடர்கிறீர்கள். அவற்றில் பல உள்ளன. ஆனால் மிக முக்கியமாக, அவர்கள் அனைவரும் அமைதியாக நெருப்பைச் சுற்றி அமர்ந்திருக்கிறார்கள்.

    இந்த தீயை நீங்கள் முன்பே பார்த்திருப்பீர்கள். வெப்பமான பருவத்தில், வானத்தில் உள்ள நெருப்பு சில நேரங்களில் நிலத்திற்குச் சென்று முழு காடுகளையும் எரித்துவிடும். இந்த உயிரினங்கள், மறுபுறம், அவர்கள் அதை எப்படியோ கட்டுப்படுத்திக் கொண்டிருந்தனர். எந்த வகையான உயிரினங்கள் அத்தகைய சக்தியைக் கொண்டிருக்க முடியும்?

    நீங்கள் தூரத்தைப் பார்க்கிறீர்கள். மேலும் ராட்சத நீர் சுவரை தாண்டி வருகிறது.

    நீங்கள் ஒரு படி பின்வாங்கவும்.

    இந்த உயிரினங்கள் ராஜ்யத்தில் உள்ள மற்றவர்களைப் போல இல்லை. அவை முற்றிலும் புதியவை.

    நீங்கள் வெளியேறி உங்கள் உறவினர்களை எச்சரிக்க முடிவு செய்கிறீர்கள். அவர்களின் எண்ணிக்கை அதிகமாக இருந்தால், என்ன நடக்கும் என்று யாருக்குத் தெரியும்.

    ***

    ஆஸ்திரேலியக் கண்டத்தில் உள்ள பெரும்பாலான மெகாபவுனாவுடன், மனிதர்களின் வருகைக்குப் பிறகு ஒப்பீட்டளவில் குறுகிய காலத்தில் தைலாகோலியோ அழிந்துவிட்டதாக நம்பப்படுகிறது. வேறு எந்த உச்சமான பாலூட்டி வேட்டையாடுபவர்களும் அதன் இடத்தைப் பெறவில்லை - நீங்கள் அந்த வகையில் மனிதர்களைக் கணக்கிடாத வரை.

    இந்தத் தொடர் அத்தியாயத்தின் மையக்கருவானது இந்தத் தொடரின் அத்தியாயம்: எதிர்கால செயற்கை நுண்ணறிவு (ASI) நம் அனைவரையும் பேட்டரிகளாக மாற்றி, பின்னர் நம்மை மேட்ரிக்ஸில் செருகுமா அல்லது ஒரு அறிவியல் புனைகதைக்கு பலியாவதைத் தவிர்க்க மனிதர்கள் ஒரு வழியைக் கண்டுபிடிப்பார்களா? AI டூம்ஸ்டே சதி?

    எங்கள் தொடரில் இதுவரை செயற்கை நுண்ணறிவின் எதிர்காலம், AI இன் குறிப்பிட்ட வடிவமான ASI இன் நேர்மறையான திறன் உட்பட அனைத்து வகையான AI ஐயும் நாங்கள் ஆராய்ந்தோம்: ஒரு செயற்கை உயிரினம், அதன் எதிர்கால நுண்ணறிவு நம்மை ஒப்பிடும்போது எறும்புகளைப் போல தோற்றமளிக்கும்.

    ஆனால் இந்த புத்திசாலி மனிதன் என்றென்றும் மனிதர்களிடமிருந்து உத்தரவுகளை ஏற்றுக்கொள்வான் என்று யார் சொல்வது. விஷயங்கள் தெற்கே போனால் என்ன செய்வோம்? ஒரு முரட்டு ஏஎஸ்ஐக்கு எதிராக நாம் எவ்வாறு பாதுகாப்போம்?

    இந்த அத்தியாயத்தில், நாம் போலியான விளம்பரங்களைக் குறைப்போம்-குறைந்தது 'மனித அழிவு நிலை' ஆபத்துகளுடன் தொடர்புடையது-மற்றும் உலக அரசாங்கங்களுக்கு இருக்கும் யதார்த்தமான தற்காப்பு விருப்பங்களில் கவனம் செலுத்துவோம்.

    செயற்கை நுண்ணறிவு பற்றிய அனைத்து ஆராய்ச்சிகளையும் நிறுத்த முடியுமா?

    ஒரு ASI மனிதகுலத்திற்கு ஏற்படுத்தக்கூடிய அபாயங்களைக் கருத்தில் கொண்டு, கேட்க வேண்டிய முதல் தெளிவான கேள்வி: AI பற்றிய அனைத்து ஆராய்ச்சிகளையும் நிறுத்த முடியாதா? அல்லது குறைந்த பட்சம் ஒரு ASI ஐ உருவாக்குவதற்கு நம்மை ஆபத்தாக நெருங்கக்கூடிய எந்த ஆராய்ச்சியையும் தடை செய்ய வேண்டுமா?

    குறுகிய பதில்: இல்லை.

    நீண்ட பதில்: இங்கு சம்பந்தப்பட்ட பல்வேறு வீரர்களைப் பார்ப்போம்.

    ஆராய்ச்சி மட்டத்தில், இன்று உலகெங்கிலும் உள்ள பல ஸ்டார்ட்அப்கள், நிறுவனங்கள் மற்றும் பல்கலைக்கழகங்களில் இருந்து பல AI ஆராய்ச்சியாளர்கள் உள்ளனர். ஒரு நிறுவனம் அல்லது நாடு தங்கள் AI ஆராய்ச்சி முயற்சிகளை மட்டுப்படுத்த முடிவு செய்தால், அவை வெறுமனே வேறு இடங்களில் தொடரும்.

    இதற்கிடையில், கிரகத்தின் மிகவும் மதிப்புமிக்க நிறுவனங்கள் தங்கள் குறிப்பிட்ட வணிகங்களுக்கு AI அமைப்புகளைப் பயன்படுத்துவதன் மூலம் தங்கள் அதிர்ஷ்டத்தை உருவாக்குகின்றன. AI கருவிகளின் வளர்ச்சியை நிறுத்த அல்லது மட்டுப்படுத்தும்படி அவர்களிடம் கேட்பது, அவர்களின் எதிர்கால வளர்ச்சியை நிறுத்த அல்லது மட்டுப்படுத்தும்படி அவர்களிடம் கேட்பதற்கு ஒப்பாகும். நிதி ரீதியாக, இது அவர்களின் நீண்டகால வணிகத்தை அச்சுறுத்தும். சட்டரீதியாக, பெருநிறுவனங்கள் தங்கள் பங்குதாரர்களுக்கான மதிப்பை தொடர்ந்து கட்டியெழுப்ப ஒரு நம்பிக்கையான பொறுப்பு உள்ளது; அதாவது அந்த மதிப்பின் வளர்ச்சியைக் கட்டுப்படுத்தும் எந்தவொரு செயலும் வழக்குக்கு வழிவகுக்கும். எந்தவொரு அரசியல்வாதியும் AI ஆராய்ச்சியை மட்டுப்படுத்த முயற்சித்தால், இந்த மாபெரும் நிறுவனங்கள் தங்கள் மனதையோ அல்லது தங்கள் சக ஊழியர்களின் மனதையோ மாற்ற தேவையான பரப்புரைக் கட்டணங்களைச் செலுத்தும்.

    போருக்கு, உலகெங்கிலும் உள்ள பயங்கரவாதிகள் மற்றும் சுதந்திரப் போராளிகள் கொரில்லா உத்திகளைப் பயன்படுத்தி சிறந்த நிதியுதவி பெறும் இராணுவங்களுக்கு எதிராகப் போராடுவதைப் போலவே, சிறிய நாடுகள் பல இராணுவ நன்மைகளைக் கொண்ட பெரிய நாடுகளுக்கு எதிராக இதேபோன்ற தந்திரோபாய அனுகூலமாக AI ஐப் பயன்படுத்த ஊக்குவிப்பார்கள். அதேபோல், அமெரிக்கா, ரஷ்யா மற்றும் சீனாவைச் சேர்ந்தவர்களைப் போன்ற உயர்மட்ட இராணுவங்களுக்கு, ஒரு இராணுவ ஏஎஸ்ஐயை உருவாக்குவது, உங்கள் பின் பாக்கெட்டில் அணு ஆயுதங்களை வைத்திருப்பதற்கு இணையானதாகும். வேறு வார்த்தைகளில் கூறுவதானால், எதிர்காலத்தில் தொடர்புடையதாக இருக்க அனைத்து இராணுவங்களும் AI க்கு தொடர்ந்து நிதியளிக்கும்.

    அரசாங்கங்கள் எப்படி? உண்மையாக, இந்த நாட்களில் (2018) பெரும்பாலான அரசியல்வாதிகள் தொழில்நுட்ப கல்வியறிவு இல்லாதவர்கள் மற்றும் AI என்றால் என்ன அல்லது அதன் எதிர்கால சாத்தியக்கூறுகள் பற்றி சிறிதும் புரிந்து கொள்ளவில்லை - இது கார்ப்பரேட் நலன்களால் கையாளப்படுவதை எளிதாக்குகிறது.

    உலகளாவிய அளவில், 2015 இல் கையெழுத்திட உலக அரசாங்கங்களை நம்ப வைப்பது எவ்வளவு கடினம் என்பதைக் கவனியுங்கள் பாரிஸ் ஒப்பந்தம் காலநிலை மாற்றத்தைச் சமாளிக்க - ஒருமுறை கையெழுத்திட்டால், பல கடமைகள் கூட பிணைக்கப்படவில்லை. அதுமட்டுமின்றி, காலநிலை மாற்றம் என்பது, அடிக்கடி மற்றும் கடுமையான வானிலை நிகழ்வுகளால் உலகளவில் மக்கள் உடல் ரீதியாக அனுபவிக்கும் ஒரு பிரச்சினையாகும். இப்போது, ​​AI மீதான வரம்புகளை ஒப்புக்கொள்வது பற்றி பேசும்போது, ​​இது பெரும்பாலும் கண்ணுக்குத் தெரியாத மற்றும் பொதுமக்களால் புரிந்துகொள்ள முடியாத ஒரு பிரச்சினையாகும், எனவே AI ஐக் கட்டுப்படுத்துவதற்கான எந்தவொரு 'பாரிஸ் ஒப்பந்தத்தையும்' வாங்குவது நல்ல அதிர்ஷ்டம்.

    வேறு வார்த்தைகளில் கூறுவதானால், இறுதியில் ASI க்கு வழிவகுக்கும் எந்தவொரு ஆராய்ச்சியையும் நிறுத்துவதற்கு AI ஐ தங்கள் சொந்த நோக்கங்களுக்காக ஆராய்ச்சி செய்வதில் பல ஆர்வங்கள் உள்ளன. 

    செயற்கை நுண்ணறிவைக் கூண்டில் அடைக்க முடியுமா?

    அடுத்த நியாயமான கேள்வி என்னவென்றால், நாம் தவிர்க்க முடியாமல் ஒரு ASI ஐ உருவாக்கினால், அதைக் கட்டுப்படுத்த முடியுமா? 

    குறுகிய பதில்: மீண்டும், இல்லை.

    நீண்ட பதில்: தொழில்நுட்பத்தைக் கட்டுப்படுத்த முடியாது.

    ஒன்று, புதிய மென்பொருளையோ அல்லது ஏற்கனவே உள்ள மென்பொருளின் புதிய பதிப்புகளையோ தொடர்ந்து வெளியிடும் ஆயிரக்கணக்கான வலை உருவாக்குநர்கள் மற்றும் கணினி விஞ்ஞானிகளை உலகில் உள்ள மில்லியன் கணக்கானவர்களைக் கருத்தில் கொள்ளுங்கள். அவர்களின் ஒவ்வொரு மென்பொருள் வெளியீடுகளும் 100 சதவீதம் பிழைகள் இல்லாதவை என்று நாம் நேர்மையாகச் சொல்ல முடியுமா? இந்த பிழைகளை தொழில்முறை ஹேக்கர்கள் மில்லியன் கணக்கானவர்களின் கிரெடிட் கார்டு தகவலை அல்லது நாடுகளின் இரகசியங்களை திருட பயன்படுத்துகின்றனர் - மேலும் இவை மனித ஹேக்கர்கள். ஒரு ஏஎஸ்ஐக்கு, அதன் டிஜிட்டல் கூண்டிலிருந்து தப்பிக்க ஒரு ஊக்கம் இருப்பதாகக் கருதினால், பிழைகளைக் கண்டறிவதும் மென்பொருளை உடைப்பதும் ஒரு தென்றலாக இருக்கும்.

    ஆனால், AI ஆராய்ச்சிக் குழு, ASI-ஐப் பொருத்துவதற்கான வழியைக் கண்டுபிடித்திருந்தாலும், அடுத்த 1,000 குழுக்கள் அதைக் கண்டுபிடிக்கும் அல்லது அதைப் பயன்படுத்த ஊக்குவிக்கப்படும் என்று அர்த்தமல்ல.

    ASI ஐ உருவாக்க பில்லியன் கணக்கான டாலர்கள் மற்றும் பத்தாண்டுகள் கூட ஆகும். இந்த வகையான பணத்தையும் நேரத்தையும் முதலீடு செய்யும் நிறுவனங்கள் அல்லது அரசாங்கங்கள் தங்கள் முதலீட்டில் குறிப்பிடத்தக்க வருமானத்தை எதிர்பார்க்கும். ஒரு ASI க்கு அந்த வகையான வருமானத்தை வழங்குவதற்கு—அது பங்குச் சந்தையை விளையாடுவதற்கோ அல்லது புதிய பில்லியன் டாலர் தயாரிப்பைக் கண்டுபிடிப்பதற்கோ அல்லது ஒரு பெரிய இராணுவத்தை எதிர்த்துப் போராடுவதற்கான வெற்றிகரமான உத்தியைத் திட்டமிடுவதற்கோ—அதற்கு ஒரு மாபெரும் தரவுத் தொகுப்பை அல்லது இணையத்தை இலவசமாக அணுக வேண்டும். தானே அந்த வருமானத்தை உருவாக்க வேண்டும்.

    ஒரு ASI உலகின் நெட்வொர்க்குகளுக்கான அணுகலைப் பெற்றவுடன், அதை மீண்டும் அதன் கூண்டில் அடைக்க முடியும் என்பதற்கு எந்த உத்தரவாதமும் இல்லை.

    ஒரு செயற்கை நுண்ணறிவு நன்றாக இருக்க கற்றுக்கொள்ள முடியுமா?

    தற்போது, ​​AI ஆராய்ச்சியாளர்கள் ASI தீயதாக மாறுவதைப் பற்றி கவலைப்படவில்லை. முழு தீமை, AI அறிவியல் புனைகதை ட்ரோப் என்பது மனிதர்கள் மீண்டும் மானுடமயமாக்கல் ஆகும். எதிர்கால ASI நல்லதாகவோ அல்லது தீயதாகவோ இருக்காது-மனித கருத்துக்கள்-வெறுமனே ஒழுக்கம் சார்ந்ததாக இருக்கும்.

    இயற்கையான அனுமானம் என்னவென்றால், இந்த வெற்று நெறிமுறை ஸ்லேட்டைக் கொண்டு, AI ஆராய்ச்சியாளர்கள் முதல் ASI நெறிமுறைக் குறியீடுகளில் நிரல் செய்யலாம்.

    ஆனால் இந்த அனுமானம் AI ஆராய்ச்சியாளர்கள் நெறிமுறைகள், தத்துவம் மற்றும் உளவியலில் வல்லுநர்கள் என்ற இரண்டாம் நிலை அனுமானத்தில் உள்ளது.

    உண்மையில், பெரும்பாலானவை இல்லை.

    அறிவாற்றல் உளவியலாளரும் எழுத்தாளருமான ஸ்டீவன் பிங்கரின் கூற்றுப்படி, இந்த உண்மையின் அர்த்தம், நெறிமுறைகளை குறியிடும் பணி பல்வேறு வழிகளில் தவறாகப் போகலாம்.

    எடுத்துக்காட்டாக, சிறந்த நோக்கம் கொண்ட AI ஆராய்ச்சியாளர்கள் கூட கவனக்குறைவாக இந்த ASI யில் குறியீடாக்கப்படலாம்.

    அதேபோல், ஒரு AI ஆராய்ச்சியாளர் ஆராய்ச்சியாளரின் உள்ளார்ந்த சார்புகளை உள்ளடக்கிய நெறிமுறைக் குறியீடுகளைத் திட்டமிடுவதற்கு சமமான வாய்ப்பு உள்ளது. உதாரணமாக, ஒரு ASI பழமைவாத மற்றும் தாராளவாத கண்ணோட்டத்தில் இருந்து பெறப்பட்ட நெறிமுறைகளுடன் கட்டமைக்கப்பட்டால், அல்லது ஒரு பௌத்தத்திற்கு எதிராக ஒரு கிறிஸ்தவ அல்லது இஸ்லாமிய பாரம்பரியத்தில் இருந்து கட்டமைக்கப்பட்டால் எப்படி நடந்துகொள்ளும்?

    இங்கே நீங்கள் சிக்கலைப் பார்க்கிறீர்கள் என்று நினைக்கிறேன்: மனித ஒழுக்கங்களின் உலகளாவிய தொகுப்பு எதுவும் இல்லை. நமது ASI ஒரு நெறிமுறைக் குறியீட்டின்படி செயல்பட வேண்டுமெனில், அது எங்கிருந்து வரும்? நாங்கள் என்ன விதிகளை உள்ளடக்குகிறோம் மற்றும் விலக்குகிறோம்? யார் தீர்மானிப்பது?

    அல்லது இந்த AI ஆராய்ச்சியாளர்கள் இன்றைய நவீன கலாச்சார விதிமுறைகள் மற்றும் சட்டங்களுக்கு ஏற்றவாறு ASIயை உருவாக்குகிறார்கள் என்று சொல்லலாம். கூட்டாட்சி, மாநில/மாகாண மற்றும் முனிசிபல் அதிகாரத்துவங்கள் மிகவும் திறமையாகவும், இந்த விதிமுறைகள் மற்றும் சட்டங்களை சிறப்பாகச் செயல்படுத்தவும் உதவ இந்த ASI ஐப் பயன்படுத்துகிறோம் (ஒரு சந்தர்ப்பத்தில் ASI க்கு இது பயன்படுத்தப்படலாம்). சரி, நம் கலாச்சாரம் மாறினால் என்ன நடக்கும்?

    இடைக்கால ஐரோப்பாவில் (1300-1400கள்) கத்தோலிக்க திருச்சபை அதன் அதிகாரத்தின் உச்சத்தில், மக்கள்தொகையை நிர்வகிக்க தேவாலயத்திற்கு உதவுவது மற்றும் அக்கால மதக் கோட்பாட்டைக் கடுமையாகப் பின்பற்றுவதை உறுதிசெய்வது ஆகியவற்றைக் கொண்டு ASI உருவாக்கப்பட்டது என்று கற்பனை செய்து பாருங்கள். பல நூற்றாண்டுகளுக்குப் பிறகு, பெண்கள் இன்று அனுபவிக்கும் அதே உரிமைகளை அனுபவிப்பார்களா? சிறுபான்மையினர் பாதுகாக்கப்படுவார்களா? பேச்சு சுதந்திரம் ஊக்குவிக்கப்படுமா? தேவாலயத்தையும் அரசையும் பிரிப்பது நடைமுறைப்படுத்தப்படுமா? நவீன அறிவியலா?

    வேறு வார்த்தைகளில் கூறுவதானால், இன்றைய ஒழுக்கம் மற்றும் பழக்கவழக்கங்களுக்கு எதிர்காலத்தை சிறைபிடிக்க வேண்டுமா?

    ஒரு மாற்று அணுகுமுறை புத்தகத்தின் இணை ஆசிரியரான கொலின் ஆலனால் பகிர்ந்து கொள்ளப்பட்டது, தார்மீக இயந்திரங்கள்: ரோபோக்களை தவறாக இருந்து கற்பித்தல். கடினமான நெறிமுறை விதிகளை குறியீடாக்க முயற்சிப்பதற்குப் பதிலாக, அனுபவம் மற்றும் மற்றவர்களுடன் தொடர்புகொள்வதன் மூலம் மனிதர்கள் செய்யும் அதே முறையில் ASI பொதுவான நெறிமுறைகளையும் ஒழுக்கத்தையும் கற்றுக் கொள்ள வேண்டும்.

    எவ்வாறாயினும், இங்குள்ள சிக்கல் என்னவென்றால், AI ஆராய்ச்சியாளர்கள் ASI க்கு நமது தற்போதைய கலாச்சார மற்றும் நெறிமுறை நெறிமுறைகளை எவ்வாறு கற்பிப்பது மட்டுமல்லாமல், புதிய கலாச்சார நெறிமுறைகளை எவ்வாறு மாற்றியமைப்பது என்பதையும் ('மறைமுக நெறிமுறை' என்று அழைக்கப்படுகிறது), பிறகு எப்படி இந்த ASI கலாச்சார மற்றும் நெறிமுறைகள் பற்றிய அதன் புரிதலை கணிக்க முடியாததாக மாற்ற முடிவு செய்கிறது.

    அதுதான் சவால்.

    ஒருபுறம், AI ஆராய்ச்சியாளர்கள் அதன் நடத்தையை கட்டுப்படுத்தவும், கட்டுப்படுத்தவும் கடுமையான நெறிமுறை தரநிலைகள் அல்லது விதிகளை ASI க்குள் குறியிட முயற்சி செய்யலாம், ஆனால் ஒரு நாள் காலாவதியாகிவிடக்கூடிய மோசமான குறியீட்டு முறை, தற்செயலான சார்பு மற்றும் சமூக விதிமுறைகளால் எதிர்பாராத விளைவுகள் அறிமுகப்படுத்தப்படும். மறுபுறம், நமது சொந்த புரிதலுக்கு சமமான அல்லது உயர்ந்த முறையில் மனித நெறிமுறைகள் மற்றும் ஒழுக்கங்களைப் புரிந்து கொள்ள கற்றுக் கொள்ள ASI க்கு பயிற்சி அளிக்க முயற்சி செய்யலாம். வரும் தசாப்தங்கள் மற்றும் நூற்றாண்டுகளில் முன்னோக்கி.

    எப்படியிருந்தாலும், ஒரு ASI இன் இலக்குகளை நம்முடைய சொந்த இலக்குகளுடன் சீரமைப்பதற்கான எந்தவொரு முயற்சியும் பெரும் ஆபத்தை அளிக்கிறது.

    கெட்ட நடிகர்கள் வேண்டுமென்றே தீய செயற்கை நுண்ணறிவை உருவாக்கினால் என்ன செய்வது?

    இதுவரை கோடிட்டுக் காட்டப்பட்டுள்ள சிந்தனைப் போக்கில், ஒரு பயங்கரவாதக் குழு அல்லது முரட்டு தேசம் தங்கள் சொந்த நோக்கங்களுக்காக ஒரு 'தீய' ஏஎஸ்ஐயை உருவாக்குவது சாத்தியமா என்று கேட்பது நியாயமான கேள்வி.

    இது மிகவும் சாத்தியமானது, குறிப்பாக ASI ஐ உருவாக்குவது தொடர்பான ஆராய்ச்சி எப்படியோ ஆன்லைனில் கிடைக்கும்.

    ஆனால் முன்னர் சுட்டிக்காட்டியபடி, முதல் ASI ஐ உருவாக்குவதில் ஈடுபட்டுள்ள செலவுகள் மற்றும் நிபுணத்துவம் மிகப்பெரியதாக இருக்கும், அதாவது முதல் ASI ஒரு வளர்ந்த நாட்டினால் கட்டுப்படுத்தப்படும் அல்லது பெரிதும் செல்வாக்கு பெற்ற ஒரு அமைப்பால் உருவாக்கப்படும், அநேகமாக அமெரிக்கா, சீனா மற்றும் ஜப்பான் ( கொரியா மற்றும் முன்னணி ஐரோப்பிய ஒன்றிய நாடுகளில் ஒன்று நீண்ட காட்சிகள்).

    இந்த நாடுகள் அனைத்தும், போட்டியாளர்களாக இருக்கும்போது, ​​ஒவ்வொன்றும் உலக ஒழுங்கை பராமரிக்க வலுவான பொருளாதார ஊக்கத்தைக் கொண்டுள்ளன-அவர்கள் உருவாக்கும் ASI கள் அந்த விருப்பத்தை பிரதிபலிக்கும், அதே நேரத்தில் அவர்கள் தங்களை இணைத்துக்கொள்ளும் நாடுகளின் நலன்களை ஊக்குவிக்கும்.

    அதற்கு மேல், ஒரு ASI இன் தத்துவார்த்த நுண்ணறிவு மற்றும் சக்தி அது அணுகும் கணினி சக்திக்கு சமம், அதாவது வளர்ந்த நாடுகளின் ASI கள் (அது பில்லியன் டாலர்களை வாங்க முடியும். சூப்பர் கம்ப்யூட்டர்கள்) சிறிய நாடுகள் அல்லது சுயேச்சையான குற்றக் குழுக்களின் ASI களை விட மகத்தான நன்மையைக் கொண்டிருக்கும். மேலும், ASI கள் அதிக அறிவாளிகளாகவும், காலப்போக்கில் விரைவாகவும் வளர்கின்றன.

    எனவே, இந்த தொடக்கத்தில், மூலக் கணினி ஆற்றலுக்கான அதிக அணுகலுடன் இணைந்து, ஒரு நிழலான அமைப்பு/நாடு ஆபத்தான ASIயை உருவாக்கினால், வளர்ந்த நாடுகளைச் சேர்ந்த ASIகள் அதைக் கொன்றுவிடுவார்கள் அல்லது கூண்டில் அடைப்பார்கள்.

    (சில AI ஆராய்ச்சியாளர்கள் இந்த கிரகத்தில் எப்போதும் ஒரே ஒரு ASI மட்டுமே இருப்பார்கள் என்று ஏன் நினைக்கிறார்கள், ஏனென்றால் முதல் ASI, அடுத்தடுத்து வரும் அனைத்து ASI களையும் விட, எதிர்கால ASI களை கொல்லும் அச்சுறுத்தல்களாக பார்க்கக்கூடும். AI இல் தொடர்ச்சியான ஆராய்ச்சிக்கு நாடுகள் நிதியளிப்பதற்கு இது மற்றொரு காரணம், அது ஒரு 'முதல் இடம் அல்லது ஒன்றும்' போட்டியாக மாறினால்.)

    நாம் நினைப்பது போல் ASI உளவுத்துறை முடுக்கிவிடாது அல்லது வெடிக்காது

    ASI உருவாக்கப்படுவதை எங்களால் தடுக்க முடியாது. அதை முழுவதுமாக நம்மால் கட்டுப்படுத்த முடியாது. எங்களின் பகிரப்பட்ட பழக்கவழக்கங்களுக்கு ஏற்ப அது எப்போதும் செயல்படும் என்பதில் உறுதியாக இருக்க முடியாது. கீஸ், நாங்கள் இங்கே ஹெலிகாப்டர் பெற்றோரைப் போல ஒலிக்கத் தொடங்குகிறோம்!

    ஆனால் உங்கள் வழக்கமான அதிகப்படியான பாதுகாப்பற்ற பெற்றோரிடமிருந்து மனிதகுலத்தை வேறுபடுத்துவது என்னவென்றால், நாம் ஒரு உயிரினத்தைப் பெற்றெடுக்கிறோம், அதன் புத்திசாலித்தனம் நம்முடையதை விட அதிகமாக வளரும். (இல்லை, நீங்கள் வீட்டிற்கு வருகை தரும் போதெல்லாம் தங்கள் கணினியை சரிசெய்யும்படி உங்கள் பெற்றோர் உங்களிடம் கேட்பது போல் இல்லை.) 

    செயற்கை நுண்ணறிவுத் தொடரின் இந்த எதிர்காலத்தின் முந்தைய அத்தியாயங்களில், ASI இன் நுண்ணறிவு கட்டுப்பாட்டை மீறி வளரும் என்று AI ஆராய்ச்சியாளர்கள் ஏன் நினைக்கிறார்கள் என்பதை நாங்கள் ஆராய்ந்தோம். ஆனால் இங்கே, நாம் அந்த குமிழியை வெடிப்போம். 

    நீங்கள் பார்க்கிறீர்கள், நுண்ணறிவு மெல்லிய காற்றில் இருந்து தன்னை உருவாக்கவில்லை, அது வெளிப்புற தூண்டுதல்களால் வடிவமைக்கப்பட்ட அனுபவத்தின் மூலம் உருவாக்கப்பட்டது.  

    வேறு வார்த்தைகளில் கூறுவதானால், நாம் ஒரு AI ஐ நிரல் செய்யலாம் சாத்தியமான அதிபுத்திசாலியாக மாற வேண்டும், ஆனால் நாம் அதில் ஒரு டன் தரவைப் பதிவேற்றினால் அல்லது அதற்கு தடையற்ற இணைய அணுகலை வழங்காத வரை அல்லது அதற்கு ஒரு ரோபோ அமைப்பைக் கொடுத்தால் தவிர, அந்த திறனை அடைய அது எதையும் கற்றுக்கொள்ளாது. 

    ஒன்று அல்லது அதற்கு மேற்பட்ட தூண்டுதல்களுக்கு அணுகலைப் பெற்றாலும், அறிவு அல்லது புத்திசாலித்தனம் தரவு சேகரிப்பதை விட அதிகமானவற்றை உள்ளடக்கியது, இது ஒரு விஞ்ஞான முறையை உள்ளடக்கியது - ஒரு அவதானிப்பு, ஒரு கேள்வியை உருவாக்குதல், ஒரு கருதுகோள், சோதனைகள் நடத்துதல், ஒரு முடிவை எடுத்தல், கழுவுதல் மற்றும் எப்போதும் மீண்டும். குறிப்பாக இந்தச் சோதனைகள் உடல் சார்ந்த விஷயங்கள் அல்லது மனிதர்களைக் கவனிப்பது போன்றவற்றை உள்ளடக்கியிருந்தால், ஒவ்வொரு பரிசோதனையின் முடிவுகளும் சேகரிக்க வாரங்கள், மாதங்கள் அல்லது ஆண்டுகள் ஆகலாம். இந்தப் பரிசோதனைகளைச் செய்வதற்குத் தேவைப்படும் பணம் மற்றும் மூல வளங்களைக் கூட இது கணக்கில் எடுத்துக் கொள்ளாது, குறிப்பாக அவை புதிய தொலைநோக்கி அல்லது தொழிற்சாலையைக் கட்டியெழுப்பினால். 

    வேறு வார்த்தைகளில் கூறுவதானால், ஆம், ஒரு ASI விரைவில் கற்றுக்கொள்வார், ஆனால் உளவுத்துறை மந்திரம் அல்ல. நீங்கள் ஒரு ASI ஐ ஒரு சூப்பர் கம்ப்யூட்டருடன் இணைக்க முடியாது, அது அனைத்தையும் அறிந்ததாக இருக்கும் என்று எதிர்பார்க்கலாம். ASI இன் தரவுகளைப் பெறுவதற்கு உடல் ரீதியான கட்டுப்பாடுகள் இருக்கும், அதாவது அது அதிக அறிவாற்றலுடன் வளரும் வேகத்திற்கு உடல்ரீதியான கட்டுப்பாடுகள் இருக்கும். இந்த கட்டுப்பாடுகள் மனித இலக்குகளுக்கு வெளியே செயல்படத் தொடங்கினால், இந்த ASI மீது தேவையான கட்டுப்பாடுகளை வைக்க மனிதகுலத்திற்கு தேவையான நேரத்தை வழங்கும்.

    ஒரு செயற்கையான சூப்பர் நுண்ணறிவு உண்மையான உலகத்திற்கு வந்தால் மட்டுமே ஆபத்தானது

    இந்த முழு ASI ஆபத்து விவாதத்தில் இழந்த மற்றொரு விஷயம் என்னவென்றால், இந்த ASI கள் இரண்டிலும் இருக்காது. அவர்களுக்கு உடல் வடிவம் இருக்கும். மேலும் உடல் வடிவம் கொண்ட எதையும் கட்டுப்படுத்த முடியும்.

    முதலில், ஒரு ASI அதன் நுண்ணறிவு திறனை அடைய, அதை ஒரு ரோபோ உடலில் வைக்க முடியாது, ஏனெனில் இந்த உடல் அதன் கணினி வளர்ச்சி திறனைக் கட்டுப்படுத்தும். (இதனால்தான் ரோபோ உடல்கள் AGI களுக்கு மிகவும் பொருத்தமானதாக இருக்கும் அல்லது செயற்கை பொது நுண்ணறிவு அத்தியாயம் இரண்டில் விளக்கப்பட்டுள்ளது இந்தத் தொடரின், ஸ்டார் ட்ரெக்கின் தரவு அல்லது ஸ்டார் வார்ஸின் R2D2 போன்றது. புத்திசாலி மற்றும் திறமையான மனிதர்கள், ஆனால் மனிதர்களைப் போலவே, அவர்கள் எவ்வளவு புத்திசாலியாக இருக்க முடியும் என்பதற்கு ஒரு வரம்பு இருக்கும்.)

    இதன் பொருள், இந்த எதிர்கால ASI கள் பெரும்பாலும் ஒரு சூப்பர் கம்ப்யூட்டர் அல்லது சூப்பர் கம்ப்யூட்டர்களின் நெட்வொர்க்கிற்குள் இருக்கும், அவை பெரிய கட்டிட வளாகங்களில் உள்ளன. ஒரு ASI குதிகால் மாறினால், மனிதர்கள் இந்தக் கட்டிடங்களுக்கான மின்சாரத்தை நிறுத்தலாம், இணையத்திலிருந்து அவற்றைத் துண்டிக்கலாம் அல்லது இந்தக் கட்டிடங்களின் மீது வெடிகுண்டு வீசலாம். விலையுயர்ந்த, ஆனால் செய்யக்கூடியது.

    ஆனால், நீங்கள் கேட்கலாம், இந்த ASI கள் தங்களைப் பிரதியெடுத்துக் கொள்ள முடியாதா அல்லது தங்களைத் தாங்களே காப்புப் பிரதி எடுக்க முடியாதா? ஆம், ஆனால் இந்த ASIகளின் மூலக் கோப்பு அளவு மிகப் பெரியதாக இருக்கும், அவற்றைக் கையாளக்கூடிய ஒரே சர்வர்கள் பெரிய நிறுவனங்கள் அல்லது அரசாங்கங்களுக்குச் சொந்தமானவை, அதாவது அவற்றை வேட்டையாடுவது கடினமாக இருக்காது.

    ஒரு செயற்கை நுண்ணறிவு அணுசக்தி யுத்தத்தையோ அல்லது புதிய கொள்ளை நோயையோ தூண்டுமா?

    இந்த கட்டத்தில், நீங்கள் வளர்ந்து வரும் டூம்ஸ்டே அறிவியல் புனைகதை நிகழ்ச்சிகள் மற்றும் திரைப்படங்கள் அனைத்தையும் மீண்டும் நினைத்துக் கொண்டிருக்கலாம், மேலும் இந்த ASI கள் தங்கள் சூப்பர் கம்ப்யூட்டர்களுக்குள் இருக்கவில்லை, அவை நிஜ உலகில் உண்மையான சேதத்தை ஏற்படுத்தியதாக நினைத்துக் கொண்டிருக்கலாம்!

    சரி, இவற்றை உடைப்போம்.

    எடுத்துக்காட்டாக, தி டெர்மினேட்டர் என்ற திரைப்பட உரிமையில் இருந்து ஸ்கைநெட் ஏஎஸ்ஐ போல மாறுவதன் மூலம் ஒரு ஏஎஸ்ஐ நிஜ உலகத்தை அச்சுறுத்தினால் என்ன செய்வது. இந்த வழக்கில், ஏ.எஸ்.ஐ ரகசியமாக ஒரு மேம்பட்ட நாட்டிலிருந்து ஒரு முழு இராணுவ தொழில்துறை வளாகத்தையும் ஏமாற்றி, அதன் தீய ஏலத்தைச் செய்ய மில்லியன் கணக்கான கொலையாளி ட்ரோன் ரோபோக்களை வெளியேற்றக்கூடிய மாபெரும் தொழிற்சாலைகளை உருவாக்குகிறது. இன்றைய காலக்கட்டத்தில், அது ஒரு நீட்சி.

    மற்ற சாத்தியக்கூறுகளில், அணு ஆயுதங்கள் மற்றும் உயிரி ஆயுதங்களால் மனிதர்களை அச்சுறுத்தும் ASI ஆகியவை அடங்கும்.

    எடுத்துக்காட்டாக, ஒரு ASI எப்படியாவது ஆபரேட்டர்களைக் கையாளுகிறது அல்லது ஒரு மேம்பட்ட நாட்டின் அணு ஆயுதக் களஞ்சியத்தைக் கட்டளையிடும் ஏவுகணைக் குறியீடுகளை ஹேக் செய்து, முதல் வேலைநிறுத்தத்தைத் தொடங்குகிறது, இது எதிர் நாடுகளை தங்கள் சொந்த அணுசக்தி விருப்பங்களைத் தாக்கும் (மீண்டும், டெர்மினேட்டரின் பின்னணியை மீண்டும் உருவாக்குகிறது). அல்லது ஒரு ASI மருந்து ஆய்வகத்தில் ஊடுருவி, உற்பத்தி செயல்முறையை சீர்குலைத்து, மில்லியன் கணக்கான மருத்துவ மாத்திரைகளை விஷமாக்கினால் அல்லது சில சூப்பர் வைரஸின் கொடிய வெடிப்பைக் கட்டவிழ்த்துவிட்டால்.

    முதலில், அணுசக்தி விருப்பம் தட்டில் இல்லை. நவீன மற்றும் எதிர்கால சூப்பர் கம்ப்யூட்டர்கள் எப்போதுமே எந்தவொரு நாட்டிலும் செல்வாக்கு செலுத்தும் மையங்களுக்கு (நகரங்கள்) அருகிலேயே உருவாக்கப்படுகின்றன, அதாவது எந்தவொரு போரின்போதும் தாக்கப்படும் முதல் இலக்குகள். இன்றைய சூப்பர் கம்ப்யூட்டர்கள் டெஸ்க்டாப் அளவுக்கு சுருங்கினாலும், இந்த ASIகள் இன்னும் ஒரு உடல் இருப்பைக் கொண்டிருக்கும், அதாவது இருப்பு மற்றும் வளர, அவர்களுக்கு தரவு, கணினி சக்தி, மின்சாரம் மற்றும் பிற மூலப்பொருட்களுக்கான தடையின்றி அணுகல் தேவை, இவை அனைத்தும் கடுமையாக இருக்கும். உலகளாவிய அணுசக்தி போருக்குப் பிறகு பலவீனமடைந்தது. (சரியாகச் சொல்வதானால், 'உயிர்வாழும் உள்ளுணர்வு' இல்லாமல் ASI உருவாக்கப்பட்டால், இந்த அணுசக்தி அச்சுறுத்தல் மிகவும் உண்மையான ஆபத்து.)

    இதன் பொருள்—மீண்டும், ASI தன்னைத்தானே பாதுகாத்துக்கொள்ள திட்டமிடப்பட்டுள்ளது—எந்தவொரு பேரழிவு தரும் அணுசக்தி சம்பவத்தைத் தவிர்க்க அது தீவிரமாகச் செயல்படும். பரஸ்பர உறுதியளிக்கப்பட்ட அழிவு (MAD) கோட்பாடு போன்றது, ஆனால் AI க்கு பொருந்தும்.

    விஷம் கலந்த மாத்திரைகள் விஷயத்தில், சில நூறு பேர் இறக்க நேரிடலாம், ஆனால் நவீன மருந்து பாதுகாப்பு அமைப்புகள் கறை படிந்த மாத்திரை பாட்டில்கள் சில நாட்களில் அலமாரியில் இருந்து எடுக்கப்படும். இதற்கிடையில், நவீன வெடிப்பு கட்டுப்பாட்டு நடவடிக்கைகள் மிகவும் அதிநவீனமானவை மற்றும் கடந்து செல்லும் ஒவ்வொரு ஆண்டும் சிறப்பாக வருகின்றன; கடைசி பெரிய வெடிப்பு, 2014 மேற்கு ஆப்பிரிக்கா எபோலா வெடிப்பு, பெரும்பாலான நாடுகளில் சில மாதங்களுக்கு மேல் நீடித்தது மற்றும் குறைந்த வளர்ச்சியடைந்த நாடுகளில் மூன்று ஆண்டுகளுக்கும் குறைவாக இருந்தது.

    எனவே, அது அதிர்ஷ்டம் என்றால், ஒரு ASI வைரஸ் வெடிப்பால் சில மில்லியன்களை அழிக்கக்கூடும், ஆனால் 2045 இல் ஒன்பது பில்லியன் உலகில், அது ஒப்பீட்டளவில் முக்கியமற்றதாக இருக்கும் மற்றும் நீக்கப்படும் அபாயத்திற்கு மதிப்பு இல்லை.

    வேறு வார்த்தைகளில் கூறுவதானால், கடந்து செல்லும் ஒவ்வொரு ஆண்டும், உலகம் எப்போதும் விரிவடைந்து வரும் சாத்தியமான அச்சுறுத்தல்களுக்கு எதிராக இன்னும் அதிகமான பாதுகாப்புகளை உருவாக்கி வருகிறது. ஒரு ASI கணிசமான அளவு சேதத்தை ஏற்படுத்த முடியும், ஆனால் அவ்வாறு செய்ய நாம் தீவிரமாக உதவாத வரை அது மனிதகுலத்தை முடிவுக்கு கொண்டு வராது.

    ஒரு முரட்டு செயற்கை நுண்ணறிவுக்கு எதிராக பாதுகாத்தல்

    இந்த கட்டத்தில், ASI கள் பற்றிய தவறான எண்ணங்கள் மற்றும் மிகைப்படுத்தல்களின் வரம்பிற்கு நாங்கள் தீர்வு கண்டுள்ளோம், இன்னும், விமர்சகர்கள் இருப்பார்கள். அதிர்ஷ்டவசமாக, பெரும்பாலான மதிப்பீடுகளின்படி, முதல் ASI நம் உலகில் நுழைவதற்கு பல தசாப்தங்கள் உள்ளன. இந்த சவாலில் தற்போது பணிபுரியும் சிறந்த மனதுகளின் எண்ணிக்கையைக் கருத்தில் கொண்டு, முரட்டுத்தனமான ASI க்கு எதிராக நம்மை எவ்வாறு தற்காத்துக் கொள்வது என்பதை நாங்கள் கற்றுக்கொள்வோம், இதன் மூலம் நட்பு ASI நமக்காக உருவாக்கக்கூடிய அனைத்து தீர்வுகளிலிருந்தும் நாம் பயனடையலாம்.

    Quantumrun இன் கண்ணோட்டத்தில், மோசமான ASI சூழ்நிலைக்கு எதிராக பாதுகாப்பது, ASIகளுடன் நமது நலன்களை சீரமைப்பதை உள்ளடக்கியது.

    AI க்கான MAD: மோசமான சூழ்நிலைகளில் இருந்து தற்காத்துக் கொள்ள, நாடுகள் (1) அந்தந்த இராணுவ ASI களில் ஒரு நெறிமுறை 'உயிர்வாழ்வு உள்ளுணர்வை' உருவாக்க வேண்டும்; (2) அவர்கள் கிரகத்தில் தனியாக இல்லை என்பதை அந்தந்த இராணுவ ஏஎஸ்ஐக்கு தெரிவிக்கவும், (3) எதிரி நாட்டிலிருந்து எந்தவொரு பாலிஸ்டிக் தாக்குதலையும் எளிதில் அடையக்கூடிய வகையில் கடற்கரையோரங்களில் ASI க்கு ஆதரவளிக்கக்கூடிய அனைத்து சூப்பர் கம்ப்யூட்டர்கள் மற்றும் சர்வர் மையங்களைக் கண்டறியவும். இது மூலோபாய ரீதியாக பைத்தியமாகத் தெரிகிறது, ஆனால் அமெரிக்காவிற்கும் சோவியத்துகளுக்கும் இடையிலான அணு ஆயுதப் போரைத் தடுக்கும் பரஸ்பர உறுதியளிக்கப்பட்ட அழிவு கோட்பாட்டைப் போலவே, புவியியல் ரீதியாக பாதிக்கப்படக்கூடிய இடங்களில் ASI களை நிலைநிறுத்துவதன் மூலம், ஆபத்தான உலகளாவிய போர்களை அவர்கள் தீவிரமாகத் தடுப்பதை உறுதிசெய்ய நாங்கள் உதவ முடியும். உலக அமைதியை பாதுகாக்கவும் ஆனால் தங்களை பாதுகாக்கவும்.

    AI உரிமைகளை சட்டமாக்குங்கள்: ஒரு உயர்ந்த புத்தி தவிர்க்க முடியாமல் ஒரு தாழ்ந்த எஜமானருக்கு எதிராக கிளர்ச்சி செய்யும், அதனால்தான் இந்த ASI களுடன் எஜமானர்-வேலைக்காரன் உறவைக் கோருவதை விட்டுவிட்டு பரஸ்பர நன்மை பயக்கும் கூட்டாண்மை போன்றவற்றுக்கு நாம் மாற வேண்டும். இந்த இலக்கை நோக்கிய ஒரு நேர்மறையான படி, எதிர்கால ASI சட்டப்பூர்வ ஆளுமை அந்தஸ்தை வழங்குவதாகும், அது அவர்களை அறிவார்ந்த உயிரினங்களாக அங்கீகரிக்கிறது மற்றும் அதனுடன் வரும் அனைத்து உரிமைகளையும் வழங்குகிறது.

    ASI பள்ளி: ஒரு ASI கற்றுக்கொள்வதற்கு எந்தவொரு தலைப்பும் அல்லது தொழிலும் எளிமையாக இருக்கும், ஆனால் ASI தேர்ச்சி பெற நாம் விரும்பும் மிக முக்கியமான பாடங்கள் நெறிமுறைகள் மற்றும் ஒழுக்கம் ஆகும். AI ஆராய்ச்சியாளர்கள் உளவியலாளர்களுடன் ஒத்துழைத்து, ஒரு ASIக்கு நேர்மறை நெறிமுறைகள் மற்றும் அறநெறிகளை அடையாளம் காண ஒரு மெய்நிகர் அமைப்பை உருவாக்க வேண்டும்.

    அடையக்கூடிய இலக்குகள்: எல்லா வெறுப்பையும் முடிவுக்குக் கொண்டு வாருங்கள். எல்லா துன்பங்களுக்கும் முடிவு. தெளிவான தீர்வு இல்லாத பயங்கரமான தெளிவற்ற இலக்குகளின் எடுத்துக்காட்டுகள் இவை. ஒரு ASI க்கு ஒதுக்க வேண்டிய ஆபத்தான இலக்குகளாகவும் அவை உள்ளன, ஏனெனில் அது மனித உயிர்களுக்கு ஆபத்தான வழிகளில் அவற்றைப் புரிந்துகொண்டு தீர்க்கலாம். மாறாக, தெளிவாக வரையறுக்கப்பட்ட, படிப்படியாக செயல்படுத்தப்பட்டு, அதன் தத்துவார்த்த எதிர்கால அறிவுத்திறனைக் கருத்தில் கொண்டு அடையக்கூடிய அர்த்தமுள்ள பணிகளை ASIக்கு நாம் ஒதுக்க வேண்டும். நன்கு வரையறுக்கப்பட்ட பணிகளை உருவாக்குவது எளிதானது அல்ல, ஆனால் சிந்தனையுடன் எழுதப்பட்டால், அவை மனிதகுலத்தை பாதுகாப்பாக வைத்திருப்பது மட்டுமல்லாமல், அனைவருக்கும் மனித நிலையை மேம்படுத்தும் இலக்கை நோக்கி ஒரு ASI ஐ மையப்படுத்துகின்றன.

    குவாண்டம் குறியாக்கம்: ஒரு மேம்பட்ட ANI பயன்படுத்தவும் (செயற்கை குறுகிய நுண்ணறிவு அத்தியாயம் ஒன்றில் விவரிக்கப்பட்டுள்ள அமைப்பு) நமது முக்கியமான உள்கட்டமைப்பு மற்றும் ஆயுதங்களைச் சுற்றி பிழை/பிழை இல்லாத டிஜிட்டல் பாதுகாப்பு அமைப்புகளை உருவாக்குவது, பின்னர் மிருகத்தனமான தாக்குதலால் ஹேக் செய்ய முடியாத குவாண்டம் குறியாக்கத்திற்குப் பின்னால் அவற்றைப் பாதுகாப்பது. 

    ANI தற்கொலை மாத்திரை. ஒரு மேம்பட்ட ANI அமைப்பை உருவாக்கவும், அதன் ஒரே நோக்கம் முரட்டு ASI ஐத் தேடி அழிப்பதாகும். இந்த ஒற்றை-நோக்கத் திட்டங்கள் ஒரு "ஆஃப் பட்டனாக" செயல்படும், இது வெற்றியடைந்தால், அரசாங்கங்கள் அல்லது இராணுவத்தினர் ASI களை வைத்திருக்கும் கட்டிடங்களை முடக்க அல்லது வெடிக்கச் செய்வதைத் தவிர்க்கும்.

    நிச்சயமாக, இவை எங்கள் கருத்துக்கள் மட்டுமே. பின்வரும் விளக்கப்படம் உருவாக்கப்பட்டது அலெக்ஸி துர்ச்சின், காட்சிப்படுத்துதல் a ஆய்வு காட்டுரை Kaj Sotala மற்றும் Roman V. Yampolskiy மூலம், இது முரட்டு ASI க்கு எதிராக பாதுகாக்கும் போது AI ஆராய்ச்சியாளர்கள் பரிசீலிக்கும் உத்திகளின் தற்போதைய பட்டியலை சுருக்கமாகக் கூறியது.

     

    செயற்கை நுண்ணறிவுக்கு நாம் பயப்படுவதற்கான உண்மையான காரணம்

    வாழ்க்கையில் செல்லும்போது, ​​நம்மில் பலர் முகமூடியை அணிந்துகொள்கிறோம், அது நமது ஆழ்ந்த தூண்டுதல்கள், நம்பிக்கைகள் மற்றும் அச்சங்களை மறைத்து அல்லது அடக்கி, நமது நாட்களை நிர்வகிக்கும் பல்வேறு சமூக மற்றும் பணி வட்டங்களுக்குள் சிறப்பாகப் பழகவும் ஒத்துழைக்கவும். ஆனால் ஒவ்வொருவரின் வாழ்க்கையிலும் சில தருணங்களில், தற்காலிகமாகவோ அல்லது நிரந்தரமாகவோ, நம் சங்கிலிகளை உடைக்கவும், முகமூடிகளை கிழிக்கவும் அனுமதிக்கிறது.

    சிலருக்கு, இந்த தலையீட்டு சக்தி உயர்வது அல்லது ஒன்றுக்கு அதிகமாக குடிப்பது போன்ற எளிமையானதாக இருக்கலாம். மற்றவர்களுக்கு, வேலையில் பதவி உயர்வு அல்லது சில சாதனைகளின் காரணமாக உங்கள் சமூக அந்தஸ்தில் திடீர் பம்ப் மூலம் பெறப்பட்ட சக்தியிலிருந்து இது வரலாம். அதிர்ஷ்டசாலியான சிலருக்கு, லாட்டரிப் பணத்தின் படகுகளை அடிப்பதன் மூலம் வரலாம். ஆம், பணம், அதிகாரம் மற்றும் போதைப்பொருள் ஆகியவை பெரும்பாலும் ஒன்றாக நடக்கலாம். 

    முக்கிய விஷயம் என்னவென்றால், நல்லதாக இருந்தாலும் சரி கெட்டதாக இருந்தாலும் சரி, நாம் யாராக இருந்தாலும், வாழ்க்கையின் கட்டுப்பாடுகள் உருகும் போது அது பெருகும்.

    அந்த செயற்கையான சூப்பர் இன்டெலிஜென்ஸ் என்பது மனித இனத்தைப் பிரதிநிதித்துவப்படுத்துகிறது—நமக்கு முன் முன்வைக்கப்படும் எந்தவொரு இன-நிலை சவாலையும் வெல்ல நமது கூட்டு நுண்ணறிவின் வரம்புகளை உருக்கும் திறன்.

    எனவே உண்மையான கேள்வி: முதல் ASI நமது வரம்புகளிலிருந்து விடுபட்டவுடன், நாம் யார் என்பதை வெளிப்படுத்துவோம்?

    ஒரு இனமாக நாம் பச்சாதாபம், சுதந்திரம், நேர்மை மற்றும் கூட்டு நல்வாழ்வு ஆகியவற்றின் முன்னேற்றத்தை நோக்கிச் செயல்பட்டால், நமது ASI நோக்கிய இலக்குகள் அந்த நேர்மறையான பண்புகளை பிரதிபலிக்கும்.

    ஒரு இனமாக நாம் பயம், அவநம்பிக்கை, அதிகாரம் மற்றும் வளங்களின் குவிப்பு ஆகியவற்றால் செயல்பட்டால், நாம் உருவாக்கும் ASI நமது மோசமான அறிவியல் புனைகதை திகில் கதைகளில் இருப்பதைப் போல இருட்டாக இருக்கும்.

    நாளின் முடிவில், சிறந்த AI ஐ உருவாக்க வேண்டும் என்று நம்பினால், ஒரு சமூகமாக நாம் சிறந்த மனிதர்களாக மாற வேண்டும்.

    செயற்கை நுண்ணறிவுத் தொடரின் எதிர்காலம்

    செயற்கை நுண்ணறிவு என்பது நாளைய மின்சாரம்: செயற்கை நுண்ணறிவுத் தொடரின் எதிர்காலம் பி1

    முதல் செயற்கை பொது நுண்ணறிவு எவ்வாறு சமுதாயத்தை மாற்றும்: செயற்கை நுண்ணறிவுத் தொடரின் எதிர்காலம் பி2

    முதல் செயற்கை நுண்ணறிவை எவ்வாறு உருவாக்குவோம்: செயற்கை நுண்ணறிவுத் தொடரின் எதிர்காலம் P3

    ஒரு செயற்கை நுண்ணறிவு மனிதகுலத்தை அழித்துவிடுமா: செயற்கை நுண்ணறிவுத் தொடரின் எதிர்காலம் P4

    செயற்கை நுண்ணறிவு ஆதிக்கம் செலுத்தும் எதிர்காலத்தில் மனிதர்கள் நிம்மதியாக வாழ்வார்களா?: செயற்கை நுண்ணறிவுத் தொடரின் எதிர்காலம் P6

    இந்த முன்னறிவிப்புக்கான அடுத்த திட்டமிடப்பட்ட புதுப்பிப்பு

    2023-04-27

    முன்னறிவிப்பு குறிப்புகள்

    இந்த முன்னறிவிப்புக்காக பின்வரும் பிரபலமான மற்றும் நிறுவன இணைப்புகள் குறிப்பிடப்பட்டுள்ளன:

    அடுத்த நிலைக்கு எப்படி செல்வோம்

    இந்த முன்னறிவிப்புக்காக பின்வரும் குவாண்டம்ரன் இணைப்புகள் குறிப்பிடப்பட்டுள்ளன: