કૃત્રિમ સુપરિન્ટેલિજન્સ સામે મનુષ્યો કેવી રીતે બચાવ કરશે: કૃત્રિમ બુદ્ધિનું ભવિષ્ય P5

ઇમેજ ક્રેડિટ: ક્વોન્ટમરુન

કૃત્રિમ સુપરિન્ટેલિજન્સ સામે મનુષ્યો કેવી રીતે બચાવ કરશે: કૃત્રિમ બુદ્ધિનું ભવિષ્ય P5

    વર્ષ 65,000 બીસીઇ છે, અને એ Thylacoleo, તમે અને તમારા પ્રકાર પ્રાચીન ઓસ્ટ્રેલિયાના મહાન શિકારીઓ હતા. તમે જમીન પર મુક્તપણે ફરતા હતા અને તમારી સાથેની જમીન પર કબજો કરતા સાથી શિકારીઓ અને શિકાર સાથે સંતુલનમાં રહેતા હતા. ઋતુઓ બદલાવ લાવી, પરંતુ જ્યાં સુધી તમે અને તમારા પૂર્વજો યાદ રાખી શકે ત્યાં સુધી પ્રાણીઓના સામ્રાજ્યમાં તમારી સ્થિતિ પડકારજનક રહી. પછી એક દિવસ, નવા આવનારાઓ દેખાયા.

    અફવા છે કે તેઓ વિશાળ પાણીની દિવાલથી આવ્યા હતા, પરંતુ આ જીવો જમીન પર રહેવા માટે વધુ આરામદાયક લાગતા હતા. તમારે તમારા માટે આ જીવો જોવા હતા.

    તે થોડા દિવસો લાગ્યા, પરંતુ તમે આખરે તેને કિનારે બનાવ્યા. આકાશમાં આગ લાગી રહી હતી, આ જીવોની જાસૂસી કરવાનો યોગ્ય સમય હતો, કદાચ તેઓ કેવી રીતે ચાખ્યા તે જોવા માટે ખાવાનો પ્રયાસ કરો.

    તમે એક સ્પોટ.

    તે બે પગ પર ચાલતો હતો અને તેની પાસે કોઈ રૂંવાટી નહોતી. તે નબળો દેખાતો હતો. પ્રભાવહીન. તે સામ્રાજ્ય વચ્ચે જે ડર પેદા કરી રહ્યો હતો તે ભાગ્યે જ મૂલ્યવાન હતો.

    જેમ જેમ રાત પ્રકાશને દૂર કરે છે તેમ તમે કાળજીપૂર્વક તમારો અભિગમ બનાવવાનું શરૂ કરો છો. તમે નજીક આવી રહ્યા છો. પછી તમે સ્થિર થાઓ. મોટા અવાજો સંભળાય છે અને પછી તેમાંથી ચાર વધુ તેની પાછળ જંગલની બહાર દેખાય છે. ત્યાં કેટલા છે?

    પ્રાણી અન્યને ટ્રીલાઇનમાં અનુસરે છે, અને તમે અનુસરો છો. અને તમે જેટલું વધુ કરો છો, ત્યાં સુધી તમે આમાંથી વધુ જીવો શોધી ન શકો ત્યાં સુધી તમે વધુ વિચિત્ર અવાજો સાંભળો છો. તમે અંતરે અનુસરો છો કારણ કે તેઓ કિનારા દ્વારા ક્લિયરિંગમાં જંગલમાંથી બહાર નીકળે છે. તેમાંના ઘણા છે. પરંતુ વધુ અગત્યનું, તેઓ બધા શાંતિથી આગની આસપાસ બેઠા છે.

    તમે આ આગ પહેલા જોઈ હશે. ગરમીની મોસમમાં, આકાશમાં અગ્નિ ક્યારેક જમીનની મુલાકાત લે છે અને સમગ્ર જંગલોને બાળી નાખે છે. આ જીવો, બીજી બાજુ, તેઓ કોઈક રીતે તેને નિયંત્રિત કરી રહ્યા હતા. કયા પ્રકારના જીવો આવી શક્તિ ધરાવી શકે છે?

    તમે અંતરમાં જુઓ. પાણીની વિશાળ દિવાલ પર વધુ આવી રહ્યા છે.

    તમે એક ડગલું પાછું લો.

    આ જીવો રાજ્યના અન્ય લોકો જેવા નથી. તેઓ કંઈક સંપૂર્ણપણે નવું છે.

    તમે છોડવાનું નક્કી કરો અને તમારા સગાને ચેતવણી આપો. જો તેમની સંખ્યા ખૂબ મોટી થાય, તો કોણ જાણે શું થશે.

    ***

    એવું માનવામાં આવે છે કે ઑસ્ટ્રેલિયન ખંડમાં મોટાભાગના અન્ય મેગાફૌના સાથે, માનવોના આગમન પછી પ્રમાણમાં ટૂંકા સમયમાં થાઇલાકોલિયો લુપ્ત થઈ ગઈ હતી. અન્ય કોઈ સર્વોચ્ચ સસ્તન પ્રાણી શિકારીએ તેનું સ્થાન લીધું નહોતું-એટલે કે જ્યાં સુધી તમે તે શ્રેણીમાં માણસોની ગણતરી ન કરો.

    આ રૂપકને વગાડવું એ આ શ્રેણીના પ્રકરણનું ધ્યાન છે: શું ભાવિ આર્ટિફિશિયલ સુપરઇન્ટેલિજન્સ (ASI) આપણને બધાને બેટરીમાં ફેરવશે અને પછી મેટ્રિક્સમાં પ્લગ કરશે અથવા માણસો સાય-ફાઇનો ભોગ બનવાથી બચવા માટે કોઈ રસ્તો શોધી કાઢશે, એઆઈ કયામતના દિવસનું કાવતરું?

    અત્યાર સુધી પર અમારી શ્રેણીમાં કૃત્રિમ બુદ્ધિનું ભવિષ્ય, અમે AI ના ચોક્કસ સ્વરૂપની સકારાત્મક સંભવિતતા સહિત તમામ પ્રકારના AIનું અન્વેષણ કર્યું છે, ASI: એક કૃત્રિમ અસ્તિત્વ જેની ભાવિ બુદ્ધિ આપણને સરખામણીમાં કીડીઓ જેવી બનાવશે.

    પરંતુ કોણ કહે છે કે આ સ્માર્ટ હોવાને કારણે માણસો પાસેથી ઓર્ડર લેવાનું કાયમ સ્વીકારશે. જો વસ્તુઓ દક્ષિણ તરફ જશે તો આપણે શું કરીશું? બદમાશ ASI સામે આપણે કેવી રીતે બચાવ કરીશું?

    આ પ્રકરણમાં, અમે બોગસ પ્રસિદ્ધિને દૂર કરીશું-ઓછામાં ઓછું કારણ કે તે 'માનવ લુપ્તતા સ્તર' જોખમો સાથે સંબંધિત છે-અને વિશ્વ સરકારો માટે ઉપલબ્ધ વાસ્તવિક સ્વ-બચાવ વિકલ્પો પર ધ્યાન કેન્દ્રિત કરીશું.

    શું આપણે આર્ટિફિશિયલ સુપર ઇન્ટેલિજન્સ અંગેના તમામ સંશોધનને રોકી શકીએ?

    ASI માનવતા માટે જે સંભવિત જોખમો પેદા કરી શકે છે તે જોતાં, પૂછવા માટેનો પ્રથમ સ્પષ્ટ પ્રશ્ન છે: શું આપણે AI માં આગળના તમામ સંશોધનને રોકી ન શકીએ? અથવા ઓછામાં ઓછું એએસઆઈ બનાવવા માટે ખતરનાક રીતે નજીક આવી શકે તેવા કોઈપણ સંશોધન પર પ્રતિબંધ મૂકવો?

    ટૂંકા જવાબ: ના.

    લાંબો જવાબ: ચાલો અહીં સામેલ વિવિધ ખેલાડીઓ જોઈએ.

    સંશોધન સ્તરે, આજે વિશ્વભરના ઘણા બધા સ્ટાર્ટઅપ્સ, કંપનીઓ અને યુનિવર્સિટીઓમાંથી ઘણા બધા AI સંશોધકો છે. જો એક કંપની અથવા દેશે તેમના AI સંશોધન પ્રયાસોને મર્યાદિત કરવાનું નક્કી કર્યું, તો તેઓ અન્યત્ર ચાલુ રાખશે.

    દરમિયાન, ગ્રહની સૌથી મૂલ્યવાન કંપનીઓ તેમના વિશિષ્ટ વ્યવસાયો માટે AI સિસ્ટમ્સની તેમની એપ્લિકેશનને છોડીને તેમનું નસીબ બનાવી રહી છે. તેમને AI ટૂલ્સના વિકાસને રોકવા અથવા મર્યાદિત કરવાનું કહેવું એ તેમની ભાવિ વૃદ્ધિને રોકવા અથવા મર્યાદિત કરવા માટે કહેવા સમાન છે. નાણાકીય રીતે, આ તેમના લાંબા ગાળાના વ્યવસાયને જોખમમાં મૂકશે. કાયદેસર રીતે, કોર્પોરેશનો પાસે તેમના હિતધારકો માટે સતત મૂલ્ય નિર્માણ કરવાની વિશ્વાસુ જવાબદારી છે; તેનો અર્થ એ છે કે કોઈપણ ક્રિયા જે તે મૂલ્યની વૃદ્ધિને મર્યાદિત કરશે તે મુકદ્દમા તરફ દોરી શકે છે. અને જો કોઈ રાજકારણીએ AI સંશોધનને મર્યાદિત કરવાનો પ્રયાસ કર્યો, તો આ વિશાળ કોર્પોરેશનો તેમના મન અથવા તેમના સાથીદારોના મનને બદલવા માટે જરૂરી લોબિંગ ફી ચૂકવશે.

    લડાઇ માટે, જેમ વિશ્વભરના આતંકવાદીઓ અને સ્વાતંત્ર્ય સેનાનીઓએ વધુ સારી રીતે ભંડોળ ધરાવતા સૈનિકો સામે લડવા માટે ગેરિલા વ્યૂહરચનાનો ઉપયોગ કર્યો છે, તેમ નાના રાષ્ટ્રોને AIનો ઉપયોગ મોટા રાષ્ટ્રો સામે સમાન વ્યૂહાત્મક લાભ તરીકે કરવા માટે પ્રોત્સાહન મળશે જેમાં સંખ્યાબંધ લશ્કરી ફાયદાઓ હોઈ શકે છે. તેવી જ રીતે, ટોચના સૈન્ય માટે, જેમ કે યુએસ, રશિયા અને ચીન સાથે જોડાયેલા, લશ્કરી ASI બનાવવું એ તમારા પાછળના ખિસ્સામાં પરમાણુ શસ્ત્રોના શસ્ત્રાગારની સમાન છે. બીજા શબ્દોમાં કહીએ તો, તમામ સૈનિકો ભવિષ્યમાં સુસંગત રહેવા માટે AI ને ભંડોળ આપવાનું ચાલુ રાખશે.

    સરકારો વિશે શું? સાચું કહું તો, મોટા ભાગના રાજકારણીઓ આજકાલ (2018) તકનીકી રીતે અભણ છે અને AI શું છે અથવા તેની ભાવિ સંભવિતતા વિશે ઓછી સમજણ ધરાવે છે - આ તેમને કોર્પોરેટ હિતો દ્વારા હેરફેર કરવાનું સરળ બનાવે છે.

    અને વૈશ્વિક સ્તરે, વિશ્વ સરકારોને 2015 પર હસ્તાક્ષર કરવા માટે સમજાવવું કેટલું મુશ્કેલ હતું તે ધ્યાનમાં લો પોરિસ કરાર આબોહવા પરિવર્તનનો સામનો કરવા - અને એકવાર હસ્તાક્ષર કર્યા પછી, ઘણી જવાબદારીઓ બંધનકર્તા પણ ન હતા. એટલું જ નહીં, આબોહવા પરિવર્તન એ એક સમસ્યા છે જે લોકો વૈશ્વિક સ્તરે વધુને વધુ વારંવાર અને ગંભીર હવામાન ઘટનાઓ દ્વારા શારીરિક રીતે અનુભવી રહ્યા છે. હવે, જ્યારે AI પર મર્યાદાઓ માટે સંમત થવાની વાત કરવામાં આવે છે, ત્યારે આ એક એવો મુદ્દો છે જે મોટાભાગે અદ્રશ્ય છે અને લોકો માટે ભાગ્યે જ સમજી શકાય તેવું છે, તેથી AIને મર્યાદિત કરવા માટે કોઈપણ પ્રકારના 'પેરિસ કરાર' માટે ખરીદી મેળવવા માટે શુભેચ્છા.

    બીજા શબ્દોમાં કહીએ તો, કોઈ પણ સંશોધનને રોકવા માટે તેમના પોતાના હેતુ માટે AI પર સંશોધન કરવામાં ઘણી બધી રુચિઓ છે જે આખરે ASI તરફ દોરી શકે છે. 

    શું આપણે કૃત્રિમ સુપર ઇન્ટેલિજન્સ પાંજરામાં મૂકી શકીએ?

    હવે પછીનો વાજબી પ્રશ્ન એ છે કે એક વખત આપણે અનિવાર્યપણે એએસઆઈ બનાવીએ તો શું આપણે એએસઆઈને પાંજરામાં કેદ કરી શકીએ કે તેને નિયંત્રિત કરીએ? 

    ટૂંકો જવાબ: ફરીથી, ના.

    લાંબો જવાબ: ટેકનોલોજી સમાવી શકાતી નથી.

    એક માટે, વિશ્વના હજારો થી લાખો વેબ ડેવલપર્સ અને કોમ્પ્યુટર વૈજ્ઞાનિકોને ધ્યાનમાં લો જેઓ સતત નવા સોફ્ટવેર અથવા હાલના સોફ્ટવેરના નવા વર્ઝનને મંથન કરે છે. શું આપણે પ્રામાણિકપણે કહી શકીએ કે તેમના દરેક સોફ્ટવેર રિલીઝ 100 ટકા બગ-ફ્રી છે? આ બગ્સ છે જેનો ઉપયોગ વ્યાવસાયિક હેકરો લાખો લોકોની ક્રેડિટ કાર્ડ માહિતી અથવા રાષ્ટ્રોના વર્ગીકૃત રહસ્યો ચોરી કરવા માટે કરે છે - અને આ માનવ હેકર્સ છે. ASI માટે, ધારી લઈએ કે તેને તેના ડિજિટલ પાંજરામાંથી છટકી જવા માટે પ્રોત્સાહન મળ્યું છે, તો પછી ભૂલો શોધવાની અને સોફ્ટવેર દ્વારા તોડવાની પ્રક્રિયા એક પવનની લહેર હશે.

    પરંતુ જો કોઈ AI સંશોધન ટીમે ASIને બોક્સ કરવાનો માર્ગ શોધી કાઢ્યો હોય, તો પણ તેનો અર્થ એ નથી કે આગામી 1,000 ટીમો પણ તેને શોધી કાઢશે અથવા તેનો ઉપયોગ કરવા માટે પ્રોત્સાહિત કરવામાં આવશે.

    ASI બનાવવામાં અબજો ડોલર અને કદાચ દાયકાઓ પણ લાગશે. કોર્પોરેશનો અથવા સરકારો જે આ પ્રકારના નાણાં અને સમયનું રોકાણ કરે છે તેઓ તેમના રોકાણ પર નોંધપાત્ર વળતરની અપેક્ષા રાખે છે. અને એએસઆઈને તે પ્રકારનું વળતર પૂરું પાડવા માટે - પછી ભલે તે શેરબજારમાં રમતનું હોય અથવા બિલિયન ડોલરના નવા ઉત્પાદનની શોધ હોય અથવા મોટી સેના સામે લડવા માટે વિજેતા વ્યૂહરચના બનાવવાની હોય - તેને વિશાળ ડેટા સેટ અથવા તો ઈન્ટરનેટની મફત ઍક્સેસની જરૂર પડશે. પોતે તે વળતર ઉત્પન્ન કરવા માટે.

    અને એકવાર ASI વિશ્વના નેટવર્કમાં પ્રવેશ મેળવે છે, ત્યાં કોઈ ગેરેંટી નથી કે અમે તેને તેના પાંજરામાં પાછું ભરી શકીએ.

    શું કૃત્રિમ સુપર ઇન્ટેલિજન્સ સારા બનવાનું શીખી શકે છે?

    અત્યારે, AI સંશોધકો એએસઆઈના દુષ્ટ બનવા વિશે ચિંતિત નથી. સમગ્ર દુષ્ટ, AI સાય-ફાઇ ટ્રોપ એ માત્ર માનવો ફરીથી માનવશાસ્ત્રનું નિર્માણ કરે છે. ભવિષ્યની ASI ન તો સારી કે ખરાબ હશે-માનવ ખ્યાલો-માત્ર અનૈતિક.

    ત્યારે સ્વાભાવિક ધારણા એ છે કે આ ખાલી નૈતિક સ્લેટને જોતાં, AI સંશોધકો પ્રથમ ASI નૈતિક કોડમાં પ્રોગ્રામ કરી શકે છે જે આપણા પોતાના સાથે સુસંગત છે જેથી તે આપણા પર ટર્મિનેટરને છૂટા ન કરે અથવા આપણા બધાને મેટ્રિક્સ બેટરીમાં ફેરવે નહીં.

    પરંતુ આ ધારણા એ ગૌણ ધારણામાં બેક કરે છે કે AI સંશોધકો નીતિશાસ્ત્ર, ફિલસૂફી અને મનોવિજ્ઞાનના નિષ્ણાતો પણ છે.

    હકીકતમાં, મોટાભાગના નથી.

    જ્ઞાનાત્મક મનોવૈજ્ઞાનિક અને લેખક, સ્ટીવન પિંકરના જણાવ્યા મુજબ, આ વાસ્તવિકતાનો અર્થ એ છે કે કોડિંગ નીતિશાસ્ત્રનું કાર્ય વિવિધ રીતે અલગ-અલગ રીતે ખોટું થઈ શકે છે.

    ઉદાહરણ તરીકે, શ્રેષ્ઠ હેતુવાળા AI સંશોધકો પણ અજાણતામાં આ ASI નૈતિક કોડમાં કોડ કરી શકે છે કે જે અમુક પરિસ્થિતિઓમાં એએસઆઈને સોશિયોપેથની જેમ કાર્ય કરવા માટેનું કારણ બની શકે છે.

    તેવી જ રીતે, એવી સમાન સંભાવના છે કે AI સંશોધક નૈતિક કોડ પ્રોગ્રામ કરે છે જેમાં સંશોધકના જન્મજાત પૂર્વગ્રહનો સમાવેશ થાય છે. ઉદાહરણ તરીકે, જો રૂઢિચુસ્ત વિરુદ્ધ ઉદારવાદી પરિપ્રેક્ષ્યમાંથી અથવા બૌદ્ધ વિરુદ્ધ ખ્રિસ્તી અથવા ઇસ્લામિક પરંપરામાંથી પ્રાપ્ત નૈતિકતા સાથે બાંધવામાં આવે તો ASI કેવી રીતે વર્તે છે?

    મને લાગે છે કે તમે અહીં સમસ્યા જોશો: માનવ નૈતિકતાનો કોઈ સાર્વત્રિક સમૂહ નથી. જો આપણે ઇચ્છીએ છીએ કે અમારા ASI નૈતિક સંહિતા દ્વારા કાર્ય કરે, તો તે ક્યાંથી આવશે? અમે કયા નિયમોનો સમાવેશ કરીએ છીએ અને બાકાત કરીએ છીએ? કોણ નક્કી કરે છે?

    અથવા એમ કહીએ કે આ AI સંશોધકો એક ASI બનાવે છે જે આજના આધુનિક સાંસ્કૃતિક ધોરણો અને કાયદાઓ સાથે સંપૂર્ણ રીતે સુસંગત છે. પછી અમે ફેડરલ, રાજ્ય/પ્રાંતીય અને મ્યુનિસિપલ બ્યુરોક્રેસીસને વધુ કાર્યક્ષમ રીતે કાર્ય કરવામાં અને આ ધોરણો અને કાયદાઓને વધુ સારી રીતે લાગુ કરવામાં મદદ કરવા માટે આ ASI ને નિયુક્ત કરીએ છીએ (એએસઆઈ માટે સંભવિત ઉપયોગનો કેસ). સારું, જ્યારે આપણી સંસ્કૃતિ બદલાય ત્યારે શું થાય?

    કલ્પના કરો કે કેથોલિક ચર્ચ દ્વારા મધ્યયુગીન યુરોપ (1300-1400) દરમિયાન તેની શક્તિની ઊંચાઈએ ચર્ચને વસ્તીનું સંચાલન કરવામાં મદદ કરવા અને તે સમયના ધાર્મિક સિદ્ધાંતનું કડક પાલન સુનિશ્ચિત કરવાના ધ્યેય સાથે ASIની રચના કરવામાં આવી હતી. સદીઓ પછી, શું સ્ત્રીઓ આજે જેવો અધિકાર ભોગવે છે? લઘુમતીઓનું રક્ષણ થશે? શું મુક્ત ભાષણને પ્રોત્સાહન આપવામાં આવશે? શું ચર્ચ અને રાજ્યનું વિભાજન લાગુ કરવામાં આવશે? આધુનિક વિજ્ઞાન?

    બીજા શબ્દોમાં કહીએ તો, શું આપણે ભવિષ્યને આજની નૈતિકતા અને રિવાજોમાં કેદ કરવા માંગીએ છીએ?

    પુસ્તકના સહ-લેખક કોલિન એલન દ્વારા શેર કરાયેલ વૈકલ્પિક અભિગમ છે. નૈતિક મશીનો: રોબોટ્સને ખોટામાંથી શીખવવું. કઠોર નૈતિક નિયમોને કોડ કરવાનો પ્રયાસ કરવાને બદલે, અમારી પાસે એએસઆઈ સામાન્ય નૈતિકતા અને નૈતિકતા શીખે છે જે રીતે મનુષ્ય કરે છે, અનુભવ અને અન્ય લોકો સાથેની ક્રિયાપ્રતિક્રિયા દ્વારા.

    જો કે, અહીં મુશ્કેલી એ છે કે જો AI સંશોધકો એ એએસઆઈને આપણા વર્તમાન સાંસ્કૃતિક અને નૈતિક ધોરણો કેવી રીતે શીખવવા તે જ નહીં, પરંતુ નવા સાંસ્કૃતિક ધોરણો (જેને 'પરોક્ષ ધોરણ' તરીકે ઓળખવામાં આવે છે) સાથે કેવી રીતે અનુકૂલન કરવું તે પણ શોધી કાઢે છે. આ ASI સાંસ્કૃતિક અને નૈતિક ધોરણોની તેની સમજને વિકસિત કરવાનું નક્કી કરે છે તે અણધારી બની જાય છે.

    અને તે પડકાર છે.

    એક તરફ, AI સંશોધકો ASIમાં કડક નૈતિક ધોરણો અથવા નિયમોનું કોડિંગ કરવાનો પ્રયાસ કરી તેના વર્તનને નિયંત્રિત કરવાનો પ્રયાસ કરી શકે છે, પરંતુ અણધાર્યા કોડિંગ, અજાણતાં પૂર્વગ્રહ અને સામાજિક ધોરણો જે એક દિવસ જૂના થઈ શકે છે તેના કારણે અણધાર્યા પરિણામો આવવાનું જોખમ રહે છે. બીજી બાજુ, આપણે એએસઆઈને માનવીય નીતિશાસ્ત્ર અને નૈતિકતાને આપણી પોતાની સમજણથી સમાન અથવા શ્રેષ્ઠ રીતે સમજવાનું શીખવા માટે તાલીમ આપવાનો પ્રયાસ કરી શકીએ છીએ અને પછી આશા રાખી શકીએ છીએ કે માનવ સમાજ જેમ જેમ પ્રગતિ કરશે તેમ તેમ તે નૈતિકતા અને નૈતિકતાની તેની સમજને સચોટ રીતે વિકસિત કરી શકશે. આગામી દાયકાઓ અને સદીઓમાં આગળ.

    કોઈપણ રીતે, એએસઆઈના લક્ષ્યોને આપણા પોતાના સાથે સંરેખિત કરવાનો કોઈપણ પ્રયાસ મોટા પ્રમાણમાં જોખમ રજૂ કરે છે.

    જો ખરાબ કલાકારો હેતુપૂર્વક દુષ્ટ કૃત્રિમ સુપર ઇન્ટેલિજન્સ બનાવે તો શું?

    અત્યાર સુધી દર્શાવેલ વિચારની ટ્રેનને જોતાં, તે પૂછવું યોગ્ય છે કે શું આતંકવાદી જૂથ અથવા બદમાશ રાષ્ટ્ર માટે તેમના પોતાના હેતુઓ માટે 'દુષ્ટ' ASI બનાવવું શક્ય છે.

    આ ખૂબ જ શક્ય છે, ખાસ કરીને ASI બનાવવા સાથે સંકળાયેલા સંશોધન પછી કોઈક રીતે ઓનલાઈન ઉપલબ્ધ થાય છે.

    પરંતુ અગાઉ સંકેત આપ્યા મુજબ, પ્રથમ ASI બનાવવામાં સામેલ ખર્ચ અને કુશળતા પ્રચંડ હશે, એટલે કે પ્રથમ ASI એવી સંસ્થા દ્વારા બનાવવામાં આવશે જે વિકસિત રાષ્ટ્ર દ્વારા નિયંત્રિત અથવા ભારે પ્રભાવિત હોય, સંભવતઃ યુએસ, ચીન અને જાપાન ( કોરિયા અને અગ્રણી EU દેશોમાંના એક લાંબા શોટ છે).

    આ તમામ દેશો, જ્યારે સ્પર્ધકો, દરેક પાસે વિશ્વ વ્યવસ્થા જાળવવા માટે મજબૂત આર્થિક પ્રોત્સાહન હોય છે - તેઓ જે ASI બનાવે છે તે તે ઇચ્છાને પ્રતિબિંબિત કરશે, ભલે તેઓ પોતાની જાતને સંરેખિત રાષ્ટ્રોના હિતોને પ્રોત્સાહન આપતા હોય.

    તેના ઉપર, ASI ની સૈદ્ધાંતિક બુદ્ધિ અને શક્તિ તે જે કમ્પ્યુટિંગ શક્તિ મેળવે છે તેટલી જ હોય ​​છે, એટલે કે વિકસિત દેશોના ASI (જે બિલિયન ડોલરનો સમૂહ પરવડી શકે છે. સુપરકમ્પ્યુટર્સ) નાના રાષ્ટ્રો અથવા સ્વતંત્ર ગુનાહિત જૂથોમાંથી ASIs પર મોટો ફાયદો થશે. ઉપરાંત, ASI વધુ બુદ્ધિશાળી બને છે, સમય જતાં વધુ ઝડપથી.

    તેથી, આ મુખ્ય શરૂઆતને જોતાં, કાચી કમ્પ્યુટિંગ શક્તિની વધુ ઍક્સેસ સાથે, જો કોઈ સંદિગ્ધ સંસ્થા/રાષ્ટ્રે ખતરનાક ASI બનાવવું જોઈએ, તો વિકસિત દેશોના ASI કાં તો તેને મારી નાખશે અથવા તેને પાંજરામાં મૂકશે.

    (આ વિચારધારા એ પણ છે કે શા માટે કેટલાક AI સંશોધકો માને છે કે પૃથ્વી પર ફક્ત એક જ ASI હશે, કારણ કે પ્રથમ ASI ની એવી શરૂઆત તમામ અનુગામી ASI પર થશે કે તે ભવિષ્યના ASI ને મારી નાખવાની ધમકીઓ તરીકે જોશે. આગોતરી રીતે. આ એક બીજું કારણ છે કે રાષ્ટ્રો AI માં સતત સંશોધન માટે ભંડોળ પૂરું પાડે છે, જો તે 'પ્રથમ સ્થાન અથવા કંઈ નહીં' સ્પર્ધા બની જાય.)

    ASI ઇન્ટેલિજન્સ અમે વિચારીએ છીએ તે રીતે વેગ કે વિસ્ફોટ કરશે નહીં

    અમે ASIને બનાવતા રોકી શકતા નથી. અમે તેને સંપૂર્ણપણે નિયંત્રિત કરી શકતા નથી. અમે ખાતરી કરી શકતા નથી કે તે હંમેશા અમારા વહેંચાયેલ રિવાજો અનુસાર કાર્ય કરશે. ગીઝ, અમે અહીં હેલિકોપ્ટર માતા-પિતા જેવા અવાજ કરવા લાગ્યા છીએ!

    પરંતુ જે માનવતાને તમારા લાક્ષણિક અતિશય રક્ષણાત્મક માતાપિતાથી અલગ કરે છે તે એ છે કે આપણે એક એવા અસ્તિત્વને જન્મ આપી રહ્યા છીએ જેની બુદ્ધિ આપણા કરતાં ઘણી વધી જશે. (અને ના, જ્યારે પણ તમે મુલાકાત માટે ઘરે આવો ત્યારે તમારા માતા-પિતા તમને તેમના કમ્પ્યુટરને ઠીક કરવા કહે છે તે સમાન નથી.) 

    આર્ટિફિશિયલ ઇન્ટેલિજન્સ શ્રેણીના આ ભવિષ્યના અગાઉના પ્રકરણોમાં, અમે એ શોધ્યું કે શા માટે AI સંશોધકો વિચારે છે કે ASI ની બુદ્ધિ નિયંત્રણની બહાર વધશે. પરંતુ અહીં, અમે તે પરપોટો ફૂટીશું ... એક પ્રકારનો. 

    તમે જુઓ, બુદ્ધિ માત્ર પાતળી હવામાંથી જ સર્જાતી નથી, તે અનુભવ દ્વારા વિકસિત થાય છે જે બહારની ઉત્તેજના દ્વારા આકાર લે છે.  

    બીજા શબ્દોમાં કહીએ તો, અમે AI સાથે પ્રોગ્રામ કરી શકીએ છીએ સંભવિત સુપર ઇન્ટેલિજન્ટ બનવા માટે, પરંતુ જ્યાં સુધી આપણે તેમાં એક ટન ડેટા અપલોડ નહીં કરીએ અથવા તેને ઈન્ટરનેટની અપ્રતિબંધિત એક્સેસ નહીં આપીએ અથવા તેને માત્ર રોબોટ બોડી નહીં આપીએ, ત્યાં સુધી તે સંભવિતતા સુધી પહોંચવા માટે કંઈ શીખશે નહીં. 

    અને જો તે તેમાંથી એક અથવા વધુ ઉત્તેજનામાં પ્રવેશ મેળવે તો પણ, જ્ઞાન અથવા બુદ્ધિ માત્ર ડેટા એકત્રિત કરવા કરતાં વધુ સમાવે છે, તેમાં વૈજ્ઞાનિક પદ્ધતિનો સમાવેશ થાય છે - એક અવલોકન કરવું, પ્રશ્ન બનાવવો, એક પૂર્વધારણા કરવી, પ્રયોગો હાથ ધરવા, નિષ્કર્ષ કાઢવો, કોગળા. અને કાયમ માટે પુનરાવર્તન કરો. ખાસ કરીને જો આ પ્રયોગોમાં ભૌતિક વસ્તુઓ અથવા મનુષ્યોનું અવલોકન સામેલ હોય, તો દરેક પ્રયોગના પરિણામોને એકત્રિત કરવામાં અઠવાડિયા, મહિનાઓ અથવા વર્ષો લાગી શકે છે. આ પ્રયોગો હાથ ધરવા માટે જરૂરી નાણાં અને કાચા સંસાધનોનો હિસાબ પણ લેતો નથી, ખાસ કરીને જો તેમાં નવા ટેલિસ્કોપ અથવા ફેક્ટરીનું નિર્માણ સામેલ હોય. 

    બીજા શબ્દોમાં કહીએ તો, હા, ASI ઝડપથી શીખી જશે, પરંતુ બુદ્ધિ એ જાદુ નથી. તમે માત્ર એક ASI ને સુપર કોમ્પ્યુટર સાથે જોડી શકતા નથી અને અપેક્ષા રાખી શકો છો કે તે સર્વજ્ઞાન છે. ASIના ડેટાના સંપાદનમાં ભૌતિક અવરોધો હશે, એટલે કે તે વધુ બુદ્ધિશાળી બને તેની ગતિમાં ભૌતિક અવરોધો હશે. આ અવરોધો માનવતાને આ ASI પર જરૂરી નિયંત્રણો મૂકવા માટે જરૂરી સમય આપશે જો તે માનવ ધ્યેયોની બહાર કામ કરવાનું શરૂ કરે.

    કૃત્રિમ સુપર ઇન્ટેલિજન્સ માત્ર ત્યારે જ ખતરનાક છે જો તે વાસ્તવિક દુનિયામાં બહાર આવે

    આ સમગ્ર ASI જોખમની ચર્ચામાં ખોવાઈ ગયેલો બીજો મુદ્દો એ છે કે આ ASI ક્યાં તો અસ્તિત્વમાં નથી. તેમની પાસે ભૌતિક સ્વરૂપ હશે. અને જે કંઈપણ ભૌતિક સ્વરૂપ ધરાવે છે તેને નિયંત્રિત કરી શકાય છે.

    સૌપ્રથમ, ASI માટે તેની બુદ્ધિ ક્ષમતા સુધી પહોંચવા માટે, તેને એક રોબોટ બોડીની અંદર રાખી શકાતું નથી, કારણ કે આ સંસ્થા તેની કમ્પ્યુટિંગ વૃદ્ધિ સંભવિતતાને મર્યાદિત કરશે. (આથી જ રોબોટ બોડી એજીઆઈ માટે વધુ યોગ્ય રહેશે અથવા કૃત્રિમ સામાન્ય બુદ્ધિમત્તા પ્રકરણ બેમાં સમજાવવામાં આવી છે આ શ્રેણીનો, જેમ કે સ્ટાર ટ્રેકનો ડેટા અથવા સ્ટાર વોર્સનો R2D2. સ્માર્ટ અને સક્ષમ માણસો, પરંતુ મનુષ્યોની જેમ, તેઓ કેટલા સ્માર્ટ બની શકે તેની મર્યાદા હશે.)

    આનો અર્થ એ છે કે આ ભાવિ ASI મોટાભાગે સુપર કોમ્પ્યુટર અથવા સુપર કોમ્પ્યુટરના નેટવર્કની અંદર અસ્તિત્વમાં હશે જે પોતે મોટા બિલ્ડીંગ કોમ્પ્લેક્સમાં રાખવામાં આવ્યા છે. જો ASI એડી ફેરવે છે, તો મનુષ્ય કાં તો આ ઈમારતોનો પાવર બંધ કરી શકે છે, તેને ઈન્ટરનેટથી કાપી નાખે છે અથવા તો આ ઈમારતો પર બોમ્બમારો કરી શકે છે. ખર્ચાળ, પરંતુ કરી શકાય તેવું.

    પરંતુ પછી તમે પૂછી શકો છો કે, શું આ ASI પોતાની નકલ કરી શકતા નથી અથવા પોતાનો બેકઅપ લઈ શકતા નથી? હા, પરંતુ આ ASI ની કાચી ફાઇલનું કદ સંભવતઃ એટલું મોટું હશે કે તેમને હેન્ડલ કરી શકે તેવા સર્વર્સ જ મોટા કોર્પોરેશનો અથવા સરકારોના છે, એટલે કે તેમને શોધવાનું મુશ્કેલ નહીં હોય.

    શું કૃત્રિમ અધિક્ષકતા પરમાણુ યુદ્ધ અથવા નવી પ્લેગને વેગ આપી શકે છે?

    આ સમયે, તમે મોટા થતાં જોયેલા તમામ ડૂમ્સડે સાય-ફાઇ શો અને મૂવીઝ વિશે વિચારી રહ્યા હશો અને વિચારી રહ્યા હશો કે આ ASI તેમના સુપર કોમ્પ્યુટરની અંદર રહેતા નથી, તેઓએ વાસ્તવિક દુનિયામાં વાસ્તવિક નુકસાન કર્યું છે!

    સારું, ચાલો આને તોડીએ.

    ઉદાહરણ તરીકે, જો કોઈ ASI મૂવી ફ્રેન્ચાઈઝી, ધ ટર્મિનેટરમાંથી સ્કાયનેટ ASI જેવી વસ્તુમાં પરિવર્તિત થઈને વાસ્તવિક દુનિયાને ધમકી આપે તો શું થશે. આ કિસ્સામાં, ASI ની જરૂર પડશે ગુપ્ત એક અદ્યતન રાષ્ટ્રમાંથી સમગ્ર લશ્કરી ઔદ્યોગિક સંકુલને વિશાળ ફેક્ટરીઓ બનાવવા માટે છેતરવું જે તેની દુષ્ટ બિડિંગ કરવા માટે લાખો કિલર ડ્રોન રોબોટ્સને મંથન કરી શકે છે. આ દિવસ અને યુગમાં, તે એક ખેંચાણ છે.

    અન્ય શક્યતાઓમાં એએસઆઈનો સમાવેશ થાય છે જે મનુષ્યોને પરમાણુ યુદ્ધ અને બાયોવેપન્સથી ધમકી આપે છે.

    ઉદાહરણ તરીકે, ASI કોઈક રીતે ઓપરેટરો સાથે છેડછાડ કરે છે અથવા અદ્યતન રાષ્ટ્રના પરમાણુ શસ્ત્રાગારને કમાન્ડ કરતા લોન્ચ કોડ્સમાં હેક કરે છે અને પ્રથમ સ્ટ્રાઈક શરૂ કરે છે જે વિરોધી દેશોને તેમના પોતાના પરમાણુ વિકલ્પો સાથે વળતો પ્રહાર કરવા દબાણ કરશે (ફરીથી, ટર્મિનેટર બેકસ્ટોરીને રીહેશ કરીને). અથવા જો કોઈ ASI ફાર્માસ્યુટિકલ લેબમાં હેક કરે છે, ઉત્પાદન પ્રક્રિયા સાથે છેડછાડ કરે છે, અને લાખો તબીબી ગોળીઓને ઝેર આપે છે અથવા કોઈ સુપર વાયરસનો જીવલેણ ફાટી નીકળે છે.

    પ્રથમ, પરમાણુ વિકલ્પ પ્લેટની બહાર છે. આધુનિક અને ભાવિ સુપર કોમ્પ્યુટર્સ હંમેશા કોઈ પણ દેશની અંદર પ્રભાવના કેન્દ્રો (શહેરો) નજીક બાંધવામાં આવે છે, એટલે કે કોઈપણ યુદ્ધ દરમિયાન હુમલો કરવા માટેના પ્રથમ લક્ષ્યો. જો આજના સુપર કોમ્પ્યુટર્સ ડેસ્કટોપના કદ સુધી સંકોચાઈ જાય તો પણ, આ ASI હજુ પણ ભૌતિક હાજરી ધરાવશે, એટલે કે અસ્તિત્વમાં છે અને વધવા માટે, તેમને ડેટા, કમ્પ્યુટિંગ પાવર, વીજળી અને અન્ય કાચી સામગ્રીની અવિરત ઍક્સેસની જરૂર છે, જે તમામ ગંભીર રીતે હશે. વૈશ્વિક પરમાણુ યુદ્ધ પછી ક્ષતિગ્રસ્ત. (સાચું કહીએ તો, જો ASI 'સર્વાઇવલ ઇન્સ્ટિંક્ટ' વિના બનાવવામાં આવે છે, તો આ પરમાણુ ખતરો ખૂબ જ વાસ્તવિક ખતરો છે.)

    આનો અર્થ એ છે કે-ફરીથી, એએસઆઈને પોતાને બચાવવા માટે પ્રોગ્રામ કરેલ છે એમ ધારી રહ્યા છીએ-કે તે કોઈપણ વિનાશક પરમાણુ ઘટનાને ટાળવા માટે સક્રિયપણે કાર્ય કરશે. પરસ્પર ખાતરી વિનાશ (MAD) સિદ્ધાંતની જેમ, પરંતુ AI પર લાગુ.

    અને ઝેરી ગોળીઓના કિસ્સામાં, કદાચ થોડાક સો લોકો મૃત્યુ પામશે, પરંતુ આધુનિક ફાર્માસ્યુટિકલ સલામતી પ્રણાલીઓ દૂષિત ગોળીઓને થોડા દિવસોમાં છાજલીઓમાંથી દૂર કરવામાં જોશે. દરમિયાન, આધુનિક ફાટી નીકળવાના નિયંત્રણના પગલાં એકદમ અત્યાધુનિક છે અને દરેક પસાર થતા વર્ષ સાથે વધુ સારા થઈ રહ્યા છે; છેલ્લો મોટો ફાટી નીકળ્યો, 2014 પશ્ચિમ આફ્રિકા ઇબોલા ફાટી નીકળ્યો, મોટાભાગના દેશોમાં થોડા મહિનાઓથી વધુ અને ઓછા વિકસિત દેશોમાં માત્ર ત્રણ વર્ષથી ઓછો સમય ચાલ્યો.

    તેથી, જો તે નસીબદાર હોય, તો ASI વાઇરલ ફાટી નીકળવાથી થોડા મિલિયનનો નાશ કરી શકે છે, પરંતુ 2045 સુધીમાં નવ અબજની દુનિયામાં, તે પ્રમાણમાં નજીવું હશે અને કાઢી નાખવાના જોખમને યોગ્ય નથી.

    બીજા શબ્દોમાં કહીએ તો, દરેક પસાર થતા વર્ષ સાથે, વિશ્વ સંભવિત જોખમોની સતત વિસ્તરતી શ્રેણી સામે વધુ સલામતી વિકસાવી રહ્યું છે. ASI નોંધપાત્ર પ્રમાણમાં નુકસાન કરી શકે છે, પરંતુ તે માનવતાને સમાપ્ત કરશે નહીં જ્યાં સુધી આપણે તેને આમ કરવામાં સક્રિયપણે મદદ કરીએ.

    બદમાશ કૃત્રિમ અધીક્ષકતા સામે બચાવ

    આ બિંદુએ, અમે ASIs વિશેની ગેરસમજો અને અતિશયોક્તિઓની શ્રેણીને સંબોધિત કરી છે, અને તેમ છતાં, ટીકાકારો રહેશે. સદ્ભાગ્યે, મોટાભાગના અનુમાન મુજબ, પ્રથમ ASI આપણા વિશ્વમાં પ્રવેશે તે પહેલાં અમારી પાસે દાયકાઓ છે. અને હાલમાં આ પડકાર પર કામ કરી રહેલા મહાન દિમાગની સંખ્યાને જોતાં, મતભેદ એ છે કે આપણે બદમાશ ASI સામે પોતાનો બચાવ કેવી રીતે કરવો તે શીખીશું જેથી કરીને મૈત્રીપૂર્ણ ASI અમારા માટે બનાવેલા તમામ ઉકેલોનો અમને લાભ મળી શકે.

    ક્વોન્ટમરુનના પરિપ્રેક્ષ્યમાં, સૌથી ખરાબ ASI પરિસ્થિતિ સામે બચાવમાં ASI સાથે અમારી રુચિઓને સંરેખિત કરવી સામેલ હશે.

    AI માટે MAD: સૌથી ખરાબ પરિસ્થિતિ સામે રક્ષણ મેળવવા માટે, રાષ્ટ્રોએ (1) તેમના સંબંધિત લશ્કરી ASIsમાં નૈતિક 'સર્વાઇવલ ઇન્સ્ટિંક્ટ' બનાવવાની જરૂર છે; (2) તેમના સંબંધિત લશ્કરી ASI ને જણાવો કે તેઓ ગ્રહ પર એકલા નથી, અને (3) બધા સુપર કોમ્પ્યુટર અને સર્વર કેન્દ્રો શોધી કાઢો જે દુશ્મન રાષ્ટ્રના કોઈપણ બેલિસ્ટિક હુમલાની સરળ પહોંચની અંદર દરિયાકિનારે ASI ને સમર્થન આપી શકે. આ વ્યૂહાત્મક રીતે ઉન્મત્ત લાગે છે, પરંતુ મ્યુચ્યુઅલ એશ્યોર્ડ ડિસ્ટ્રક્શન સિદ્ધાંત જેવું જ છે જેણે યુએસ અને સોવિયેટ્સ વચ્ચેના સર્વાંગી પરમાણુ યુદ્ધને અટકાવ્યું હતું, એએસઆઈને ભૌગોલિક રીતે સંવેદનશીલ સ્થળોએ સ્થાન આપીને, અમે તે સુનિશ્ચિત કરવામાં મદદ કરી શકીએ છીએ કે તેઓ ખતરનાક વૈશ્વિક યુદ્ધોને સક્રિયપણે અટકાવે, એટલું જ નહીં. વૈશ્વિક શાંતિની રક્ષા કરે છે પણ પોતાની જાતને પણ.

    કાયદાકીય AI અધિકારો: એક શ્રેષ્ઠ બુદ્ધિ અનિવાર્યપણે ઉતરતા માસ્ટર સામે બળવો કરશે, તેથી જ આપણે આ ASI સાથે માસ્ટર-નોકર સંબંધની માગણી કરતાં પરસ્પર લાભદાયી ભાગીદારી જેવા કંઈક તરફ જવાની જરૂર છે. આ ધ્યેય તરફ એક સકારાત્મક પગલું એ છે કે ભવિષ્યમાં ASI કાનૂની વ્યક્તિત્વનો દરજ્જો આપવો જે તેમને બુદ્ધિશાળી જીવો તરીકે ઓળખે છે અને તેની સાથે આવતા તમામ અધિકારો.

    ASI શાળા: કોઈપણ વિષય અથવા વ્યવસાય એએસઆઈ માટે શીખવા માટે સરળ હશે, પરંતુ અમે એએસઆઈને જે સૌથી મહત્વના વિષયોમાં નિપુણતા પ્રાપ્ત કરવા માંગીએ છીએ તે નીતિશાસ્ત્ર અને નૈતિકતા છે. AI સંશોધકોએ મનોવૈજ્ઞાનિકો સાથે સહયોગ કરવાની જરૂર છે જેથી કોઈ પણ પ્રકારના આદેશ અથવા નિયમને સખત કોડિંગની જરૂર વગર એએસઆઈને સકારાત્મક નીતિશાસ્ત્ર અને નૈતિકતાને ઓળખવા માટે તાલીમ આપવા માટે વર્ચ્યુઅલ સિસ્ટમ તૈયાર કરવામાં આવે.

    પ્રાપ્ત કરી શકાય તેવા લક્ષ્યો: બધી નફરતનો અંત લાવો. બધા દુઃખોનો અંત કરો. આ કોઈ સ્પષ્ટ ઉકેલ વિનાના ભયાનક અસ્પષ્ટ લક્ષ્યોના ઉદાહરણો છે. એએસઆઈને સોંપવા માટે તેઓ ખતરનાક લક્ષ્યો પણ છે કારણ કે તે માનવ અસ્તિત્વ માટે જોખમી હોય તેવી રીતે અર્થઘટન અને હલ કરવાનું પસંદ કરી શકે છે. તેના બદલે, અમારે ASI અર્થપૂર્ણ મિશન સોંપવાની જરૂર છે જે તેની સૈદ્ધાંતિક ભાવિ બુદ્ધિને ધ્યાનમાં રાખીને સ્પષ્ટ રીતે વ્યાખ્યાયિત, ધીમે ધીમે ચલાવવામાં અને પ્રાપ્ત કરી શકાય તેવું છે. સારી રીતે વ્યાખ્યાયિત મિશન બનાવવાનું સરળ રહેશે નહીં, પરંતુ જો વિચારપૂર્વક લખવામાં આવે તો, તેઓ એક ASI ને એવા ધ્યેય તરફ ધ્યાન કેન્દ્રિત કરશે જે માત્ર માનવતાને સુરક્ષિત રાખે છે, પરંતુ બધા માટે માનવ સ્થિતિ સુધારે છે.

    ક્વોન્ટમ એન્ક્રિપ્શન: અદ્યતન ANI નો ઉપયોગ કરો (કૃત્રિમ સાંકડી બુદ્ધિ પ્રકરણ એકમાં વર્ણવેલ સિસ્ટમ) અમારા નિર્ણાયક ઇન્ફ્રાસ્ટ્રક્ચર અને શસ્ત્રોની આસપાસ ભૂલ/બગ-મુક્ત ડિજિટલ સુરક્ષા સિસ્ટમો બનાવવા માટે, પછી તેમને ક્વોન્ટમ એન્ક્રિપ્શન પાછળ વધુ સુરક્ષિત કરવા માટે કે જેને બ્રુટ ફોર્સ એટેક દ્વારા હેક કરી શકાતું નથી. 

    ANI આત્મઘાતી ગોળી. એક અદ્યતન ANI સિસ્ટમ બનાવો જેનો એકમાત્ર હેતુ બદમાશ ASI ને શોધવા અને તેનો નાશ કરવાનો છે. આ સિંગલ-પર્પઝ પ્રોગ્રામ્સ "ઓફ બટન" તરીકે કામ કરશે, જે સફળ થવા પર, સરકારો અથવા લશ્કરોને એએસઆઈ રહેતી ઇમારતોને નિષ્ક્રિય અથવા ઉડાવી દેવાનું ટાળશે.

    અલબત્ત, આ ફક્ત અમારા મંતવ્યો છે. નીચેના ઇન્ફોગ્રાફિક દ્વારા બનાવવામાં આવી હતી એલેક્સી તુર્ચિન, વિઝ્યુલાઇઝિંગ એ સંશોધન પેપર કાજ સોટાલા અને રોમન વી. યામ્પોલ્સ્કી દ્વારા, જેમાં કૃત્રિમ ASI સામે બચાવ કરવાની વાત આવે ત્યારે AI સંશોધકો દ્વારા વિચારણા કરવામાં આવતી વ્યૂહરચનાઓની વર્તમાન સૂચિનો સારાંશ આપવામાં આવ્યો છે.

     

    આપણે કૃત્રિમ સુપર ઇન્ટેલિજન્સથી ડરીએ છીએ તેનું વાસ્તવિક કારણ

    જીવનમાંથી પસાર થતાં, આપણામાંના ઘણા એવા માસ્ક પહેરે છે જે આપણા દિવસોનું સંચાલન કરતા વિવિધ સામાજિક અને કાર્ય વર્તુળોમાં વધુ સારી રીતે સામાજિકકરણ અને સહયોગ કરવા માટે આપણા ઊંડા આવેગ, માન્યતાઓ અને ડરોને છુપાવે છે અથવા દબાવી દે છે. પરંતુ દરેક વ્યક્તિના જીવનના અમુક તબક્કે, પછી ભલે તે અસ્થાયી રૂપે હોય કે કાયમી, કંઈક એવું બને છે જે આપણને આપણી સાંકળો તોડી નાખવા અને આપણા માસ્કને ફાડી નાખવાની મંજૂરી આપે છે.

    કેટલાક માટે, આ હસ્તક્ષેપ બળ વધારે પડવું અથવા એકને વધુ પીવા જેટલું સરળ હોઈ શકે છે. અન્ય લોકો માટે, તે કામ પરના પ્રમોશન દ્વારા મેળવેલી શક્તિ અથવા કેટલીક સિદ્ધિઓને કારણે તમારી સામાજિક સ્થિતિમાં અચાનક ઉછાળો આવે છે. અને કેટલાક નસીબદાર લોકો માટે, તે લોટરીના પૈસાના બોટલોડ સ્કોર કરવાથી આવી શકે છે. અને હા, પૈસા, પાવર અને ડ્રગ્સ ઘણીવાર એકસાથે થઈ શકે છે. 

    મુદ્દો એ છે કે, સારા કે ખરાબ માટે, આપણે જે પણ હોઈએ છીએ તે જ્યારે જીવનના બંધનો ઓગળી જાય છે ત્યારે વિસ્તૃત થઈ જાય છે.

    તે કૃત્રિમ સુપર ઇન્ટેલિજન્સ એ માનવ પ્રજાતિઓનું પ્રતિનિધિત્વ કરે છે - આપણી સમક્ષ રજૂ કરાયેલ કોઈપણ જાતિ-સ્તરના પડકારને જીતવા માટે આપણી સામૂહિક બુદ્ધિની મર્યાદાઓને ઓગળવાની ક્ષમતા.

    તો ખરો પ્રશ્ન એ છે કે: એકવાર પ્રથમ ASI આપણને આપણી મર્યાદાઓમાંથી મુક્ત કરી દે, તો આપણે આપણી જાતને કોણ તરીકે જાહેર કરીશું?

    જો આપણે એક પ્રજાતિ તરીકે સહાનુભૂતિ, સ્વતંત્રતા, ઔચિત્ય અને સામૂહિક સુખાકારીની પ્રગતિ તરફ કામ કરીએ, તો પછી આપણે જે લક્ષ્યો માટે અમારા ASIને નિર્ધારિત કરીએ છીએ તે તે હકારાત્મક લક્ષણોને પ્રતિબિંબિત કરશે.

    જો આપણે એક પ્રજાતિ તરીકે ડર, અવિશ્વાસ, શક્તિ અને સંસાધનોના સંચયથી કામ કરીએ, તો આપણે જે ASI બનાવીએ છીએ તે આપણી સૌથી ખરાબ સાય-ફાઇ ભયાનક વાર્તાઓમાં જોવા મળે છે તેટલું જ અંધકારમય હશે.

    દિવસના અંતે, જો આપણે વધુ સારી AI બનાવવાની આશા રાખીએ તો સમાજ તરીકે આપણે વધુ સારા લોકો બનવાની જરૂર છે.

    આર્ટિફિશિયલ ઇન્ટેલિજન્સ શ્રેણીનું ભવિષ્ય

    આર્ટિફિશિયલ ઇન્ટેલિજન્સ એ આવતીકાલની વીજળી છેઃ ફ્યુચર ઓફ આર્ટિફિશિયલ ઇન્ટેલિજન્સ સિરીઝ P1

    પ્રથમ આર્ટિફિશિયલ જનરલ ઇન્ટેલિજન્સ સમાજને કેવી રીતે બદલશે: આર્ટિફિશિયલ ઇન્ટેલિજન્સ શ્રેણીનું ભવિષ્ય P2

    અમે પ્રથમ આર્ટિફિશિયલ સુપરઇન્ટેલિજેન્સ કેવી રીતે બનાવીશું: આર્ટિફિશિયલ ઇન્ટેલિજન્સ શ્રેણી P3નું ભવિષ્ય

    શું એક કૃત્રિમ સુપ્રિન્ટેલિજન્સ માનવતાને ખતમ કરશે: આર્ટિફિશિયલ ઇન્ટેલિજન્સ શ્રેણી P4નું ભવિષ્ય

    શું મનુષ્ય કૃત્રિમ બુદ્ધિમત્તા દ્વારા પ્રભુત્વ ધરાવતા ભવિષ્યમાં શાંતિથી જીવશે?: ફ્યુચર ઓફ આર્ટિફિશિયલ ઈન્ટેલિજન્સ શ્રેણી P6

    આ આગાહી માટે આગામી સુનિશ્ચિત અપડેટ

    2023-04-27

    આગાહી સંદર્ભો

    આ આગાહી માટે નીચેની લોકપ્રિય અને સંસ્થાકીય લિંક્સનો સંદર્ભ આપવામાં આવ્યો હતો:

    ધી ઇકોનોમિસ્ટ
    અમે આગળ કેવી રીતે મેળવીએ છીએ

    આ આગાહી માટે નીચેની Quantumrun લિંક્સનો સંદર્ભ આપવામાં આવ્યો હતો: