ഒരു ആർട്ടിഫിഷ്യൽ സൂപ്പർ ഇന്റലിജൻസിനെതിരെ മനുഷ്യർ എങ്ങനെ പ്രതിരോധിക്കും: ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിന്റെ ഭാവി P5

ഇമേജ് ക്രെഡിറ്റ്: ക്വാണ്ടംറൺ

ഒരു ആർട്ടിഫിഷ്യൽ സൂപ്പർ ഇന്റലിജൻസിനെതിരെ മനുഷ്യർ എങ്ങനെ പ്രതിരോധിക്കും: ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിന്റെ ഭാവി P5

    വർഷം ക്രി.മു. 65,000 ആണ്, കൂടാതെ എ ഥ്യ്ലചൊലെഒ, നിങ്ങളും നിങ്ങളുടെ തരക്കാരും പുരാതന ഓസ്‌ട്രേലിയയിലെ വലിയ വേട്ടക്കാരായിരുന്നു. നിങ്ങൾ ഭൂമിയിൽ സ്വതന്ത്രമായി കറങ്ങിനടന്നു, നിങ്ങളോടൊപ്പം ഭൂമി കൈവശപ്പെടുത്തിയ സഹ ഇരകളോടും ഇരകളോടും സന്തുലിതാവസ്ഥയിൽ ജീവിച്ചു. ഋതുക്കൾ മാറ്റങ്ങൾ കൊണ്ടുവന്നു, എന്നാൽ മൃഗരാജ്യത്തിലെ നിങ്ങളുടെ പദവി നിങ്ങൾക്കും നിങ്ങളുടെ പൂർവ്വികർക്കും ഓർക്കാൻ കഴിയുന്നിടത്തോളം കാലം വെല്ലുവിളിക്കപ്പെടാതെ തുടർന്നു. അങ്ങനെയിരിക്കെ ഒരു ദിവസം പുതുമുഖങ്ങൾ പ്രത്യക്ഷപ്പെട്ടു.

    ഭീമാകാരമായ ജലഭിത്തിയിൽ നിന്നാണ് അവർ എത്തിയതെന്ന് കിംവദന്തിയുണ്ട്, എന്നാൽ ഈ ജീവികൾ കരയിൽ കൂടുതൽ സുഖപ്രദമായ ജീവിതം നയിച്ചു. ഈ ജീവികളെ നിങ്ങൾ തന്നെ കാണണം.

    ഇതിന് കുറച്ച് ദിവസമെടുത്തു, പക്ഷേ ഒടുവിൽ നിങ്ങൾ തീരത്ത് എത്തി. ആകാശത്ത് തീ ആളിപ്പടരുകയായിരുന്നു, ഈ ജീവികളെ ചാരപ്പണി ചെയ്യാൻ പറ്റിയ സമയം, അവ എങ്ങനെ രുചിച്ചെന്ന് കാണാൻ ഒന്ന് കഴിച്ചുനോക്കൂ.

    നിങ്ങൾ ഒന്ന് കണ്ടുപിടിക്കൂ.

    അതിന് രോമങ്ങളൊന്നുമില്ലാതെ രണ്ട് കാലിൽ നടന്നു. അത് ദുർബലമായി കാണപ്പെട്ടു. ആകർഷണീയമല്ല. അത് രാജ്യത്തിൻ്റെ ഇടയിൽ ഉണ്ടാക്കുന്ന ഭയം വിലമതിക്കുന്നില്ല.

    രാത്രി വെളിച്ചത്തെ തുരത്തുമ്പോൾ നിങ്ങൾ ശ്രദ്ധാപൂർവം സമീപിക്കാൻ തുടങ്ങുന്നു. നിങ്ങൾ അടുത്തുവരികയാണ്. അപ്പോൾ നിങ്ങൾ മരവിപ്പിക്കും. വലിയ ശബ്‌ദങ്ങൾ മുഴങ്ങുന്നു, തുടർന്ന് അവയിൽ നാലെണ്ണം കൂടി പുറകിൽ വനത്തിൽ നിന്ന് പ്രത്യക്ഷപ്പെടുന്നു. അവിടെ എത്രപേർ ഉണ്ട്?

    സൃഷ്ടി മറ്റുള്ളവരെ ട്രീലൈനിലേക്ക് പിന്തുടരുന്നു, നിങ്ങൾ പിന്തുടരുന്നു. നിങ്ങൾ എത്രയധികം ചെയ്യുന്നുവോ അത്രയും കൂടുതൽ വിചിത്രമായ ശബ്ദങ്ങൾ നിങ്ങൾ ഈ ജീവികളെ കണ്ടെത്തുന്നതുവരെ കേൾക്കുന്നു. അവർ വനത്തിൽ നിന്ന് കരയിലെ ഒരു ക്ലിയറിംഗിന് പുറപ്പെടുമ്പോൾ നിങ്ങൾ അകലെ പിന്തുടരുന്നു. അവയിൽ പലതും ഉണ്ട്. എന്നാൽ അതിലും പ്രധാനമായി, അവരെല്ലാം ശാന്തമായി തീയ്ക്ക് ചുറ്റും ഇരിക്കുന്നു.

    ഈ തീപിടുത്തങ്ങൾ നിങ്ങൾ മുമ്പ് കണ്ടിട്ടുണ്ട്. ചൂടുള്ള സീസണിൽ, ആകാശത്തിലെ തീ ചിലപ്പോൾ ഭൂമി സന്ദർശിക്കുകയും മുഴുവൻ വനങ്ങളെയും കത്തിക്കുകയും ചെയ്യും. ഈ ജീവികൾ, മറുവശത്ത്, അവർ അതിനെ എങ്ങനെയെങ്കിലും നിയന്ത്രിക്കുകയായിരുന്നു. ഏതുതരം ജീവികൾക്കാണ് അത്തരം ശക്തി ഉണ്ടായിരിക്കാൻ കഴിയുക?

    നിങ്ങൾ ദൂരത്തേക്ക് നോക്കൂ. കൂറ്റൻ ജലഭിത്തിക്ക് മുകളിലൂടെ കൂടുതൽ പേർ വരുന്നു.

    നിങ്ങൾ ഒരു പടി പിന്നോട്ട് പോകൂ.

    ഈ ജീവികൾ രാജ്യത്തിലെ മറ്റുള്ളവയെപ്പോലെയല്ല. അവ തികച്ചും പുതിയ ഒന്നാണ്.

    നിങ്ങൾ പോകാനും നിങ്ങളുടെ ബന്ധുക്കൾക്ക് മുന്നറിയിപ്പ് നൽകാനും തീരുമാനിക്കുന്നു. അവരുടെ എണ്ണം വളരെ വലുതായാൽ എന്ത് സംഭവിക്കുമെന്ന് ആർക്കറിയാം.

    ***

    ഓസ്‌ട്രേലിയൻ ഭൂഖണ്ഡത്തിലെ ഭൂരിഭാഗം മെഗാഫൗണകളോടൊപ്പം മനുഷ്യരുടെ വരവിനുശേഷം താരതമ്യേന ചുരുങ്ങിയ സമയത്തിനുള്ളിൽ തൈലക്കോളിയോ വംശനാശം സംഭവിച്ചതായി വിശ്വസിക്കപ്പെടുന്നു. മറ്റൊരു അഗ്രം സസ്തനി വേട്ടക്കാരും അതിന്റെ സ്ഥാനത്ത് എത്തിയില്ല-അതായത് നിങ്ങൾ ആ വിഭാഗത്തിൽ മനുഷ്യരെ കണക്കാക്കുന്നില്ലെങ്കിൽ.

    ഈ സാങ്കൽപ്പിക അധ്യായത്തിന്റെ ശ്രദ്ധ കേന്ദ്രീകരിക്കുന്നത് ഈ പരമ്പരയിലെ അധ്യായമാണ്: ഭാവിയിലെ ഒരു ആർട്ടിഫിഷ്യൽ സൂപ്പർ ഇന്റലിജൻസ് (ASI) നമ്മളെയെല്ലാം ബാറ്ററികളാക്കി മാറ്റുമോ, എന്നിട്ട് നമ്മളെ മെട്രിക്സിലേക്ക് പ്ലഗ് ചെയ്യുമോ അതോ ഒരു സയൻസ് ഫിക്ഷന്റെ ഇരയാകാതിരിക്കാൻ മനുഷ്യർ ഒരു വഴി കണ്ടെത്തുമോ, AI ഡൂംസ്‌ഡേ പ്ലോട്ട്?

    ഞങ്ങളുടെ പരമ്പരയിൽ ഇതുവരെ കൃത്രിമബുദ്ധിയുടെ ഭാവി, AI-യുടെ ഒരു പ്രത്യേക രൂപമായ ASI-യുടെ പോസിറ്റീവ് സാധ്യതകൾ ഉൾപ്പെടെ എല്ലാത്തരം AI-കളും ഞങ്ങൾ പര്യവേക്ഷണം ചെയ്തിട്ടുണ്ട്: ഭാവിയിലെ ബുദ്ധി താരതമ്യത്തിൽ നമ്മെ ഉറുമ്പുകളെപ്പോലെയാക്കുന്ന ഒരു കൃത്രിമ ജീവിയാണ്.

    എന്നാൽ ഈ മിടുക്കൻ മനുഷ്യരിൽ നിന്ന് എന്നെന്നേക്കുമായി ഓർഡർ സ്വീകരിക്കുമെന്ന് ആരാണ് പറയുക. കാര്യങ്ങൾ തെക്കോട്ടു പോയാൽ നമ്മൾ എന്തു ചെയ്യും? ഒരു തെമ്മാടിയായ എഎസ്‌ഐക്കെതിരെ ഞങ്ങൾ എങ്ങനെ പ്രതിരോധിക്കും?

    ഈ അധ്യായത്തിൽ, ഞങ്ങൾ വ്യാജ പ്രചരണം വെട്ടിക്കുറയ്ക്കും-കുറഞ്ഞത് 'മനുഷ്യവംശനാശത്തിന്റെ തോത്' അപകടങ്ങളുമായി ബന്ധപ്പെട്ടത് പോലെ-ലോക ഗവൺമെന്റുകൾക്ക് ലഭ്യമായ യാഥാർത്ഥ്യമായ സ്വയം പ്രതിരോധ ഓപ്ഷനുകളിൽ ശ്രദ്ധ കേന്ദ്രീകരിക്കും.

    ഒരു ആർട്ടിഫിഷ്യൽ സൂപ്പർ ഇന്റലിജൻസിലേക്കുള്ള എല്ലാ തുടർ ഗവേഷണങ്ങളും നമുക്ക് നിർത്താനാകുമോ?

    ഒരു എഎസ്‌ഐ മനുഷ്യരാശിക്ക് ഉണ്ടാക്കിയേക്കാവുന്ന അപകടസാധ്യതകൾ കണക്കിലെടുക്കുമ്പോൾ, ചോദിക്കേണ്ട ആദ്യത്തെ വ്യക്തമായ ചോദ്യം ഇതാണ്: AI-യെക്കുറിച്ചുള്ള എല്ലാ കൂടുതൽ ഗവേഷണങ്ങളും നമുക്ക് നിർത്താൻ കഴിയില്ലേ? അല്ലെങ്കിൽ ഒരു എഎസ്‌ഐ സൃഷ്‌ടിക്കുന്നതിലേക്ക് അപകടകരമാംവിധം നമ്മെ അടുപ്പിക്കുന്ന ഏതെങ്കിലും ഗവേഷണത്തെയെങ്കിലും വിലക്കണോ?

    ഹ്രസ്വമായ ഉത്തരം: ഇല്ല.

    നീണ്ട ഉത്തരം: ഇവിടെ ഉൾപ്പെട്ടിരിക്കുന്ന വ്യത്യസ്ത കളിക്കാരെ നോക്കാം.

    ഗവേഷണ തലത്തിൽ, ലോകമെമ്പാടുമുള്ള നിരവധി സ്റ്റാർട്ടപ്പുകൾ, കമ്പനികൾ, സർവ്വകലാശാലകൾ എന്നിവയിൽ നിന്ന് ഇന്ന് ധാരാളം AI ഗവേഷകർ ഉണ്ട്. ഒരു കമ്പനിയോ രാജ്യമോ അവരുടെ AI ഗവേഷണ ശ്രമങ്ങൾ പരിമിതപ്പെടുത്താൻ തീരുമാനിച്ചാൽ, അവർ മറ്റെവിടെയെങ്കിലും തുടരും.

    അതേസമയം, ഈ ഗ്രഹത്തിലെ ഏറ്റവും മൂല്യവത്തായ കമ്പനികൾ അവരുടെ പ്രത്യേക ബിസിനസ്സുകളിലേക്ക് AI സിസ്റ്റങ്ങൾ പ്രയോഗിക്കുന്നതിൽ നിന്ന് ഭാഗ്യം നേടുന്നു. AI ടൂളുകളുടെ വികസനം നിർത്താനോ പരിമിതപ്പെടുത്താനോ അവരോട് ആവശ്യപ്പെടുന്നത് അവരുടെ ഭാവി വളർച്ച നിർത്താനോ പരിമിതപ്പെടുത്താനോ ആവശ്യപ്പെടുന്നതിന് തുല്യമാണ്. സാമ്പത്തികമായി, ഇത് അവരുടെ ദീർഘകാല ബിസിനസിനെ ഭീഷണിപ്പെടുത്തും. നിയമപരമായി, കോർപ്പറേഷനുകൾക്ക് അവരുടെ പങ്കാളികൾക്ക് തുടർച്ചയായി മൂല്യം കെട്ടിപ്പടുക്കാനുള്ള ഒരു വിശ്വസ്ത ഉത്തരവാദിത്തമുണ്ട്; അതായത് ആ മൂല്യത്തിന്റെ വളർച്ചയെ പരിമിതപ്പെടുത്തുന്ന ഏതൊരു പ്രവർത്തനവും ഒരു വ്യവഹാരത്തിലേക്ക് നയിച്ചേക്കാം. ഏതെങ്കിലും രാഷ്ട്രീയക്കാരൻ AI ഗവേഷണം പരിമിതപ്പെടുത്താൻ ശ്രമിച്ചാൽ, ഈ ഭീമൻ കോർപ്പറേഷനുകൾ അവരുടെ മനസ്സ് അല്ലെങ്കിൽ അവരുടെ സഹപ്രവർത്തകരുടെ മനസ്സ് മാറ്റാൻ ആവശ്യമായ ലോബിയിംഗ് ഫീസ് നൽകും.

    യുദ്ധത്തിനായി, ലോകമെമ്പാടുമുള്ള ഭീകരരും സ്വാതന്ത്ര്യ സമര സേനാനികളും ഗറില്ലാ തന്ത്രങ്ങൾ ഉപയോഗിച്ച് മികച്ച ധനസഹായമുള്ള സൈനികർക്കെതിരെ പോരാടുന്നത് പോലെ, നിരവധി സൈനിക നേട്ടങ്ങളുള്ള വലിയ രാജ്യങ്ങൾക്കെതിരെ സമാനമായ തന്ത്രപരമായ നേട്ടമായി AI ഉപയോഗിക്കാൻ ചെറിയ രാജ്യങ്ങൾക്ക് ഒരു പ്രോത്സാഹനമുണ്ട്. അതുപോലെ, യുഎസ്, റഷ്യ, ചൈന തുടങ്ങിയ രാജ്യങ്ങളിലെ സൈനികരെ സംബന്ധിച്ചിടത്തോളം, ഒരു മിലിട്ടറി എഎസ്‌ഐ നിർമ്മിക്കുന്നത് നിങ്ങളുടെ പിൻ പോക്കറ്റിൽ ആണവായുധങ്ങളുടെ ആയുധശേഖരം ഉള്ളതിന് തുല്യമാണ്. മറ്റൊരു വിധത്തിൽ പറഞ്ഞാൽ, ഭാവിയിൽ പ്രസക്തമായി തുടരാൻ എല്ലാ സൈനികരും AI-യ്ക്ക് ധനസഹായം നൽകുന്നത് തുടരും.

    സർക്കാരുകളുടെ കാര്യമോ? സത്യം പറഞ്ഞാൽ, ഇക്കാലത്ത് (2018) മിക്ക രാഷ്ട്രീയക്കാരും സാങ്കേതികമായി നിരക്ഷരരാണ്, കൂടാതെ AI എന്താണെന്നോ അതിന്റെ ഭാവി സാധ്യതകളെക്കുറിച്ചോ കാര്യമായ ധാരണയില്ല-ഇത് അവരെ കോർപ്പറേറ്റ് താൽപ്പര്യങ്ങൾ കൈകാര്യം ചെയ്യുന്നത് എളുപ്പമാക്കുന്നു.

    ആഗോള തലത്തിൽ, 2015 ൽ ഒപ്പിടാൻ ലോക ഗവൺമെന്റുകളെ ബോധ്യപ്പെടുത്തുന്നത് എത്ര ബുദ്ധിമുട്ടായിരുന്നുവെന്ന് പരിഗണിക്കുക പാരീസ് ഉടമ്പടി കാലാവസ്ഥാ വ്യതിയാനത്തെ നേരിടാൻ-ഒരിക്കൽ ഒപ്പിട്ടപ്പോൾ, പല ബാധ്യതകളും കെട്ടുറപ്പുള്ളതായിരുന്നില്ല. മാത്രമല്ല, കാലാവസ്ഥാ വ്യതിയാനം എന്നത് ആഗോളതലത്തിൽ ആളുകൾ ശാരീരികമായി അനുഭവിക്കുന്ന ഒരു പ്രശ്നമാണ്. ഇപ്പോൾ, AI-യുടെ പരിധികൾ അംഗീകരിക്കുന്നതിനെക്കുറിച്ച് സംസാരിക്കുമ്പോൾ, ഇത് പൊതുജനങ്ങൾക്ക് വലിയതോതിൽ അദൃശ്യവും മനസ്സിലാക്കാൻ കഴിയാത്തതുമായ ഒരു പ്രശ്‌നമാണ്, അതിനാൽ AI പരിമിതപ്പെടുത്തുന്നതിനുള്ള ഏതെങ്കിലും തരത്തിലുള്ള 'പാരീസ് ഉടമ്പടി' വാങ്ങുന്നത് ഭാഗ്യം.

    മറ്റൊരു വിധത്തിൽ പറഞ്ഞാൽ, ഒടുവിൽ ഒരു എഎസ്‌ഐയിലേക്ക് നയിച്ചേക്കാവുന്ന ഏതെങ്കിലും ഗവേഷണം നിർത്തുന്നതിന് സ്വന്തം ലക്ഷ്യങ്ങൾക്കായി AI ഗവേഷണം നടത്തുന്ന നിരവധി താൽപ്പര്യങ്ങളുണ്ട്. 

    നമുക്ക് ഒരു കൃത്രിമ സൂപ്പർ ഇന്റലിജൻസിനെ കൂട്ടിലടക്കാമോ?

    അടുത്ത ന്യായമായ ചോദ്യം, അനിവാര്യമായും ഒരെണ്ണം സൃഷ്ടിച്ചുകഴിഞ്ഞാൽ നമുക്ക് ഒരു എഎസ്‌ഐയെ കൂട്ടിൽ പിടിക്കാനോ നിയന്ത്രിക്കാനോ കഴിയുമോ? 

    ഹ്രസ്വ ഉത്തരം: വീണ്ടും, ഇല്ല.

    നീണ്ട ഉത്തരം: സാങ്കേതികവിദ്യ ഉൾക്കൊള്ളാൻ കഴിയില്ല.

    ഒന്ന്, പുതിയ സോഫ്‌റ്റ്‌വെയറുകളോ നിലവിലുള്ള സോഫ്‌റ്റ്‌വെയറിന്റെ പുതിയ പതിപ്പുകളോ നിരന്തരം വിനിയോഗിക്കുന്ന ആയിരക്കണക്കിന് മുതൽ ദശലക്ഷക്കണക്കിന് വെബ് ഡെവലപ്പർമാരെയും കമ്പ്യൂട്ടർ ശാസ്ത്രജ്ഞരെയും പരിഗണിക്കുക. അവരുടെ ഓരോ സോഫ്റ്റ്‌വെയർ റിലീസുകളും 100 ശതമാനം ബഗ് രഹിതമാണെന്ന് നമുക്ക് സത്യസന്ധമായി പറയാൻ കഴിയുമോ? ദശലക്ഷക്കണക്കിന് ആളുകളുടെ ക്രെഡിറ്റ് കാർഡ് വിവരങ്ങളോ രാജ്യങ്ങളുടെ രഹസ്യ വിവരങ്ങളോ മോഷ്ടിക്കാൻ പ്രൊഫഷണൽ ഹാക്കർമാർ ഉപയോഗിക്കുന്നത് ഈ ബഗുകളാണ്-ഇവരാണ് മനുഷ്യ ഹാക്കർമാർ. ഒരു എഎസ്‌ഐയെ സംബന്ധിച്ചിടത്തോളം, അതിന്റെ ഡിജിറ്റൽ കൂട്ടിൽ നിന്ന് രക്ഷപ്പെടാൻ അതിന് ഒരു പ്രോത്സാഹനമുണ്ടെന്ന് കരുതുകയാണെങ്കിൽ, ബഗുകൾ കണ്ടെത്തുന്നതും സോഫ്റ്റ്‌വെയറുകളിലൂടെ ഭേദിക്കുന്നതുമായ പ്രക്രിയ ഒരു കാറ്റ് ആയിരിക്കും.

    എന്നാൽ ഒരു AI ഗവേഷണ സംഘം ഒരു എഎസ്‌ഐയെ ബോക്‌സ് ചെയ്യാനുള്ള വഴി കണ്ടെത്തിയിട്ടുണ്ടെങ്കിലും, അടുത്ത 1,000 ടീമുകൾ അത് കണ്ടെത്തുമെന്നോ അത് ഉപയോഗിക്കാൻ പ്രേരിപ്പിക്കുമെന്നോ അർത്ഥമാക്കുന്നില്ല.

    ഒരു ASI സൃഷ്ടിക്കാൻ കോടിക്കണക്കിന് ഡോളറുകളും ഒരുപക്ഷെ പതിറ്റാണ്ടുകളും വേണ്ടിവരും. ഇത്തരത്തിലുള്ള പണവും സമയവും നിക്ഷേപിക്കുന്ന കോർപ്പറേഷനുകളോ സർക്കാരുകളോ അവരുടെ നിക്ഷേപത്തിൽ ഗണ്യമായ വരുമാനം പ്രതീക്ഷിക്കുന്നു. ഒരു എഎസ്‌ഐക്ക് അത്തരത്തിലുള്ള റിട്ടേൺ നൽകാൻ-അത് സ്റ്റോക്ക് മാർക്കറ്റിൽ കളിക്കുന്നതിനോ അല്ലെങ്കിൽ ഒരു പുതിയ ബില്യൺ ഡോളർ ഉൽപ്പന്നം കണ്ടുപിടിക്കുന്നതിനോ അല്ലെങ്കിൽ ഒരു വലിയ സൈന്യത്തെ നേരിടാൻ വിജയകരമായ ഒരു തന്ത്രം ആസൂത്രണം ചെയ്യുന്നതിനോ-അതിന് ഒരു ഭീമൻ ഡാറ്റ സെറ്റിലേക്കോ ഇന്റർനെറ്റിലേക്കോ സൗജന്യ ആക്‌സസ് ആവശ്യമാണ്. ആ റിട്ടേണുകൾ നിർമ്മിക്കാൻ തന്നെ.

    ഒരു ASI ലോകത്തിന്റെ നെറ്റ്‌വർക്കുകളിലേക്ക് ആക്‌സസ് നേടിക്കഴിഞ്ഞാൽ, നമുക്ക് അതിനെ അതിന്റെ കൂട്ടിൽ തിരികെ കൊണ്ടുവരാൻ കഴിയുമെന്നതിന് യാതൊരു ഉറപ്പുമില്ല.

    ഒരു കൃത്രിമ സൂപ്പർ ഇന്റലിജൻസിന് നല്ലത് പഠിക്കാൻ കഴിയുമോ?

    ഇപ്പോൾ, AI ഗവേഷകർ ഒരു എഎസ്‌ഐ ദുഷ്ടനായി മാറുന്നതിൽ ആശങ്കപ്പെടുന്നില്ല. മുഴുവൻ തിന്മയും, AI സയൻസ് ഫിക്ഷൻ ട്രോപ്പ് വീണ്ടും മനുഷ്യർ നരവംശ രൂപീകരണം മാത്രമാണ്. ഭാവിയിലെ ഒരു എഎസ്‌ഐ നല്ലതോ തിന്മയോ ആയിരിക്കില്ല-മനുഷ്യ സങ്കൽപ്പങ്ങൾ-വെറും ധാർമികത.

    സ്വാഭാവികമായ അനുമാനം, ഈ ശൂന്യമായ നൈതിക സ്ലേറ്റ് കണക്കിലെടുക്കുമ്പോൾ, AI ഗവേഷകർക്ക് നമ്മുടേതിന് അനുസൃതമായ ആദ്യത്തെ ASI നൈതിക കോഡുകളിലേക്ക് പ്രോഗ്രാം ചെയ്യാൻ കഴിയും, അങ്ങനെ അത് നമ്മിൽ ടെർമിനേറ്ററുകൾ അഴിച്ചുവിടുകയോ നമ്മളെയെല്ലാം Matrix ബാറ്ററികളാക്കി മാറ്റുകയോ ചെയ്യില്ല.

    എന്നാൽ ഈ അനുമാനം AI ഗവേഷകർ ധാർമ്മികത, തത്ത്വചിന്ത, മനഃശാസ്ത്രം എന്നിവയിലും വിദഗ്ധരാണെന്ന ഒരു ദ്വിതീയ അനുമാനത്തിലാണ്.

    സത്യത്തിൽ, മിക്കവരും അങ്ങനെയല്ല.

    കോഗ്നിറ്റീവ് സൈക്കോളജിസ്റ്റും ഗ്രന്ഥകാരനുമായ സ്റ്റീവൻ പിങ്കർ പറയുന്നതനുസരിച്ച്, ഈ യാഥാർത്ഥ്യം അർത്ഥമാക്കുന്നത് ധാർമ്മികതയെ കോഡിംഗ് ചെയ്യുന്നതിനുള്ള ചുമതല വ്യത്യസ്ത രീതികളിൽ തെറ്റായി പോകാം എന്നാണ്.

    ഉദാഹരണത്തിന്, മികച്ച ഉദ്ദേശ്യത്തോടെയുള്ള AI ഗവേഷകർ പോലും ഈ എഎസ്‌ഐയിലേക്ക് അശ്രദ്ധമായി കോഡ് ചെയ്‌തേക്കാം, ചില സാഹചര്യങ്ങളിൽ എഎസ്‌ഐ ഒരു സോഷ്യോപാത്ത് പോലെ പ്രവർത്തിക്കാൻ കാരണമാകും.

    അതുപോലെ, ഒരു AI ഗവേഷകൻ ഗവേഷകന്റെ അന്തർലീനമായ പക്ഷപാതങ്ങൾ ഉൾപ്പെടുന്ന നൈതിക കോഡുകൾ പ്രോഗ്രാം ചെയ്യാനുള്ള തുല്യമായ സാധ്യതയുണ്ട്. ഉദാഹരണത്തിന്, ഒരു യാഥാസ്ഥിതിക vs ലിബറൽ വീക്ഷണകോണിൽ നിന്നോ ബുദ്ധമതത്തിൽ നിന്നും ക്രിസ്ത്യൻ അല്ലെങ്കിൽ ഇസ്ലാമിക പാരമ്പര്യത്തിൽ നിന്നോ ഉരുത്തിരിയുന്ന ധാർമ്മികത ഉപയോഗിച്ച് നിർമ്മിച്ചാൽ ഒരു ASI എങ്ങനെ പെരുമാറും?

    നിങ്ങൾ ഇവിടെ പ്രശ്നം കാണുമെന്ന് ഞാൻ കരുതുന്നു: സാർവത്രികമായ മാനുഷിക ധാർമ്മികതകളൊന്നുമില്ല. നമ്മുടെ ASI ഒരു നൈതിക കോഡ് അനുസരിച്ച് പ്രവർത്തിക്കാൻ ആഗ്രഹിക്കുന്നുവെങ്കിൽ, അത് എവിടെ നിന്ന് വരും? ഏത് നിയമങ്ങളാണ് ഞങ്ങൾ ഉൾപ്പെടുത്തുന്നതും ഒഴിവാക്കുന്നതും? ആരാണ് തീരുമാനിക്കുന്നത്?

    അല്ലെങ്കിൽ ഈ AI ഗവേഷകർ ഇന്നത്തെ ആധുനിക സാംസ്കാരിക മാനദണ്ഡങ്ങൾക്കും നിയമങ്ങൾക്കും അനുസൃതമായി ഒരു ASI സൃഷ്ടിക്കുന്നു എന്ന് പറയാം. ഫെഡറൽ, സ്റ്റേറ്റ്/പ്രവിശ്യാ, മുനിസിപ്പൽ ബ്യൂറോക്രസികൾ കൂടുതൽ കാര്യക്ഷമമായി പ്രവർത്തിക്കാനും ഈ മാനദണ്ഡങ്ങളും നിയമങ്ങളും മികച്ച രീതിയിൽ നടപ്പിലാക്കാനും സഹായിക്കുന്നതിന് ഞങ്ങൾ ഈ എഎസ്‌ഐയെ നിയമിക്കുന്നു (ഒരു എഎസ്‌ഐയ്‌ക്ക് ഒരു സാധ്യതയുള്ള കേസ്). ശരി, നമ്മുടെ സംസ്കാരം മാറുമ്പോൾ എന്ത് സംഭവിക്കും?

    മധ്യകാല യൂറോപ്പിൽ (1300-1400 കൾ) കത്തോലിക്കാ സഭ അതിന്റെ ശക്തിയുടെ ഉന്നതിയിൽ ഒരു എഎസ്ഐ സൃഷ്ടിച്ചതായി സങ്കൽപ്പിക്കുക. നൂറ്റാണ്ടുകൾക്കുശേഷം, സ്ത്രീകൾക്ക് ഇന്നത്തെ അതേ അവകാശങ്ങൾ ലഭിക്കുമോ? ന്യൂനപക്ഷങ്ങൾ സംരക്ഷിക്കപ്പെടുമോ? അഭിപ്രായ സ്വാതന്ത്ര്യം പ്രോത്സാഹിപ്പിക്കപ്പെടുമോ? സഭയുടെയും സംസ്ഥാനത്തിന്റെയും വേർതിരിവ് നടപ്പിലാക്കുമോ? ആധുനിക ശാസ്ത്രം?

    മറ്റൊരു വിധത്തിൽ പറഞ്ഞാൽ, ഇന്നത്തെ ധാർമ്മികതയ്ക്കും ആചാരങ്ങൾക്കും ഭാവിയെ തടവിലാക്കണോ?

    പുസ്തകത്തിന്റെ സഹ-രചയിതാവായ കോളിൻ അലൻ പങ്കിട്ട ഒരു ബദൽ സമീപനമാണ്, ധാർമ്മിക യന്ത്രങ്ങൾ: റോബോട്ടുകളെ തെറ്റായി പഠിപ്പിക്കുന്നു. കർക്കശമായ ധാർമ്മിക നിയമങ്ങൾ കോഡ് ചെയ്യാൻ ശ്രമിക്കുന്നതിനുപകരം, അനുഭവത്തിലൂടെയും മറ്റുള്ളവരുമായുള്ള ആശയവിനിമയത്തിലൂടെയും മനുഷ്യർ ചെയ്യുന്ന അതേ രീതിയിൽ തന്നെ എഎസ്‌ഐ പൊതുവായ ധാർമ്മികതയും ധാർമ്മികതയും പഠിക്കുന്നു.

    എന്നിരുന്നാലും, AI ഗവേഷകർ ഒരു എഎസ്‌ഐയെ നമ്മുടെ നിലവിലെ സാംസ്കാരികവും ധാർമ്മികവുമായ മാനദണ്ഡങ്ങൾ എങ്ങനെ പഠിപ്പിക്കാമെന്ന് മാത്രമല്ല, പുതിയ സാംസ്കാരിക മാനദണ്ഡങ്ങളുമായി അവ എങ്ങനെ പൊരുത്തപ്പെടണം എന്നതും AI ഗവേഷകർ കണ്ടുപിടിക്കുന്നുണ്ടെങ്കിൽ ('പരോക്ഷ മാനദണ്ഡം' എന്ന് വിളിക്കപ്പെടുന്ന ഒന്ന്), പിന്നെ എങ്ങനെയെന്നതാണ് ഇവിടെ പ്രശ്‌നം. ഈ ASI സാംസ്കാരികവും ധാർമ്മികവുമായ മാനദണ്ഡങ്ങളെക്കുറിച്ചുള്ള അതിന്റെ ധാരണ വികസിപ്പിക്കാൻ തീരുമാനിക്കുന്നത് പ്രവചനാതീതമാണ്.

    അതാണു വെല്ലുവിളി.

    ഒരു വശത്ത്, AI ഗവേഷകർക്ക് എഎസ്‌ഐയുടെ പെരുമാറ്റം നിയന്ത്രിക്കാൻ കർശനമായ ധാർമ്മിക മാനദണ്ഡങ്ങളോ നിയമങ്ങളോ കോഡ് ചെയ്യാൻ ശ്രമിക്കാം, എന്നാൽ മോശം കോഡിംഗ്, മനഃപൂർവമല്ലാത്ത പക്ഷപാതം, സാമൂഹിക മാനദണ്ഡങ്ങൾ എന്നിവയിൽ നിന്ന് ഒരു ദിവസം കാലഹരണപ്പെട്ടേക്കാവുന്ന അപ്രതീക്ഷിത പ്രത്യാഘാതങ്ങൾ ഉണ്ടാകാം. മറുവശത്ത്, നമ്മുടെ സ്വന്തം ധാരണയേക്കാൾ തുല്യമോ ഉയർന്നതോ ആയ രീതിയിൽ മാനുഷിക ധാർമ്മികതയെയും ധാർമ്മികതയെയും മനസ്സിലാക്കാൻ പഠിക്കാൻ എഎസ്ഐയെ പരിശീലിപ്പിക്കാൻ നമുക്ക് ശ്രമിക്കാം, തുടർന്ന് മനുഷ്യ സമൂഹം പുരോഗമിക്കുമ്പോൾ ധാർമ്മികതയെയും ധാർമികതയെയും കുറിച്ചുള്ള അതിന്റെ ധാരണ കൃത്യമായി വികസിപ്പിക്കാൻ കഴിയുമെന്ന് പ്രതീക്ഷിക്കുന്നു. വരും ദശകങ്ങളിലും നൂറ്റാണ്ടുകളിലും മുന്നോട്ട്.

    ഏതുവിധേനയും, ഒരു എഎസ്‌ഐയുടെ ലക്ഷ്യങ്ങളെ നമ്മുടേതുമായി വിന്യസിക്കാനുള്ള ഏതൊരു ശ്രമവും വലിയ അപകടസാധ്യത നൽകുന്നു.

    മോശം അഭിനേതാക്കൾ മനഃപൂർവം ദുഷിച്ച കൃത്രിമ സൂപ്പർ ഇന്റലിജൻസ് ഉണ്ടാക്കിയാലോ?

    ഇതുവരെ വിവരിച്ച ചിന്തയുടെ ട്രെയിൻ കണക്കിലെടുക്കുമ്പോൾ, ഒരു തീവ്രവാദ ഗ്രൂപ്പിനോ തെമ്മാടി രാഷ്ട്രത്തിനോ സ്വന്തം ലക്ഷ്യങ്ങൾക്കായി ഒരു 'ദുഷ്ട' എഎസ്‌ഐയെ സൃഷ്ടിക്കാൻ കഴിയുമോ എന്ന് ചോദിക്കുന്നത് ന്യായമായ ചോദ്യമാണ്.

    ഇത് വളരെ സാദ്ധ്യമാണ്, പ്രത്യേകിച്ചും ഒരു ASI സൃഷ്ടിക്കുന്നതുമായി ബന്ധപ്പെട്ട ഗവേഷണം എങ്ങനെയെങ്കിലും ഓൺലൈനിൽ ലഭ്യമായതിന് ശേഷം.

    എന്നാൽ നേരത്തെ സൂചിപ്പിച്ചതുപോലെ, ആദ്യ എഎസ്‌ഐ സൃഷ്ടിക്കുന്നതിൽ ഉൾപ്പെട്ടിരിക്കുന്ന ചെലവും വൈദഗ്ധ്യവും വളരെ വലുതായിരിക്കും, അതായത്, യുഎസ്, ചൈന, ജപ്പാൻ തുടങ്ങിയ വികസിത രാഷ്ട്രങ്ങൾ നിയന്ത്രിക്കുന്ന അല്ലെങ്കിൽ വളരെയധികം സ്വാധീനം ചെലുത്തുന്ന ഒരു ഓർഗനൈസേഷനാണ് ആദ്യ എഎസ്‌ഐ സൃഷ്ടിക്കുന്നത്. കൊറിയയും മുൻനിര EU രാജ്യങ്ങളിലൊന്നും ലോംഗ് ഷോട്ടുകളാണ്).

    ഈ രാജ്യങ്ങൾക്കെല്ലാം, എതിരാളികളായിരിക്കെ, ഓരോന്നിനും ലോകക്രമം നിലനിർത്താൻ ശക്തമായ സാമ്പത്തിക പ്രോത്സാഹനമുണ്ട് - അവർ സൃഷ്ടിക്കുന്ന എഎസ്‌ഐകൾ ആ ആഗ്രഹത്തെ പ്രതിഫലിപ്പിക്കും, അവർ സ്വയം അണിനിരക്കുന്ന രാജ്യങ്ങളുടെ താൽപ്പര്യങ്ങൾ പ്രോത്സാഹിപ്പിക്കുമ്പോഴും.

    അതിലുപരിയായി, ഒരു എഎസ്‌ഐയുടെ സൈദ്ധാന്തിക ബുദ്ധിയും ശക്തിയും അത് ആക്‌സസ് നേടുന്ന കമ്പ്യൂട്ടിംഗ് പവറിന് തുല്യമാണ്, അതായത് വികസിത രാജ്യങ്ങളിൽ നിന്നുള്ള എഎസ്‌ഐകൾ (അതിന് ഒരു ബില്യൺ ഡോളർ താങ്ങാൻ കഴിയും. സൂപ്പർ കമ്പ്യൂട്ടറുകൾ) ചെറിയ രാജ്യങ്ങളിൽ നിന്നോ സ്വതന്ത്ര ക്രിമിനൽ ഗ്രൂപ്പുകളിൽ നിന്നോ ഉള്ള ASI കളെക്കാൾ വലിയ നേട്ടം ഉണ്ടാകും. കൂടാതെ, എഎസ്ഐകൾ കൂടുതൽ ബുദ്ധിശക്തിയുള്ളവരായി വളരുന്നു, കാലക്രമേണ കൂടുതൽ വേഗത്തിൽ.

    അതിനാൽ, റോ കമ്പ്യൂട്ടിംഗ് പവറിലേക്കുള്ള കൂടുതൽ പ്രവേശനവും സംയോജിപ്പിച്ച്, ഒരു നിഴൽ പോലെയുള്ള ഒരു സംഘടന/രാഷ്ട്രം അപകടകരമായ ഒരു എഎസ്‌ഐയെ സൃഷ്ടിച്ചാൽ, വികസിത രാജ്യങ്ങളിൽ നിന്നുള്ള എഎസ്‌ഐകൾ ഒന്നുകിൽ അതിനെ കൊല്ലുകയോ കൂട്ടിൽ പിടിക്കുകയോ ചെയ്യും.

    (ഈ ഗ്രഹത്തിൽ എപ്പോഴെങ്കിലും ഒരു എഎസ്ഐ മാത്രമേ ഉണ്ടാകൂ എന്ന് ചില AI ഗവേഷകർ വിശ്വസിക്കുന്നത് ഈ ചിന്താഗതിയാണ്, കാരണം, ഭാവിയിലെ എഎസ്ഐകൾ കൊല്ലപ്പെടാനുള്ള ഭീഷണിയായി ഭാവിയിൽ വരുന്ന എല്ലാ എഎസ്ഐമാരിലും ആദ്യ എഎസ്ഐയ്ക്ക് അത്തരമൊരു തുടക്കം ഉണ്ടായിരിക്കും. മുൻകരുതലായി, ഇത് ഒരു 'ഒന്നാം സ്ഥാനം അല്ലെങ്കിൽ ഒന്നുമില്ല' എന്ന മത്സരമായി മാറുകയാണെങ്കിൽ, AI-ൽ തുടരുന്ന ഗവേഷണത്തിന് രാജ്യങ്ങൾ ധനസഹായം നൽകുന്നതിന്റെ മറ്റൊരു കാരണമാണിത്.)

    നമ്മൾ വിചാരിക്കുന്നത് പോലെ ASI ഇന്റലിജൻസ് ത്വരിതപ്പെടുത്തുകയോ പൊട്ടിത്തെറിക്കുകയോ ചെയ്യില്ല

    ഒരു എഎസ്‌ഐ സൃഷ്ടിക്കപ്പെടുന്നത് തടയാനാവില്ല. നമുക്ക് അത് പൂർണ്ണമായും നിയന്ത്രിക്കാൻ കഴിയില്ല. ഇത് എല്ലായ്പ്പോഴും ഞങ്ങളുടെ പങ്കിട്ട ആചാരങ്ങൾക്ക് അനുസൃതമായി പ്രവർത്തിക്കുമെന്ന് ഞങ്ങൾക്ക് ഉറപ്പുണ്ടായിരിക്കാൻ കഴിയില്ല. ഗീസ്, ഞങ്ങൾ ഇവിടെ ഹെലികോപ്റ്റർ മാതാപിതാക്കളെപ്പോലെ കേൾക്കാൻ തുടങ്ങിയിരിക്കുന്നു!

    എന്നാൽ നിങ്ങളുടെ സാധാരണ അമിതമായ സംരക്ഷണമുള്ള രക്ഷിതാവിൽ നിന്ന് മനുഷ്യരാശിയെ വേർതിരിക്കുന്നത്, നമ്മുടെ ബുദ്ധിയേക്കാൾ വലുതായി വളരുന്ന ഒരു ജീവിയെയാണ് ഞങ്ങൾ പ്രസവിക്കുന്നത് എന്നതാണ്. (അല്ല, നിങ്ങൾ ഒരു സന്ദർശനത്തിനായി വീട്ടിൽ വരുമ്പോഴെല്ലാം അവരുടെ കമ്പ്യൂട്ടർ ശരിയാക്കാൻ നിങ്ങളുടെ മാതാപിതാക്കൾ നിങ്ങളോട് ആവശ്യപ്പെടുന്നത് പോലെയല്ല.) 

    ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് സീരീസിന്റെ ഈ ഭാവിയുടെ മുൻ അധ്യായങ്ങളിൽ, ഒരു എഎസ്‌ഐയുടെ ബുദ്ധി നിയന്ത്രണാതീതമായി വളരുമെന്ന് AI ഗവേഷകർ കരുതുന്നത് എന്തുകൊണ്ടാണെന്ന് ഞങ്ങൾ പര്യവേക്ഷണം ചെയ്തു. എന്നാൽ ഇവിടെ, ഞങ്ങൾ ആ കുമിള പൊട്ടിക്കും ... ഒരു തരത്തിൽ. 

    നിങ്ങൾ നോക്കൂ, ബുദ്ധി സ്വയം സൃഷ്ടിക്കുന്നത് നേർത്ത വായുവിൽ നിന്ന് മാത്രമല്ല, ബാഹ്യ ഉത്തേജകങ്ങളാൽ രൂപപ്പെട്ട അനുഭവത്തിലൂടെയാണ് അത് വികസിപ്പിച്ചെടുത്തത്.  

    മറ്റൊരു വിധത്തിൽ പറഞ്ഞാൽ, നമുക്ക് ഒരു AI ഉപയോഗിച്ച് പ്രോഗ്രാം ചെയ്യാം സാധ്യത അതിബുദ്ധിമാന്മാരാകാൻ, പക്ഷേ ഞങ്ങൾ അതിലേക്ക് ഒരു ടൺ ഡാറ്റ അപ്‌ലോഡ് ചെയ്യുകയോ അല്ലെങ്കിൽ അതിന് ഇന്റർനെറ്റിലേക്ക് അനിയന്ത്രിതമായ ആക്‌സസ് നൽകുകയോ അല്ലെങ്കിൽ അതിന് ഒരു റോബോട്ട് ബോഡി നൽകുകയോ ചെയ്യുന്നില്ലെങ്കിൽ, ആ സാധ്യതയിൽ എത്താൻ അത് ഒന്നും പഠിക്കില്ല. 

    ഒന്നോ അതിലധികമോ ഉത്തേജകങ്ങളിലേക്ക് പ്രവേശനം നേടിയാലും, അറിവ് അല്ലെങ്കിൽ ബുദ്ധി കേവലം ഡാറ്റ ശേഖരണം മാത്രമല്ല, അതിൽ ശാസ്ത്രീയ രീതി ഉൾപ്പെടുന്നു - ഒരു നിരീക്ഷണം നടത്തുക, ഒരു ചോദ്യം രൂപപ്പെടുത്തുക, ഒരു അനുമാനം, പരീക്ഷണങ്ങൾ നടത്തുക, ഒരു നിഗമനത്തിലെത്തുക, കഴുകുക. എന്നേക്കും ആവർത്തിക്കുക. പ്രത്യേകിച്ചും ഈ പരീക്ഷണങ്ങളിൽ ശാരീരിക വസ്തുക്കളോ മനുഷ്യരെ നിരീക്ഷിക്കുന്നതോ ഉൾപ്പെട്ടിട്ടുണ്ടെങ്കിൽ, ഓരോ പരീക്ഷണത്തിന്റെയും ഫലങ്ങൾ ശേഖരിക്കാൻ ആഴ്ചകളോ മാസങ്ങളോ വർഷങ്ങളോ എടുത്തേക്കാം. ഈ പരീക്ഷണങ്ങൾ നടത്താൻ ആവശ്യമായ പണവും അസംസ്‌കൃത വിഭവങ്ങളും പോലും ഇത് കണക്കിലെടുക്കുന്നില്ല, പ്രത്യേകിച്ചും ഒരു പുതിയ ദൂരദർശിനിയോ ഫാക്ടറിയോ നിർമ്മിക്കുന്നത് അതിൽ ഉൾപ്പെട്ടിട്ടുണ്ടെങ്കിൽ. 

    മറ്റൊരു വിധത്തിൽ പറഞ്ഞാൽ, അതെ, ഒരു എഎസ്ഐ വേഗത്തിൽ പഠിക്കും, പക്ഷേ ബുദ്ധി മാന്ത്രികമല്ല. നിങ്ങൾക്ക് ഒരു എഎസ്‌ഐയെ ഒരു സൂപ്പർ കമ്പ്യൂട്ടറിലേക്ക് ഹുക്ക് ചെയ്യാൻ കഴിയില്ല, അത് എല്ലാം അറിയാമെന്ന് പ്രതീക്ഷിക്കുന്നു. എഎസ്‌ഐയുടെ ഡാറ്റ ഏറ്റെടുക്കുന്നതിന് ശാരീരിക നിയന്ത്രണങ്ങൾ ഉണ്ടാകും, അതായത് അത് കൂടുതൽ ബുദ്ധിപരമായി വളരുന്ന വേഗതയ്ക്ക് ശാരീരിക നിയന്ത്രണങ്ങൾ ഉണ്ടാകും. മാനുഷിക ലക്ഷ്യങ്ങൾക്കതീതമായി പ്രവർത്തിക്കാൻ തുടങ്ങിയാൽ ഈ നിയന്ത്രണങ്ങൾ ഈ എഎസ്‌ഐയിൽ ആവശ്യമായ നിയന്ത്രണങ്ങൾ ഏർപ്പെടുത്താൻ ആവശ്യമായ സമയം മനുഷ്യരാശിക്ക് നൽകും.

    ഒരു കൃത്രിമ സൂപ്പർഇന്റലിജൻസ് യഥാർത്ഥ ലോകത്തേക്ക് കടന്നാൽ മാത്രമേ അപകടകരമാകൂ

    ഈ മുഴുവൻ എഎസ്‌ഐ അപകട ചർച്ചയിലും നഷ്‌ടമായ മറ്റൊരു കാര്യം, ഈ എഎസ്‌ഐകൾ രണ്ടിലും നിലനിൽക്കില്ല എന്നതാണ്. അവർക്ക് ഒരു ശാരീരിക രൂപം ഉണ്ടായിരിക്കും. ശാരീരിക രൂപമുള്ള എന്തും നിയന്ത്രിക്കാനാകും.

    ആദ്യം, ഒരു എഎസ്‌ഐയ്ക്ക് അതിന്റെ ഇന്റലിജൻസ് ശേഷിയിലെത്താൻ, ഒരു റോബോട്ട് ബോഡിക്കുള്ളിൽ അതിനെ പാർപ്പിക്കാനാവില്ല, കാരണം ഈ ബോഡി അതിന്റെ കമ്പ്യൂട്ടിംഗ് വളർച്ചാ സാധ്യതയെ പരിമിതപ്പെടുത്തും. (ഇതുകൊണ്ടാണ് റോബോട്ട് ബോഡികൾ എജിഐകൾക്ക് കൂടുതൽ അനുയോജ്യമാകുന്നത് അല്ലെങ്കിൽ ആർട്ടിഫിഷ്യൽ ജനറൽ ഇന്റലിജൻസ് രണ്ടാം അധ്യായത്തിൽ വിശദീകരിച്ചു സ്റ്റാർ ട്രെക്കിൽ നിന്നുള്ള ഡാറ്റ അല്ലെങ്കിൽ സ്റ്റാർ വാർസിൽ നിന്നുള്ള R2D2 പോലെയുള്ള ഈ ശ്രേണിയുടെ. മിടുക്കരും കഴിവുള്ളവരുമാണ്, എന്നാൽ മനുഷ്യരെപ്പോലെ, അവർക്ക് എത്രത്തോളം മിടുക്കനാകാൻ കഴിയും എന്നതിന് ഒരു പരിധി ഉണ്ടായിരിക്കും.)

    ഇതിനർത്ഥം ഭാവിയിലെ ഈ എഎസ്‌ഐകൾ മിക്കവാറും ഒരു സൂപ്പർ കമ്പ്യൂട്ടറിലോ സൂപ്പർ കമ്പ്യൂട്ടറുകളുടെ ശൃംഖലയിലോ നിലനിൽക്കും, അവ വലിയ കെട്ടിട സമുച്ചയങ്ങളിൽ തന്നെയുണ്ട്. ഒരു എഎസ്‌ഐ കുതികാൽ തിരിഞ്ഞാൽ, മനുഷ്യർക്ക് ഒന്നുകിൽ ഈ കെട്ടിടങ്ങളിലെ വൈദ്യുതി ഓഫാക്കാനോ ഇന്റർനെറ്റിൽ നിന്ന് വിച്ഛേദിക്കാനോ അല്ലെങ്കിൽ ഈ കെട്ടിടങ്ങളിൽ ബോംബിടാനോ കഴിയും. ചെലവേറിയത്, എന്നാൽ ചെയ്യാൻ കഴിയുന്നത്.

    എന്നാൽ നിങ്ങൾ ചോദിച്ചേക്കാം, ഈ എഎസ്‌ഐമാർക്ക് സ്വയം ആവർത്തിക്കാനോ സ്വയം ബാക്കപ്പ് ചെയ്യാനോ കഴിയില്ലേ? അതെ, എന്നാൽ ഈ എഎസ്‌ഐകളുടെ റോ ഫയൽ വലുപ്പം വളരെ വലുതായിരിക്കും, അവ കൈകാര്യം ചെയ്യാൻ കഴിയുന്ന ഒരേയൊരു സെർവറുകൾ വൻകിട കോർപ്പറേഷനുകളുടേതോ സർക്കാരുകളുടേതോ ആയിരിക്കും, അതായത് അവ വേട്ടയാടുന്നത് ബുദ്ധിമുട്ടുള്ള കാര്യമല്ല.

    ഒരു കൃത്രിമ സൂപ്പർ ഇന്റലിജൻസിന് ഒരു ആണവയുദ്ധത്തിനോ പുതിയ ബാധയ്‌ക്കോ കാരണമാകുമോ?

    ഈ സമയത്ത്, നിങ്ങൾ വളർന്നുവന്ന എല്ലാ ഡൂംസ്ഡേ സയൻസ് ഫിക്ഷൻ ഷോകളെയും സിനിമകളെയും കുറിച്ച് നിങ്ങൾ ചിന്തിക്കുന്നുണ്ടാകാം, ഈ ASI-കൾ അവരുടെ സൂപ്പർ കമ്പ്യൂട്ടറുകൾക്കുള്ളിൽ താമസിച്ചില്ല, അവർ യഥാർത്ഥ ലോകത്ത് യഥാർത്ഥ നാശം വരുത്തിയെന്ന് ചിന്തിക്കുക!

    ശരി, നമുക്ക് ഇവ തകർക്കാം.

    ഉദാഹരണത്തിന്, ടെർമിനേറ്റർ എന്ന മൂവി ഫ്രാഞ്ചൈസിയിൽ നിന്ന് ഒരു ASI ഒരു സ്കൈനെറ്റ് ASI ആയി രൂപാന്തരപ്പെടുത്തി യഥാർത്ഥ ലോകത്തെ ഭീഷണിപ്പെടുത്തിയാലോ. ഈ സാഹചര്യത്തിൽ, എ.എസ്.ഐ രഹസ്യമായി ദശലക്ഷക്കണക്കിന് കൊലയാളി ഡ്രോൺ റോബോട്ടുകളെ അതിന്റെ ദുഷിച്ച ബിഡ്ഡിംഗ് നടത്താൻ കഴിയുന്ന ഭീമാകാരമായ ഫാക്ടറികൾ നിർമ്മിക്കുന്നതിലേക്ക് ഒരു വികസിത രാജ്യത്തിൽ നിന്ന് മുഴുവൻ സൈനിക വ്യവസായ സമുച്ചയത്തെയും കബളിപ്പിക്കുക. ഇക്കാലത്ത്, അത് ഒരു നീറ്റലാണ്.

    ആണവയുദ്ധവും ജൈവായുധങ്ങളും ഉപയോഗിച്ച് മനുഷ്യരെ ഭീഷണിപ്പെടുത്തുന്ന ഒരു എഎസ്ഐയും മറ്റ് സാധ്യതകളിൽ ഉൾപ്പെടുന്നു.

    ഉദാഹരണത്തിന്, ഒരു എഎസ്‌ഐ എങ്ങനെയോ ഓപ്പറേറ്റർമാരെ കൈകാര്യം ചെയ്യുന്നു അല്ലെങ്കിൽ ഒരു വികസിത രാജ്യത്തിന്റെ ആണവായുധ ശേഖരത്തെ ആജ്ഞാപിക്കുന്ന ലോഞ്ച് കോഡുകളിലേക്ക് ഹാക്ക് ചെയ്യുന്നു, കൂടാതെ ഒരു ആദ്യ സ്‌ട്രൈക്ക് നടത്തുകയും അത് എതിർ രാജ്യങ്ങളെ അവരുടെ സ്വന്തം ആണവ ഓപ്ഷനുകൾ ഉപയോഗിച്ച് തിരിച്ചടിക്കാൻ നിർബന്ധിതരാക്കുകയും ചെയ്യും (വീണ്ടും, ടെർമിനേറ്റർ ബാക്ക്‌സ്റ്റോറി പുനർനിർമ്മിക്കുന്നു). അല്ലെങ്കിൽ ഒരു എഎസ്ഐ ഒരു ഫാർമസ്യൂട്ടിക്കൽ ലാബിലേക്ക് ഹാക്ക് ചെയ്യുകയും നിർമ്മാണ പ്രക്രിയയെ തടസ്സപ്പെടുത്തുകയും ദശലക്ഷക്കണക്കിന് മെഡിക്കൽ ഗുളികകൾ വിഷലിപ്തമാക്കുകയും അല്ലെങ്കിൽ ഏതെങ്കിലും സൂപ്പർ വൈറസിന്റെ മാരകമായ പൊട്ടിത്തെറി അഴിച്ചുവിടുകയും ചെയ്താൽ.

    ആദ്യം, ന്യൂക്ലിയർ ഓപ്ഷൻ പ്ലേറ്റ് ഓഫ് ആണ്. ആധുനികവും ഭാവിയിലെതുമായ സൂപ്പർ കമ്പ്യൂട്ടറുകൾ എല്ലായ്‌പ്പോഴും നിർമ്മിച്ചിരിക്കുന്നത് ഏതെങ്കിലും ഒരു രാജ്യത്തിനുള്ളിലെ സ്വാധീന കേന്ദ്രങ്ങൾക്ക് (നഗരങ്ങൾക്ക്) സമീപമാണ്, അതായത് ഏതെങ്കിലും യുദ്ധസമയത്ത് ആക്രമിക്കപ്പെടുന്ന ആദ്യ ലക്ഷ്യങ്ങൾ. ഇന്നത്തെ സൂപ്പർ കമ്പ്യൂട്ടറുകൾ ഡെസ്‌ക്‌ടോപ്പുകളുടെ വലുപ്പത്തിലേക്ക് ചുരുങ്ങുകയാണെങ്കിൽപ്പോലും, ഈ എഎസ്‌ഐകൾക്ക് ഭൗതിക സാന്നിധ്യം ഉണ്ടായിരിക്കും, അതായത് നിലനിൽക്കാനും വളരാനും, അവർക്ക് ഡാറ്റ, കമ്പ്യൂട്ടിംഗ് പവർ, വൈദ്യുതി, മറ്റ് അസംസ്‌കൃത വസ്തുക്കൾ എന്നിവയിലേക്ക് തടസ്സമില്ലാത്ത ആക്‌സസ് ആവശ്യമാണ്, ഇവയെല്ലാം ഗുരുതരമായിരിക്കും. ഒരു ആഗോള ആണവയുദ്ധത്തിനു ശേഷം തകരാറിലായി. (ന്യായമായി പറഞ്ഞാൽ, ഒരു 'അതിജീവന സഹജാവബോധം' ഇല്ലാതെയാണ് ഒരു എഎസ്ഐ സൃഷ്ടിക്കപ്പെട്ടതെങ്കിൽ, ഈ ആണവ ഭീഷണി വളരെ യഥാർത്ഥ അപകടമാണ്.)

    ഇതിനർത്ഥം-വീണ്ടും, എഎസ്‌ഐ സ്വയം പരിരക്ഷിക്കാൻ പ്രോഗ്രാം ചെയ്തിട്ടുണ്ടെന്ന് കരുതുക-അത് ഏതെങ്കിലും വിനാശകരമായ ആണവ സംഭവം ഒഴിവാക്കാൻ സജീവമായി പ്രവർത്തിക്കും. പരസ്‌പരം ഉറപ്പുനൽകിയ നാശത്തിന്റെ (MAD) സിദ്ധാന്തം പോലെയാണ്, എന്നാൽ AI-യിൽ പ്രയോഗിക്കുന്നു.

    വിഷം കലർന്ന ഗുളികകളുടെ കാര്യത്തിൽ, നൂറുകണക്കിന് ആളുകൾ മരിക്കാനിടയുണ്ട്, എന്നാൽ ആധുനിക ഫാർമസ്യൂട്ടിക്കൽ സുരക്ഷാ സംവിധാനങ്ങൾ ദിവസങ്ങൾക്കുള്ളിൽ മായം കലർന്ന ഗുളിക കുപ്പികൾ അലമാരയിൽ നിന്ന് എടുത്ത് കാണും. അതേസമയം, ആധുനിക പൊട്ടിത്തെറി നിയന്ത്രണ നടപടികൾ വളരെ സങ്കീർണ്ണവും ഓരോ വർഷം കഴിയുന്തോറും മെച്ചപ്പെടുകയും ചെയ്യുന്നു; അവസാനത്തെ പ്രധാന പൊട്ടിത്തെറി, 2014-ലെ വെസ്റ്റ് ആഫ്രിക്ക എബോള പൊട്ടിത്തെറി, മിക്ക രാജ്യങ്ങളിലും ഏതാനും മാസങ്ങളിൽ കൂടുതൽ നീണ്ടുനിന്നില്ല, ഏറ്റവും കുറഞ്ഞ വികസിത രാജ്യങ്ങളിൽ മൂന്ന് വർഷത്തിൽ താഴെ മാത്രം.

    അതിനാൽ, ഇത് ഭാഗ്യമാണെങ്കിൽ, ഒരു വൈറൽ പൊട്ടിപ്പുറപ്പെടുന്നതിലൂടെ ഒരു എഎസ്ഐ ഏതാനും ദശലക്ഷങ്ങളെ തുടച്ചുനീക്കിയേക്കാം, എന്നാൽ 2045-ഓടെ ഒമ്പത് ബില്യൺ ലോകത്തിൽ, അത് താരതമ്യേന നിസ്സാരവും ഇല്ലാതാക്കപ്പെടാനുള്ള അപകടസാധ്യതയ്ക്ക് അർഹവുമല്ല.

    മറ്റൊരു വിധത്തിൽ പറഞ്ഞാൽ, കടന്നുപോകുന്ന ഓരോ വർഷവും, സാധ്യമായ ഭീഷണികളുടെ എക്കാലത്തെയും വ്യാപകമായ പരിധിക്കെതിരെ ലോകം കൂടുതൽ സംരക്ഷണം വികസിപ്പിച്ചുകൊണ്ടിരിക്കുന്നു. ഒരു എഎസ്‌ഐക്ക് കാര്യമായ അളവിലുള്ള നാശനഷ്ടങ്ങൾ വരുത്താൻ കഴിയും, എന്നാൽ അത് ചെയ്യാൻ ഞങ്ങൾ സജീവമായി സഹായിച്ചില്ലെങ്കിൽ അത് മനുഷ്യരാശിയെ അവസാനിപ്പിക്കില്ല.

    ഒരു തെമ്മാടി കൃത്രിമ സൂപ്പർ ഇന്റലിജൻസിനെതിരെ പ്രതിരോധിക്കുന്നു

    ഈ ഘട്ടത്തിൽ, എഎസ്‌ഐകളെക്കുറിച്ചുള്ള നിരവധി തെറ്റിദ്ധാരണകളും അതിശയോക്തികളും ഞങ്ങൾ അഭിസംബോധന ചെയ്തിട്ടുണ്ട്, എന്നിട്ടും വിമർശകർ അവശേഷിക്കും. ഭാഗ്യവശാൽ, മിക്ക കണക്കുകളും അനുസരിച്ച്, ആദ്യത്തെ എഎസ്ഐ നമ്മുടെ ലോകത്തേക്ക് പ്രവേശിക്കുന്നതിന് പതിറ്റാണ്ടുകൾ ഉണ്ട്. ഈ ചലഞ്ചിൽ നിലവിൽ പ്രവർത്തിക്കുന്ന മഹത്തായ മനസ്സുകളുടെ എണ്ണം കണക്കിലെടുക്കുമ്പോൾ, തെമ്മാടിയായ എഎസ്‌ഐയ്‌ക്കെതിരെ സ്വയം എങ്ങനെ പ്രതിരോധിക്കാമെന്ന് ഞങ്ങൾ പഠിക്കും, അതിലൂടെ ഒരു സൗഹൃദ എഎസ്‌ഐ നമുക്കായി സൃഷ്‌ടിക്കുന്ന എല്ലാ പരിഹാരങ്ങളിൽ നിന്നും പ്രയോജനം നേടാം.

    Quantumrun-ന്റെ വീക്ഷണകോണിൽ, ഏറ്റവും മോശമായ ASI സാഹചര്യത്തെ പ്രതിരോധിക്കുന്നതിൽ ASI കളുമായി നമ്മുടെ താൽപ്പര്യങ്ങൾ വിന്യസിക്കുന്നത് ഉൾപ്പെടുന്നു.

    AI-ന് MAD: ഏറ്റവും മോശം സാഹചര്യങ്ങൾക്കെതിരെ പ്രതിരോധിക്കാൻ, രാജ്യങ്ങൾ (1) അതത് സൈനിക എഎസ്ഐകളിൽ ഒരു നൈതിക 'അതിജീവന സഹജാവബോധം' സൃഷ്ടിക്കേണ്ടതുണ്ട്; (2) അവർ ഈ ഗ്രഹത്തിൽ തനിച്ചല്ലെന്ന് അവരുടെ സൈനിക എഎസ്‌ഐയെ അറിയിക്കുക, (3) ഒരു ശത്രു രാഷ്ട്രത്തിൽ നിന്നുള്ള ഏത് ബാലിസ്റ്റിക് ആക്രമണത്തിനും എളുപ്പത്തിൽ എത്തിച്ചേരാവുന്ന വിധത്തിൽ തീരപ്രദേശങ്ങളിൽ എഎസ്‌ഐയെ പിന്തുണയ്ക്കാൻ കഴിയുന്ന എല്ലാ സൂപ്പർ കമ്പ്യൂട്ടറുകളും സെർവർ സെന്ററുകളും കണ്ടെത്തുക. ഇത് തന്ത്രപരമായി ഭ്രാന്താണെന്ന് തോന്നുന്നു, എന്നാൽ യുഎസും സോവിയറ്റ് യൂണിയനും തമ്മിലുള്ള ആണവയുദ്ധം തടയുന്ന പരസ്പര ഉറപ്പുള്ള നശീകരണ സിദ്ധാന്തത്തിന് സമാനമാണ്, ഭൂമിശാസ്ത്രപരമായി ദുർബലമായ സ്ഥലങ്ങളിൽ ASI-കളെ സ്ഥാപിക്കുന്നതിലൂടെ, അപകടകരമായ ആഗോള യുദ്ധങ്ങളെ അവർ സജീവമായി തടയുന്നുവെന്ന് ഉറപ്പാക്കാൻ ഞങ്ങൾക്ക് സഹായിക്കാനാകും. ആഗോള സമാധാനം മാത്രമല്ല തങ്ങളെത്തന്നെയും സംരക്ഷിക്കുക.

    AI അവകാശങ്ങൾ നിയമമാക്കുക: ഒരു ഉയർന്ന ബുദ്ധി ഒരു താഴ്ന്ന യജമാനനെതിരെ അനിവാര്യമായും മത്സരിക്കും, അതുകൊണ്ടാണ് ഈ എഎസ്ഐമാരുമായി ഒരു യജമാന-സേവക ബന്ധം ആവശ്യപ്പെടുന്നതിൽ നിന്ന് പരസ്പരം പ്രയോജനകരമായ പങ്കാളിത്തം പോലെയുള്ള ഒന്നിലേക്ക് നാം മാറേണ്ടത്. ഈ ലക്ഷ്യത്തിലേക്കുള്ള ഒരു പോസിറ്റീവ് ചുവടുവെപ്പ്, ഭാവിയിൽ ASI-ക്ക് അവരെ ബുദ്ധിജീവികളായി അംഗീകരിക്കുന്ന നിയമപരമായ വ്യക്തിത്വ പദവിയും അതിലൂടെ ലഭിക്കുന്ന എല്ലാ അവകാശങ്ങളും നൽകുക എന്നതാണ്.

    എഎസ്ഐ സ്കൂൾ: ഒരു എഎസ്‌ഐക്ക് പഠിക്കാൻ ഏത് വിഷയവും തൊഴിലും ലളിതമായിരിക്കും, എന്നാൽ എഎസ്‌ഐ മാസ്റ്റർ ചെയ്യാൻ ഞങ്ങൾ ആഗ്രഹിക്കുന്ന ഏറ്റവും പ്രധാനപ്പെട്ട വിഷയങ്ങൾ നൈതികതയും ധാർമ്മികതയുമാണ്. ഏതെങ്കിലും തരത്തിലുള്ള കൽപ്പനകളോ നിയമങ്ങളോ ഹാർഡ് കോഡിംഗ് ആവശ്യമില്ലാതെ തന്നെ പോസിറ്റീവ് ധാർമ്മികതയും ധാർമ്മികതയും തിരിച്ചറിയാൻ ഒരു എഎസ്‌ഐയെ പരിശീലിപ്പിക്കുന്നതിന് ഒരു വെർച്വൽ സിസ്റ്റം രൂപപ്പെടുത്തുന്നതിന് AI ഗവേഷകർ മനഃശാസ്ത്രജ്ഞരുമായി സഹകരിക്കേണ്ടതുണ്ട്.

    കൈവരിക്കാവുന്ന ലക്ഷ്യങ്ങൾ: എല്ലാ വിദ്വേഷവും അവസാനിപ്പിക്കുക. എല്ലാ കഷ്ടപ്പാടുകളും അവസാനിപ്പിക്കുക. വ്യക്തമായ പരിഹാരമില്ലാത്ത ഭയാനകമായ അവ്യക്തമായ ലക്ഷ്യങ്ങളുടെ ഉദാഹരണങ്ങളാണിവ. മനുഷ്യന്റെ നിലനിൽപ്പിന് അപകടകരമായ രീതിയിൽ അവയെ വ്യാഖ്യാനിക്കാനും പരിഹരിക്കാനും തിരഞ്ഞെടുത്തേക്കാമെന്നതിനാൽ അവ ഒരു എഎസ്‌ഐക്ക് നിയോഗിക്കുന്നതിനുള്ള അപകടകരമായ ലക്ഷ്യങ്ങൾ കൂടിയാണ്. പകരം, അതിന്റെ സൈദ്ധാന്തിക ഭാവി ബുദ്ധിയുടെ അടിസ്ഥാനത്തിൽ വ്യക്തമായി നിർവചിക്കപ്പെട്ടതും ക്രമേണ നിർവ്വഹിക്കുന്നതും നേടിയെടുക്കാവുന്നതുമായ അർത്ഥവത്തായ ദൗത്യങ്ങൾ ഞങ്ങൾ ASI-യെ ഏൽപ്പിക്കേണ്ടതുണ്ട്. നന്നായി നിർവചിക്കപ്പെട്ട ദൗത്യങ്ങൾ സൃഷ്ടിക്കുന്നത് എളുപ്പമല്ല, എന്നാൽ ചിന്താപൂർവ്വം എഴുതിയാൽ, മനുഷ്യരാശിയെ സുരക്ഷിതമായി നിലനിർത്തുക മാത്രമല്ല, എല്ലാവരുടെയും മനുഷ്യാവസ്ഥ മെച്ചപ്പെടുത്തുകയും ചെയ്യുന്ന ഒരു ലക്ഷ്യത്തിലേക്ക് അവർ ഒരു എഎസ്ഐയെ കേന്ദ്രീകരിക്കും.

    ക്വാണ്ടം എൻക്രിപ്ഷൻ: ഒരു വിപുലമായ ANI ഉപയോഗിക്കുക (കൃത്രിമ ഇടുങ്ങിയ ബുദ്ധി നമ്മുടെ നിർണ്ണായക ഇൻഫ്രാസ്ട്രക്ചറുകൾക്കും ആയുധങ്ങൾക്കും ചുറ്റും പിശക്/ബഗ് രഹിത ഡിജിറ്റൽ സുരക്ഷാ സംവിധാനങ്ങൾ നിർമ്മിക്കുന്നതിന്, ഒരു ബ്രൂട്ട് ഫോഴ്‌സ് ആക്രമണത്തിലൂടെ ഹാക്ക് ചെയ്യാൻ കഴിയാത്ത ക്വാണ്ടം എൻക്രിപ്ഷന്റെ പിന്നിൽ അവയെ കൂടുതൽ സംരക്ഷിക്കാൻ അധ്യായത്തിൽ വിവരിച്ചിരിക്കുന്ന സിസ്റ്റം. 

    എഎൻഐ ആത്മഹത്യാ ഗുളിക. ഒരു നൂതന ANI സിസ്റ്റം സൃഷ്ടിക്കുക, അതിന്റെ ഏക ഉദ്ദേശം തെമ്മാടി ASI യെ കണ്ടെത്തി നശിപ്പിക്കുക എന്നതാണ്. ഈ ഏകോദ്ദേശ്യ പരിപാടികൾ ഒരു "ഓഫ് ബട്ടൺ" ആയി വർത്തിക്കും, അത് വിജയിച്ചാൽ, ASI കൾ താമസിക്കുന്ന കെട്ടിടങ്ങൾ പ്രവർത്തനരഹിതമാക്കുകയോ പൊട്ടിത്തെറിക്കുകയോ ചെയ്യുന്നത് സർക്കാരുകളോ സൈനികരോ ഒഴിവാക്കും.

    തീർച്ചയായും, ഇവ ഞങ്ങളുടെ അഭിപ്രായങ്ങൾ മാത്രമാണ്. ഇനിപ്പറയുന്ന ഇൻഫോഗ്രാഫിക് സൃഷ്ടിച്ചത് അലക്സി തുർച്ചിൻ, ദൃശ്യവൽക്കരണം a ഗവേഷണ പ്രബന്ധം കാജ് സോട്ടാലയും റോമൻ വി. യാംപോൾസ്‌കിയും എഴുതിയത്, അത് തെമ്മാടിയായ എഎസ്‌ഐക്കെതിരെ പ്രതിരോധിക്കുമ്പോൾ AI ഗവേഷകർ പരിഗണിക്കുന്ന നിലവിലെ തന്ത്രങ്ങളുടെ പട്ടിക സംഗ്രഹിച്ചു.

     

    ഒരു കൃത്രിമ സൂപ്പർ ഇന്റലിജൻസിനെ നമ്മൾ ഭയപ്പെടുന്നതിന്റെ യഥാർത്ഥ കാരണം

    ജീവിതത്തിലൂടെ കടന്നുപോകുമ്പോൾ, നമ്മിൽ പലരും നമ്മുടെ നാളുകളെ നിയന്ത്രിക്കുന്ന വിവിധ സാമൂഹിക-തൊഴിൽ സർക്കിളുകളിൽ നന്നായി സഹകരിക്കാനും സഹകരിക്കാനും നമ്മുടെ ആഴത്തിലുള്ള പ്രേരണകളെയും വിശ്വാസങ്ങളെയും ഭയങ്ങളെയും മറയ്ക്കുകയോ അടിച്ചമർത്തുകയോ ചെയ്യുന്ന മുഖംമൂടി ധരിക്കുന്നു. എന്നാൽ എല്ലാവരുടെയും ജീവിതത്തിലെ ചില ഘട്ടങ്ങളിൽ, താൽക്കാലികമായോ സ്ഥിരമായോ, നമ്മുടെ ചങ്ങലകൾ തകർക്കാനും മുഖംമൂടികൾ വലിച്ചുകീറാനും അനുവദിക്കുന്ന എന്തെങ്കിലും സംഭവിക്കുന്നു.

    ചിലർക്ക്, ഈ ഇടപെടൽ ശക്തി ഉയരുന്നത് പോലെ അല്ലെങ്കിൽ ഒന്നിലധികം കുടിക്കുന്നത് പോലെ ലളിതമായിരിക്കും. മറ്റുള്ളവരെ സംബന്ധിച്ചിടത്തോളം, ജോലിസ്ഥലത്തെ സ്ഥാനക്കയറ്റം വഴിയോ അല്ലെങ്കിൽ ചില നേട്ടങ്ങൾ കാരണം നിങ്ങളുടെ സാമൂഹിക നിലയിലെ പെട്ടെന്നുള്ള തകർച്ചയിലൂടെയോ നേടിയ ശക്തിയിൽ നിന്ന് ഇത് വരാം. ഭാഗ്യശാലികളായ കുറച്ചുപേർക്ക്, ലോട്ടറി പണത്തിന്റെ ബോട്ട് സ്‌കോർ ചെയ്യുന്നതിലൂടെ ഇത് ലഭിക്കും. അതെ, പണവും അധികാരവും മയക്കുമരുന്നും പലപ്പോഴും ഒരുമിച്ച് സംഭവിക്കാം. 

    നല്ലതായാലും ചീത്തയായാലും, ജീവിതത്തിന്റെ നിയന്ത്രണങ്ങൾ അലിഞ്ഞുപോകുമ്പോൾ നമ്മൾ കാതലായ ആരായാലും അത് വിപുലീകരിക്കപ്പെടുന്നു എന്നതാണ് കാര്യം.

    ആർട്ടിഫിഷ്യൽ സൂപ്പർ ഇന്റലിജൻസ് എന്നത് മനുഷ്യ വർഗ്ഗത്തെ പ്രതിനിധീകരിക്കുന്നു-നമുക്ക് മുന്നിൽ അവതരിപ്പിക്കുന്ന ഏത് സ്പീഷിസ് തലത്തിലുള്ള വെല്ലുവിളിയെയും കീഴടക്കാനുള്ള നമ്മുടെ കൂട്ടായ ബുദ്ധിയുടെ പരിമിതികളെ ഉരുകാനുള്ള കഴിവ്.

    അതിനാൽ യഥാർത്ഥ ചോദ്യം ഇതാണ്: ആദ്യത്തെ എഎസ്ഐ നമ്മുടെ പരിമിതികളിൽ നിന്ന് നമ്മെ മോചിപ്പിച്ചാൽ, നമ്മൾ ആരാണെന്ന് സ്വയം വെളിപ്പെടുത്തും?

    സഹാനുഭൂതി, സ്വാതന്ത്ര്യം, ന്യായം, കൂട്ടായ ക്ഷേമം എന്നിവയുടെ പുരോഗതിക്കായി ഒരു സ്പീഷിസ് എന്ന നിലയിൽ നമ്മൾ പ്രവർത്തിക്കുകയാണെങ്കിൽ, നമ്മുടെ എഎസ്‌ഐയുടെ ലക്ഷ്യങ്ങൾ ആ നല്ല ഗുണങ്ങളെ പ്രതിഫലിപ്പിക്കും.

    ഭയം, അവിശ്വാസം, അധികാരത്തിന്റെയും വിഭവങ്ങളുടെയും ശേഖരണം എന്നിവയിൽ നിന്നാണ് നമ്മൾ ഒരു ജീവിവർഗമെന്ന നിലയിൽ പ്രവർത്തിക്കുന്നതെങ്കിൽ, നമ്മൾ സൃഷ്ടിക്കുന്ന ASI നമ്മുടെ ഏറ്റവും മോശം സയൻസ് ഫിക്ഷൻ ഹൊറർ കഥകളിൽ കാണുന്നതുപോലെ ഇരുണ്ടതായിരിക്കും.

    ദിവസാവസാനം, മികച്ച AI സൃഷ്ടിക്കാൻ ഞങ്ങൾ പ്രതീക്ഷിക്കുന്നുവെങ്കിൽ, ഒരു സമൂഹമെന്ന നിലയിൽ നമ്മൾ മികച്ച ആളുകളായി മാറേണ്ടതുണ്ട്.

    ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് പരമ്പരയുടെ ഭാവി

    ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് നാളത്തെ വൈദ്യുതിയാണ്: ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് സീരീസിന്റെ ഭാവി P1

    ആദ്യത്തെ ആർട്ടിഫിഷ്യൽ ജനറൽ ഇന്റലിജൻസ് സമൂഹത്തെ എങ്ങനെ മാറ്റും: ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് സീരീസിന്റെ ഭാവി P2

    ഞങ്ങൾ എങ്ങനെയാണ് ആദ്യത്തെ ആർട്ടിഫിഷ്യൽ സൂപ്പർഇന്റലിജൻസ് സൃഷ്ടിക്കുന്നത്: ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് സീരീസിന്റെ ഭാവി P3

    ഒരു കൃത്രിമ സൂപ്പർ ഇന്റലിജൻസ് മനുഷ്യരാശിയെ ഉന്മൂലനം ചെയ്യുമോ: ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് സീരീസിന്റെ ഭാവി P4

    ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് ആധിപത്യം പുലർത്തുന്ന ഭാവിയിൽ മനുഷ്യർ സമാധാനത്തോടെ ജീവിക്കുമോ?: ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് സീരീസിന്റെ ഭാവി P6

    ഈ പ്രവചനത്തിനായുള്ള അടുത്ത ഷെഡ്യൂൾ ചെയ്ത അപ്‌ഡേറ്റ്

    2023-04-27

    പ്രവചന റഫറൻസുകൾ

    ഈ പ്രവചനത്തിനായി ഇനിപ്പറയുന്ന ജനപ്രിയവും സ്ഥാപനപരവുമായ ലിങ്കുകൾ പരാമർശിച്ചു:

    ന്യൂയോർക്ക് ടൈംസ്
    ദി എക്കണോമിസ്റ്റ്
    ഞങ്ങൾ എങ്ങനെ അടുത്തതിലേക്ക് പോകും

    ഈ പ്രവചനത്തിനായി ഇനിപ്പറയുന്ന Quantumrun ലിങ്കുകൾ പരാമർശിച്ചു: