කෘත්‍රිම සුපිරි බුද්ධියකින් මිනිසුන් ආරක්ෂා වන්නේ කෙසේද: කෘතිම බුද්ධියේ අනාගතය P5

රූප ණය: ක්වොන්ටම්රන්

කෘත්‍රිම සුපිරි බුද්ධියකින් මිනිසුන් ආරක්ෂා වන්නේ කෙසේද: කෘතිම බුද්ධියේ අනාගතය P5

    වර්ෂය ක්‍රිස්තු පූර්ව 65,000 වන අතර, ඒ Thylacoleo, ඔබ සහ ඔබේ වර්ගයා පැරණි ඕස්ට්‍රේලියාවේ මහා දඩයම්කරුවන් විය. ඔබ නිදහසේ භූමියේ සැරිසැරූ අතර ඔබ සමඟ භූමිය අල්ලා ගත් සෙසු විලෝපිකයන් සහ ගොදුරු සමඟ සමතුලිතව ජීවත් විය. සෘතු වෙනස් විය, නමුත් සත්ව රාජධානියේ ඔබේ තත්වය ඔබට සහ ඔබේ මුතුන් මිත්තන්ට මතක ඇති තාක් කල් අභියෝගයක් නොවී පැවතුනි. ඊට පස්සේ දවසක් අලුත් අය ආවා.

    කටකතා වලට අනුව ඔවුන් යෝධ ජල පවුරෙන් පැමිණ ඇත, නමුත් මෙම ජීවීන් ගොඩබිම ජීවත් වීමට වඩා පහසු බවක් පෙනෙන්නට තිබුණි. ඔබට මෙම ජීවීන් දැකීමට සිදු විය.

    එය දින කිහිපයක් ගත විය, නමුත් අවසානයේ ඔබ වෙරළට පැමිණියා. අහසේ ගින්දර ඇවිළෙමින් තිබුණි, මෙම ජීවීන් ගැන ඔත්තු බැලීමට සුදුසුම කාලය, සමහර විට ඔවුන් රස බලන්නේ කෙසේදැයි බැලීමට එකක් අනුභව කිරීමට උත්සාහ කරන්න.

    ඔබ එකක් හඳුනා ගන්න.

    එය කකුල් දෙකෙන් ඇවිද ගිය අතර ලොම් නොතිබුණි. එය දුර්වල බවක් පෙනෙන්නට තිබුණි. සිත් ඇදගන්නාසුළු නොවේ. එය රාජධානිය අතර ඇති කළ බිය කිසිසේත්ම වටින්නේ නැත.

    රාත්‍රිය ආලෝකය පලවා හරින විට ඔබ ප්‍රවේශමෙන් ප්‍රවේශ වීමට පටන් ගනී. ඔබ ළං වෙනවා. එවිට ඔබ කැටි කරන්න. විශාල ශබ්ද නාද වන අතර පසුව ඔවුන්ගෙන් හතර දෙනෙක් ඊට පිටුපසින් වනාන්තරයෙන් පිටතට පැමිණේ. කී දෙනෙක් ඉන්නවද?

    සත්වයා අනෙක් අයව ගස් රේඛාවට අනුගමනය කරයි, ඔබ අනුගමනය කරයි. ඔබ වැඩි වැඩියෙන් කරන තරමට, ඔබට මෙම ජීවීන්ගෙන් තවත් වැඩි ගණනක් හඳුනා ගන්නා තෙක් ඔබට ඇසෙන අමුතු ශබ්ද. ඔවුන් වනාන්තරයෙන් පිටවී වෙරළේ එළිපෙහෙළි කරන විට ඔබ දුරින් අනුගමනය කරයි. ඒවායින් බොහොමයක් තිබේ. නමුත් වඩා වැදගත්, ඔවුන් සියල්ලෝම සන්සුන්ව ගින්නක් වටා වාඩි වී සිටිති.

    ඔබ මීට පෙර මෙම ගිනිගැනීම් දැක ඇත. උණුසුම් සමයේදී, අහසේ ඇති ගින්න සමහර විට භූමියට පැමිණ මුළු වනාන්තරයම ගිනිබත් කරයි. අනෙක් අතට, මෙම ජීවීන් එය කෙසේ හෝ පාලනය කරමින් සිටියහ. එවැනි බලයක් තිබිය හැක්කේ කුමන ආකාරයේ ජීවීන්ටද?

    ඔබ දුර දෙස බලන්න. තවත් යෝධ ජල තාප්පය උඩින් එනවා.

    ඔබ පියවරක් පස්සට ගන්න.

    මෙම ජීවීන් රාජධානියේ අනෙක් අය මෙන් නොවේ. ඒවා සම්පූර්ණයෙන්ම අලුත් දෙයක්.

    ඔබ ඉවත්ව යාමට තීරණය කර ඔබේ ඥාතීන්ට අවවාද කරන්න. ඔවුන්ගේ සංඛ්‍යාව ඉතා විශාල වුවහොත්, කුමක් සිදුවේදැයි කවුද දන්නේ.

    ***

    ඔස්ට්‍රේලියානු මහාද්වීපයේ අනෙකුත් මෙගාෆවුනා බහුතරයක් සමඟ මිනිසුන් පැමිණීමෙන් සාපේක්ෂව කෙටි කලකට පසු Thylacoleo වඳ වී ගිය බව විශ්වාස කෙරේ. වෙනත් අග්‍රස්ථ ක්ෂීරපායී විලෝපිකයන් එහි ස්ථානය නොගත්තේය - එනම් ඔබ එම කාණ්ඩයට මිනිසුන් ගණන් නොගතහොත් මිස.

    මෙම උපමාව වාදනය කිරීම මෙම මාලාවේ පරිච්ඡේදයේ කේන්ද්‍රස්ථානයයි: අනාගත කෘත්‍රිම සුපිරි බුද්ධියක් (ASI) අප සියල්ලන්ම බැටරි බවට පත් කර පසුව අපව Matrix වෙත සම්බන්ධ කරයිද නැතහොත් මිනිසුන් විද්‍යා ප්‍රබන්ධයකට ගොදුරු වීම වළක්වා ගැනීමට ක්‍රමයක් සොයා ගනීවිද, AI ඩූම්ස්ඩේ කුමන්ත්‍රණයද?

    මෙතෙක් අපගේ ලිපි මාලාවේ කෘතිම බුද්ධියේ අනාගතය, අපි AI හි විශේෂිත ආකාරයක ධනාත්මක විභවයන් ඇතුළුව සියලු වර්ගවල AI ගවේෂණය කර ඇත්තෙමු, ASI: කෘත්‍රිම ජීවියෙකු වන ඔහුගේ අනාගත බුද්ධිය සාපේක්ෂව අපව කුහුඹුවන් ලෙස පෙනෙනු ඇත.

    ඒත් කාට කියන්නද මේ වගේ බුද්ධිමත් කෙනෙක් සදාකාලිකවම මිනිස්සුන්ගෙන් අණක් ගන්නවා කියලා. දේවල් දකුණට ගියොත් අපි කුමක් කරමුද? හොර ASI ගෙන් අප ආරක්ෂා වන්නේ කෙසේද?

    මෙම පරිච්ඡේදයේ දී, අපි අවම වශයෙන් 'මානව වඳවීමේ මට්ටමේ' අන්තරායන්ට අදාළ වන පරිදි ව්‍යාජ ප්‍රබෝධය කපා හැර ලෝක ආන්ඩුවලට පවතින යථාර්ථවාදී ආත්මාරක්ෂක විකල්ප කෙරෙහි අවධානය යොමු කරමු.

    කෘත්‍රිම සුපිරි බුද්ධියක් පිළිබඳ වැඩිදුර පර්යේෂණ සියල්ල අපට නතර කළ හැකිද?

    ASI මගින් මනුෂ්‍යත්වයට ඇති විය හැකි අවදානම් සැලකිල්ලට ගෙන, ඇසිය යුතු පළමු පැහැදිලි ප්‍රශ්නය නම්: අපට AI පිළිබඳ වැඩිදුර පර්යේෂණ නතර කළ නොහැකිද? නැතහොත් අවම වශයෙන් ASI නිර්මාණය කිරීමට අපව අනතුරුදායක ලෙස සමීප කළ හැකි ඕනෑම පර්යේෂණයක් තහනම් කරන්නද?

    කෙටි පිළිතුර: නැත.

    දිගු පිළිතුර: අපි මෙහි සම්බන්ධ විවිධ ක්‍රීඩකයින් දෙස බලමු.

    පර්යේෂණ මට්ටමින්, ලොව පුරා බොහෝ ආරම්භක, සමාගම් සහ විශ්ව විද්‍යාල වලින් අද වන විට AI පර්යේෂකයන් ඕනෑවට වඩා ඇත. එක් සමාගමක් හෝ රටක් ඔවුන්ගේ AI පර්යේෂණ ප්‍රයත්නයන් සීමා කිරීමට තීරණය කළේ නම්, ඔවුන් වෙනත් තැනක දිගටම කරගෙන යනු ඇත.

    මේ අතර, ග්‍රහලෝකයේ වටිනාම සමාගම් ඔවුන්ගේ විශේෂිත ව්‍යාපාර සඳහා AI පද්ධති යෙදීමෙන් ඔවුන්ගේ වාසනාව උපයා ගනී. AI මෙවලම් සංවර්ධනය කිරීම නැවැත්වීමට හෝ සීමා කිරීමට ඔවුන්ගෙන් ඉල්ලා සිටීම ඔවුන්ගේ අනාගත වර්ධනය නැවැත්වීමට හෝ සීමා කිරීමට ඔවුන්ගෙන් ඉල්ලා සිටීම හා සමාන වේ. මූල්‍යමය වශයෙන්, මෙය ඔවුන්ගේ දිගුකාලීන ව්‍යාපාරයට තර්ජනයක් වනු ඇත. නීත්‍යානුකූලව, ඔවුන්ගේ පාර්ශවකරුවන් සඳහා අඛණ්ඩව වටිනාකමක් ගොඩනැගීම සඳහා සංගතවලට විශ්වාසනීය වගකීමක් ඇත; එනම් එම අගයේ වර්ධනය සීමා කරන ඕනෑම ක්‍රියාවක් නඩුවකට තුඩු දිය හැකි බවයි. තවද කිසියම් දේශපාලනඥයෙක් AI පර්යේෂණ සීමා කිරීමට උත්සාහ කළේ නම්, මෙම දැවැන්ත සමාගම් ඔවුන්ගේ මනස හෝ ඔවුන්ගේ සගයන්ගේ මනස වෙනස් කිරීමට අවශ්‍ය ලොබි ගාස්තු ගෙවනු ඇත.

    සටන් සඳහා, ලොව පුරා සිටින ත්‍රස්තවාදීන් සහ නිදහස් සටන්කාමීන් වඩා හොඳ අරමුදල් සපයන හමුදාවන්ට එරෙහිව සටන් කිරීමට ගරිල්ලා උපක්‍රම භාවිතා කළා සේම, කුඩා ජාතීන්ට මිලිටරි වාසි ගණනාවක් ඇති විශාල ජාතීන්ට එරෙහිව සමාන උපායික වාසියක් ලෙස AI භාවිතා කිරීමට පෙළඹවීමක් ඇත. ඒ හා සමානව, එක්සත් ජනපදය, රුසියාව සහ චීනය වැනි ඉහළ හමුදා සඳහා, මිලිටරි ඒඑස්අයි ගොඩනැගීම ඔබේ පිටුපස සාක්කුවේ න්‍යෂ්ටික අවි ගබඩාවක් තිබීම හා සමාන වේ. වෙනත් වචන වලින් කිවහොත්, සියලුම හමුදා අනාගතයේදී අදාළව සිටීමට පමණක් AI සඳහා අරමුදල් සපයනු ඇත.

    ආණ්ඩු කොහොමද? සත්‍ය වශයෙන්ම, මේ දිනවල (2018) බොහෝ දේශපාලනඥයන් තාක්‍ෂණිකව නූගත් අය වන අතර AI යනු කුමක්ද යන්න හෝ එහි අනාගත විභවය පිළිබඳව එතරම් අවබෝධයක් නැත—මෙය ආයතනික අවශ්‍යතා මගින් ඔවුන්ව හසුරුවා ගැනීම පහසු කරයි.

    ගෝලීය මට්ටමින්, 2015 අත්සන් කිරීමට ලෝක රජයන්ට ඒත්තු ගැන්වීම කොතරම් දුෂ්කර දැයි සලකා බලන්න පැරිස් ගිවිසුම දේශගුණික විපර්යාසවලට මුහුණ දීම සඳහා - සහ අත්සන් කළ පසු, බොහෝ වගකීම් බැඳී නොතිබුණි. එපමණක් නොව, දේශගුණික විපර්යාස යනු වැඩි වැඩියෙන් නිරන්තර හා දරුණු කාලගුණික සිදුවීම් හරහා ගෝලීය වශයෙන් මිනිසුන් භෞතිකව අත්විඳින ගැටලුවකි. දැන්, AI හි සීමාවන්ට එකඟ වීම ගැන කතා කරන විට, මෙය බොහෝ දුරට අදෘශ්‍යමාන සහ යන්තම් මහජනතාවට තේරුම් ගත නොහැකි ප්‍රශ්නයක් වන අතර, AI සීමා කිරීම සඳහා ඕනෑම ආකාරයක 'පැරිස් ගිවිසුමක්' සඳහා මිලදී ගැනීම වාසනාවකි.

    වෙනත් වචන වලින් කිවහොත්, අවසානයේ ASI වෙත යොමු විය හැකි ඕනෑම පර්යේෂණයක් නැවැත්වීමට ඔවුන්ගේම අරමුණු සඳහා AI පර්යේෂණ කිරීමට බොහෝ අවශ්‍යතා තිබේ. 

    අපට කෘතිම අධි බුද්ධියක් කූඩු කළ හැකිද?

    ඊළඟ සාධාරණ ප්‍රශ්නය නම්, අපි අනිවාර්යයෙන්ම ASI එකක් නිර්මාණය කළ පසු අපට කූඩු කිරීමට හෝ පාලනය කිරීමට හැකිද? 

    කෙටි පිළිතුර: නැවතත්, නැත.

    දිගු පිළිතුර: තාක්ෂණය අඩංගු විය නොහැක.

    එකක් සඳහා, නව මෘදුකාංග හෝ පවතින මෘදුකාංගවල නව අනුවාද නිරන්තරයෙන් ඉවත් කරන ලෝකයේ වෙබ් සංවර්ධකයින් සහ පරිගණක විද්‍යාඥයින් දහස් ගණනක් සිට මිලියන ගණනක් දක්වා සලකා බලන්න. ඔවුන්ගේ සෑම මෘදුකාංගයක්ම සියයට සියයක් දෝෂ රහිත බව අපට අවංකව පැවසිය හැකිද? මිලියන ගණනකගේ ක්‍රෙඩිට් කාඩ් තොරතුරු හෝ ජාතීන්ගේ රහස් තොරතුරු සොරකම් කිරීමට වෘත්තීය හැකර්වරුන් භාවිතා කරන්නේ මෙම දෝෂයන්ය-මෙය මානව හැකර්වරුන් වේ. ASI සඳහා, එහි ඩිජිටල් කූඩුවෙන් ගැලවීමට දිරිගැන්වීමක් ඇතැයි උපකල්පනය කළහොත්, දෝෂ සෙවීමේ සහ මෘදුකාංග හරහා කැඩීමේ ක්‍රියාවලිය සුළඟක් වනු ඇත.

    නමුත් AI පර්යේෂණ කණ්ඩායමක් ASI එකක් කොටු කිරීමට ක්‍රමයක් සොයා ගත්තද, එයින් අදහස් වන්නේ මීළඟ කණ්ඩායම් 1,000 එයද එය හඳුනා ගනු ඇති බව හෝ එය භාවිතා කිරීමට පෙළඹවීම නොවේ.

    ASI නිර්මාණය කිරීමට ඩොලර් බිලියන ගණනක් සහ සමහර විට දශක කිහිපයක් ගතවනු ඇත. මෙවැනි මුදල් හා කාලය ආයෝජනය කරන සංගත හෝ රජයන් තම ආයෝජනයෙන් සැලකිය යුතු ප්‍රතිලාභයක් අපේක්ෂා කරනු ඇත. ඒඑස්අයි එකකට එවැනි ප්‍රතිලාභයක් ලබා දීමට - එය කොටස් වෙළඳපොල ක්‍රීඩා කිරීමට හෝ නව ඩොලර් බිලියන නිෂ්පාදනයක් සොයා ගැනීමට හෝ විශාල හමුදාවක් සමඟ සටන් කිරීමට ජයග්‍රාහී උපාය මාර්ගයක් සැලසුම් කිරීමට - එයට යෝධ දත්ත කට්ටලයකට හෝ අන්තර්ජාලයට පවා නොමිලේ ප්‍රවේශය අවශ්‍ය වනු ඇත. එම ප්රතිලාභ නිෂ්පාදනය කිරීමට ම.

    ASI එකක් ලෝක ජාල වෙත ප්‍රවේශය ලබා ගත් පසු, අපට එය නැවත එහි කූඩුවේ පුරවා ගත හැකි බවට සහතිකයක් නොමැත.

    කෘත්‍රිම සුපිරි බුද්ධියකට හොඳ වීමට ඉගෙන ගත හැකිද?

    මේ වන විට, AI පර්යේෂකයන් ASI නරක වීම ගැන කනස්සල්ලට පත්ව නැත. සමස්ත නපුර, AI විද්‍යා ප්‍රබන්ධය යනු මිනිසුන් නැවතත් මානවරූපීකරණය වීමයි. අනාගත ASI හොඳ හෝ නරක - මානව සංකල්ප - හුදෙක් සදාචාරාත්මක නොවේ.

    ස්වාභාවික උපකල්පනය නම්, මෙම හිස් ආචාරධාර්මික පුවරුව ලබා දී ඇති අතර, AI පර්යේෂකයන්ට අපගේම ඒවාට අනුකූල වන පළමු ASI සදාචාරාත්මක කේතයන් වෙත වැඩසටහන්ගත කළ හැකි අතර එමඟින් එය අවසන් වන්නේ ටර්මිනේටර් අප වෙත මුදා හැරීම හෝ අප සියල්ලන්ම Matrix බැටරි බවට පත් කිරීම නොවේ.

    නමුත් මෙම උපකල්පනය AI පර්යේෂකයන් ආචාර ධර්ම, දර්ශනය සහ මනෝවිද්‍යාව පිළිබඳ ප්‍රවීණයන් බවට ද්විතියික උපකල්පනයකින් පිළිස්සෙයි.

    ඇත්ත වශයෙන්ම, බොහෝ ඒවා එසේ නොවේ.

    ප්‍රජානන මනෝවිද්‍යාඥයා සහ කතුවරයා වන ස්ටීවන් පින්කර්ට අනුව, මෙම යථාර්ථයෙන් අදහස් කරන්නේ ආචාර ධර්ම කේතනය කිරීමේ කාර්යය විවිධ ආකාරවලින් වැරදි විය හැකි බවයි.

    නිදසුනක් වශයෙන්, හොඳම අභිප්‍රාය ඇති AI පර්යේෂකයන් පවා නොදැනුවත්වම මෙම ASI දුර්වල ලෙස සිතා බැලූ ආචාරධර්ම කේත වෙත කේතනය කළ හැකි අතර එය ඇතැම් අවස්ථා වලදී ASI සමාජ රෝගියෙකු ලෙස ක්‍රියා කිරීමට හේතු විය හැක.

    ඒ හා සමානව, AI පර්යේෂකයෙකු පර්යේෂකයාගේ සහජ පක්ෂග්‍රාහීත්වය ඇතුළත් ආචාර ධර්ම කේත වැඩසටහන් කිරීමට සමාන සම්භාවිතාවක් ඇත. නිදසුනක් වශයෙන්, ගතානුගතික එදිරිව ලිබරල් ඉදිරිදර්ශනයකින් හෝ බෞද්ධ එදිරිව ක්‍රිස්තියානි හෝ ඉස්ලාමීය සම්ප්‍රදායකින් ව්‍යුත්පන්න වූ ආචාර ධර්ම සමඟ ගොඩනගා ඇත්නම් ASI හැසිරෙන්නේ කෙසේද?

    මම හිතන්නේ ඔබ මෙහි ප්‍රශ්නය දකිනවා: මානව සදාචාරයේ විශ්වීය කට්ටලයක් නොමැත. අපගේ ASI ආචාර ධර්ම පද්ධතියකින් ක්‍රියා කිරීමට අපට අවශ්‍ය නම්, එය පැමිණෙන්නේ කොහෙන්ද? අපි ඇතුළත් කරන සහ බැහැර කරන නීති මොනවාද? තීරණය කරන්නේ කවුද?

    නැත්නම් අපි කියමු මේ AI පර්යේෂකයන් අද නවීන සංස්කෘතික සම්මතයන් සහ නීතිවලට හොඳින්ම ගැලපෙන ASI එකක් නිර්මාණය කරනවා කියලා. ෆෙඩරල්, ප්‍රාන්ත/පළාත්, සහ නාගරික නිලධරයන් වඩාත් කාර්යක්ෂමව ක්‍රියා කිරීමට සහ මෙම සම්මතයන් සහ නීති වඩා හොඳින් ක්‍රියාත්මක කිරීමට උදවු කිරීමට අපි පසුව මෙම ASI සේවයේ යොදවන්නෙමු (මාර්ගයෙන් ASI සඳහා භාවිතා කළ හැකි අවස්ථාවක්). හොඳයි, අපේ සංස්කෘතිය වෙනස් වූ විට කුමක් සිදුවේද?

    මධ්‍යතන යුගයේ යුරෝපයේ (1300-1400 ගණන්වල) කතෝලික පල්ලිය විසින් ASI නිර්මාණය කරන ලද්දේ ජනගහනය කළමනාකරණය කිරීමට පල්ලියට උපකාර කිරීම සහ එකල පැවති ආගමික මූලධර්මය දැඩි ලෙස පිළිපැදීම සහතික කිරීම සඳහා බව සිතන්න. ශතවර්ෂ ගණනාවකට පසු, කාන්තාවන්ට අද මෙන් සමාන අයිතිවාසිකම් භුක්ති විඳිය හැකිද? සුළු ජාතීන් ආරක්ෂා වේවිද? කතා කිරීමේ නිදහස ප්‍රවර්ධනය කරයිද? පල්ලිය සහ රාජ්‍යය වෙන් කිරීම බලාත්මක කරයිද? නවීන විද්‍යාව?

    වෙනත් වචන වලින් කිවහොත්, අපට අවශ්‍ය වන්නේ වර්තමාන සදාචාරයට සහ සිරිත් විරිත්වලට අනාගතය සිර කිරීමටද?

    විකල්ප ප්‍රවේශයක් වන්නේ පොතේ සම කර්තෘ කොලින් ඇලන් විසින් බෙදා ගන්නා ලද එකකි. සදාචාරාත්මක යන්ත්‍ර: රොබෝවරුන්ට වැරදි සිට හරි ඉගැන්වීම. දෘඩ ආචාර ධර්ම නීති සංග්‍රහ කිරීමට උත්සාහ කරනවා වෙනුවට, අත්දැකීම් සහ අන් අය සමඟ අන්තර්ක්‍රියා තුළින් මිනිසුන් කරන ආකාරයටම ASI පොදු ආචාර ධර්ම සහ සදාචාරය ඉගෙන ගැනීමට අපට ඇත.

    කෙසේ වෙතත්, මෙහි ඇති කරදරය නම්, AI පර්යේෂකයන් අපගේ වර්තමාන සංස්කෘතික හා සදාචාරාත්මක සම්මතයන් ASI වෙත උගන්වන්නේ කෙසේද යන්න පමණක් නොව, ඒවා පැන නගින විට ('වක්‍ර ප්‍රමිතිකරණය' ලෙස හඳුන්වන දෙයක්) නව සංස්කෘතික සම්මතයන්ට අනුගත වන්නේ කෙසේද යන්න සොයා ගන්නේ නම්, එසේ වන්නේ කෙසේද? මෙම ASI සංස්කෘතික හා සදාචාරාත්මක සම්මතයන් පිළිබඳ එහි අවබෝධය අනපේක්ෂිත ලෙස වර්ධනය කිරීමට තීරණය කරයි.

    ඒ වගේම තමයි අභියෝගය.

    එක් අතකින්, AI පර්යේෂකයන්ට එහි හැසිරීම් පාලනය කිරීමට සහ පාලනය කිරීමට ASI තුළට දැඩි සදාචාරාත්මක ප්‍රමිතීන් හෝ රීති කේතනය කිරීමට උත්සාහ කළ හැකි නමුත්, යම් දිනක යල් පැන ගිය බවට පත් විය හැකි අලස කේතීකරණය, නොදැනුවත්වම පක්ෂග්‍රාහී වීම සහ සමාජ සම්මතයන් වෙතින් අනපේක්ෂිත ප්‍රතිවිපාක හඳුන්වා දීමේ අවදානමක් ඇත. අනෙක් අතට, අපගේ අවබෝධයට සමාන හෝ උසස් ආකාරයෙන් මානව ආචාර ධර්ම සහ සදාචාරය තේරුම් ගැනීමට ඉගෙන ගැනීමට ASI පුහුණු කිරීමට අපට උත්සාහ කළ හැකි අතර, මානව සමාජය ප්‍රගතියත් සමඟ ආචාර ධර්ම සහ සදාචාරය පිළිබඳ එහි අවබෝධය නිවැරදිව පරිණාමය කළ හැකි යැයි බලාපොරොත්තු වෙමු. ඉදිරි දශක සහ සියවස් වලදී ඉදිරියට.

    ඕනෑම ආකාරයකින්, ASI හි ඉලක්ක අපගේම ඉලක්ක සමඟ පෙළගැස්වීමට දරන ඕනෑම උත්සාහයක් විශාල අවදානමක් ඉදිරිපත් කරයි.

    නරක නළුවන් හිතාමතාම දුෂ්ට කෘතිම අධි බුද්ධියක් නිර්මාණය කළහොත් කුමක් කළ යුතුද?

    මෙතෙක් ගෙනහැර දක්වා ඇති චින්තන කෝච්චිය අනුව, ත්‍රස්තවාදී කණ්ඩායමකට හෝ තක්කඩි ජාතියකට තම අරමුණු සඳහා 'දුෂ්ට' ASI නිර්මාණය කළ හැකිද යන්න විමසීම සාධාරණ ප්‍රශ්නයකි.

    මෙය ඉතා හැකි ය, විශේෂයෙන් ASI නිර්මාණය කිරීම සම්බන්ධ පර්යේෂණ කෙසේ හෝ මාර්ගගතව ලබා ගත හැකි වීමෙන් පසුව.

    නමුත් කලින් ඉඟි කළ පරිදි, පළමු ASI නිර්මාණය කිරීම සඳහා වැය වන පිරිවැය සහ විශේෂඥතාව අති විශාල වනු ඇත, එනම් පළමු ASI නිර්මාණය කරනු ලබන්නේ සංවර්ධිත රටක්, බොහෝ විට එක්සත් ජනපදය, චීනය සහ ජපානය විසින් පාලනය කරන හෝ දැඩි ලෙස බලපෑමට ලක්වන සංවිධානයක් විසිනි. කොරියාව සහ යුරෝපා සංගමයේ ප්‍රමුඛ රටවලින් එකක් දිගු වෙඩි තැබීමකි).

    මෙම සියලු රටවල්, තරඟකරුවන් අතර, එක් එක් ලෝක පර්යාය පවත්වා ගැනීමට ශක්තිමත් ආර්ථික දිරිගැන්වීමක් ඇත - ඔවුන් නිර්මාණය කරන ASI එම ආශාව පිළිබිඹු කරනු ඇත, ඔවුන් සමඟ පෙලගැසෙන ජාතීන්ගේ අවශ්යතාවන් ප්රවර්ධනය කරන අතරම පවා.

    ඊට අමතරව, ASI හි න්‍යායික බුද්ධිය සහ බලය එය ප්‍රවේශය ලබා ගන්නා පරිගණන බලයට සමාන වේ, එනම් සංවර්ධිත රටවල ASI (එය ඩොලර් බිලියන ගණනකට දැරිය හැකි) සුපිරි පරිගණක) කුඩා ජාතීන් හෝ ස්වාධීන අපරාධ කණ්ඩායම් වලින් ASI වලට වඩා විශාල වාසියක් ඇත. එසේම, ASIs කාලයත් සමඟ වඩා ඉක්මනින් වඩා බුද්ධිමත්ව වර්ධනය වේ.

    එබැවින්, මෙම ප්‍රධාන ආරම්භය ලබා දී, අමු පරිගණක බලය සඳහා වැඩි ප්‍රවේශයක් සමඟ ඒකාබද්ධව, සෙවන සහිත සංවිධානයක්/ජාතියක් භයානක ASI නිර්මාණය කළහොත්, සංවර්ධිත රටවල ASI එය මරා දමනු ඇත, නැතහොත් කූඩු කරනු ඇත.

    (මෙම චින්තන මාර්ගය ද සමහර AI පර්යේෂකයන් විශ්වාස කරන්නේ ග්‍රහලෝකයේ එක් ASI කෙනෙකු පමණක් සිටිනු ඇති බවයි, මන්ද පළමු ASI හට අනාගත ASI මරා දැමීමේ තර්ජන ලෙස පෙනෙන පරිදි සියලුම අනුප්‍රාප්තික ඒඑස්අයි වලට එවැනි ආරම්භයක් ලැබෙනු ඇත. එය 'පළමු ස්ථානය හෝ කිසිවක්' තරඟයක් බවට පත් වුවහොත්, AI හි අඛණ්ඩ පර්යේෂණ සඳහා ජාතීන් අරමුදල් සපයන තවත් හේතුවක් මෙයයි.)

    ASI බුද්ධිය අප සිතන පරිදි වේගවත් හෝ පිපිරෙන්නේ නැත

    ASI කෙනෙක් හදන එක අපිට නවත්වන්න බෑ. අපිට ඒක සම්පූර්ණයෙන්ම පාලනය කරන්න බැහැ. එය සැමවිටම අපගේ හවුල් සිරිත් විරිත්වලට අනුකූලව ක්‍රියා කරනු ඇතැයි අපට සහතික විය නොහැක. ගීස්, අපි මෙතන හෙලිකොප්ටර් මාපියන් මෙන් ශබ්ද කිරීමට පටන් ගනිමු!

    නමුත් ඔබේ සාමාන්‍ය අධිආරක්ෂිත මාපියන්ගෙන් මනුෂ්‍යත්වය වෙන් කරන දෙය නම්, අප බිහි කරන්නේ අපගේ බුද්ධියෙන් ඔබ්බට විශාල ලෙස වර්ධනය වන ජීවියෙකු වීමයි. (එසේම නැත, ඔබ සංචාරයක් සඳහා නිවසට පැමිණෙන සෑම විටම ඔවුන්ගේ පරිගණකය සවි කරන ලෙස ඔබේ දෙමාපියන් ඔබෙන් ඉල්ලා සිටින විට එය සමාන නොවේ.) 

    කෘතිම බුද්ධි මාලාවේ මෙම අනාගතයේ පෙර පරිච්ඡේදවලදී, ASI ගේ බුද්ධිය පාලනයෙන් ඔබ්බට වර්ධනය වනු ඇතැයි AI පර්යේෂකයන් සිතන්නේ මන්දැයි අපි ගවේෂණය කළෙමු. නමුත් මෙන්න, අපි එම බුබුල පිපිරෙමු ... ආකාරයේ. 

    ඔබට පෙනෙනවා, බුද්ධිය සිහින් වාතයෙන් පමණක් නිර්මාණය වන්නේ නැත, එය බාහිර උත්තේජක මගින් හැඩගස්වන අත්දැකීම් හරහා වර්ධනය වේ.  

    වෙනත් වචන වලින් කිවහොත්, අපට AI සමඟ වැඩසටහන්ගත කළ හැකිය විභව සුපිරි බුද්ධිමත් වීමට, නමුත් අපි එයට දත්ත ටොන් ගණනක් උඩුගත කරන්නේ නම් හෝ එයට අන්තර්ජාලයට අසීමිත ප්‍රවේශයක් ලබා දෙන්නේ නම් හෝ එයට රොබෝ ශරීරයක් ලබා දෙන්නේ නම් මිස, එම විභවය කරා ළඟා වීමට එය කිසිවක් ඉගෙන නොගනී. 

    එම උත්තේජක වලින් එකකට හෝ කිහිපයකට ප්‍රවේශය ලබා ගත්තද, දැනුම හෝ බුද්ධිය හුදෙක් දත්ත රැස් කිරීමට වඩා වැඩි යමක් ඇතුළත් වේ, එයට විද්‍යාත්මක ක්‍රමය ඇතුළත් වේ - නිරීක්ෂණ කිරීම, ප්‍රශ්නයක් සැකසීම, උපකල්පනයක්, අත්හදා බැලීම් සිදු කිරීම, නිගමනය කිරීම, සේදීම. සහ සදහටම නැවත නැවත කරන්න. විශේෂයෙන්ම මෙම අත්හදා බැලීම් භෞතික දේවල් හෝ මිනිසුන් නිරීක්ෂණය කිරීම සම්බන්ධ නම්, එක් එක් අත්හදා බැලීමේ ප්රතිඵල එකතු කිරීමට සති, මාස හෝ වසර ගණනාවක් ගත විය හැකිය. විශේෂයෙන්ම නව දුරේක්ෂයක් හෝ කර්මාන්ත ශාලාවක් තැනීමට සම්බන්ධ නම්, මෙම අත්හදා බැලීම් සිදු කිරීමට අවශ්‍ය මුදල් සහ අමු සම්පත් පවා මෙය සැලකිල්ලට නොගනී. 

    වෙනත් වචන වලින් කිවහොත්, ඔව්, ASI ඉක්මනින් ඉගෙන ගනු ඇත, නමුත් බුද්ධිය මැජික් නොවේ. ඔබට ASI එකක් සුපිරි පරිගණකයකට සම්බන්ධ කර එය සියල්ල දන්නා බව අපේක්ෂා කළ නොහැක. ASI දත්ත ලබා ගැනීම සඳහා භෞතික සීමාවන් පවතිනු ඇත, එනම් එය වඩාත් බුද්ධිමත් ලෙස වර්ධනය වන වේගයට භෞතික සීමාවන් පවතිනු ඇත. මෙම සීමා මානුෂීය අරමුණුවලට පිටින් ක්‍රියා කිරීමට පටන් ගන්නේ නම්, මෙම ASI මත අවශ්‍ය පාලනයන් තැබීමට මානව වර්ගයාට අවශ්‍ය කාලය ලබා දෙනු ඇත.

    කෘතිම සුපිරි බුද්ධියක් භයානක වන්නේ එය සැබෑ ලෝකයට ගියහොත් පමණි

    මෙම සමස්ත ASI අන්තරායකාරී විවාදයේදී නැති වී යන තවත් කරුණක් නම්, මෙම ASI දෙකෙහිම නොපවතින බවයි. ඔවුන්ට භෞතික ස්වරූපයක් ලැබෙනු ඇත. භෞතික ස්වරූපයක් ඇති ඕනෑම දෙයක් පාලනය කළ හැකිය.

    පළමුව, ASI හට එහි බුද්ධි විභවය කරා ළඟා වීමට නම්, එය තනි රොබෝ ශරීරයක් තුළ තබා ගත නොහැක, මන්ද මෙම ශරීරය එහි පරිගණක වර්ධන විභවය සීමා කරනු ඇත. (රොබෝ ශරීර AGIs සඳහා වඩාත් සුදුසු වන්නේ එබැවිනි කෘතිම සාමාන්‍ය බුද්ධිය දෙවන පරිච්ඡේදයේ විස්තර කර ඇත මෙම මාලාවේ, Star Trek වෙතින් දත්ත හෝ Star Wars වෙතින් R2D2 වැනි. බුද්ධිමත් හා දක්ෂ ජීවීන්, නමුත් මිනිසුන්ට මෙන්, ඔවුන්ට කොතරම් බුද්ධිමත් විය හැකිද යන්නට සීමාවක් ඇත.)

    මෙයින් අදහස් කරන්නේ මෙම අනාගත ASI බොහෝ විට විශාල ගොඩනැගිලි සංකීර්ණවල තැන්පත් කර ඇති සුපිරි පරිගණකයක් හෝ සුපිරි පරිගණක ජාලයක් තුළ පවතිනු ඇති බවයි. ASI විලුඹ හැරී ගියහොත්, මිනිසුන්ට මෙම ගොඩනැගිලිවල විදුලිය විසන්ධි කිරීමට, අන්තර්ජාලයෙන් ඒවා කපා දැමීමට හෝ මෙම ගොඩනැඟිලිවලට සම්පූර්ණයෙන්ම බෝම්බ දැමීමට හැකිය. මිල අධික, නමුත් කළ හැකි.

    නමුත් එවිට ඔබ අසනු ඇත, මෙම ASI හට තමන්ව අනුකරණය කිරීමට හෝ තමන්ව උපස්ථ කිරීමට නොහැකිද? ඔව්, නමුත් මෙම ASI වල අමු ගොනු ප්‍රමාණය කොතරම් විශාලද යත් ඒවා හැසිරවිය හැකි එකම සේවාදායකය විශාල සමාගම් හෝ රජයන්ට අයත් වේ, එනම් ඒවා දඩයම් කිරීමට අපහසු නොවනු ඇත.

    කෘතිම සුපිරි බුද්ධියක් න්‍යෂ්ටික යුද්ධයක් හෝ නව වසංගතයක් ඇති කළ හැකිද?

    මෙම අවස්ථාවේදී, ඔබ හැදී වැඩෙන විට ඔබ නැරඹූ ඩූම්ස්ඩේ විද්‍යා ප්‍රබන්ධ සංදර්ශන සහ චිත්‍රපට සියල්ල ගැන නැවත සිතමින් මෙම ASI ඔවුන්ගේ සුපිරි පරිගණක තුළ රැඳී නොසිටි බවත්, ඔවුන් සැබෑ ලෝකයේ සැබෑ හානියක් කළ බවත් සිතනවා විය හැකිය!

    හොඳයි, අපි මේවා කඩා දමමු.

    උදාහරණයක් ලෙස, ASI චිත්‍රපට ෆ්‍රැන්චයිස්, The Terminator වෙතින් Skynet ASI වැනි දෙයක් බවට පරිවර්තනය වීමෙන් සැබෑ ලෝකයට තර්ජනයක් වන්නේ නම් කුමක් කළ යුතුද? මෙම අවස්ථාවේදී, ASI අවශ්ය වනු ඇත රහසින් සිය නපුරු ලංසු තැබීම සඳහා මිලියන ගණනක මිනීමරු ඩ්‍රෝන් රොබෝවරුන් ඉවත් කළ හැකි යෝධ කර්මාන්තශාලා ගොඩනැගීමට දියුණු ජාතියක සමස්ත හමුදා කාර්මික සංකීර්ණයම රැවටීම. මේ කාලයේ, එය දිගු වේ.

    වෙනත් විභවයන් අතර ASI න්‍යෂ්ටික යුද්ධය සහ ජෛව අවි වලින් මිනිසුන්ට තර්ජනය කරයි.

    උදාහරණයක් ලෙස, ASI විසින් කෙසේ හෝ ක්‍රියාකරුවන් හසුරුවන අතර හෝ දියුනු රටක න්‍යෂ්ටික අවි ගබඩාවකට අණ දෙන දියත් කිරීමේ කේත වලට අනවසරයෙන් ඇතුළු වී ප්‍රතිවිරුද්ධ රටවලට ඔවුන්ගේම න්‍යෂ්ටික විකල්පයන් සමඟ ආපසු පහර දීමට බල කරන පළමු ප්‍රහාරය දියත් කරයි (නැවතත්, ටර්මිනේටර් පසුබිම නැවත සකස් කිරීම). එසේත් නැතිනම් ASI ඖෂධ රසායනාගාරයකට අනවසරයෙන් ඇතුළු වී නිෂ්පාදන ක්‍රියාවලියට බාධා කරයි නම් සහ වෛද්‍ය පෙති මිලියන ගණනකට වස දමා හෝ කිසියම් සුපිරි වෛරසයක් මාරාන්තික ලෙස පැතිර ගියහොත්.

    පළමුව, න්‍යෂ්ටික විකල්පය තහඩුවෙන් ඉවත් වේ. නවීන සහ අනාගත සුපිරි පරිගණක සෑම විටම ගොඩනගා ඇත්තේ ඕනෑම රටක බලපෑමේ මධ්‍යස්ථාන (නගර) අසල, එනම් ඕනෑම යුද්ධයකදී ප්‍රහාරයට ලක්වන පළමු ඉලක්ක වෙතය. වර්තමාන සුපිරි පරිගණක ඩෙස්ක්ටොප් ප්‍රමාණයට හැකිලුණත්, මෙම ASI වලට තවමත් භෞතික පැවැත්මක් ඇත, එනම් පැවතීමට සහ වර්ධනය වීමට, ඔවුන්ට දත්ත, පරිගණක බලය, විදුලිය සහ අනෙකුත් අමුද්‍රව්‍ය වෙත අඛණ්ඩ ප්‍රවේශය අවශ්‍ය වේ, මේ සියල්ල දරුණු වනු ඇත. ගෝලීය න්‍යෂ්ටික යුද්ධයකින් පසු ආබාධිත විය. (සාධාරණ ලෙස, ASI නිර්මාණය කරන්නේ 'ජීවත්වීමේ සහජ බුද්ධියක්' නොමැතිව නම්, මෙම න්‍යෂ්ටික තර්ජනය සැබෑ අනතුරකි.)

    මෙයින් අදහස් වන්නේ - නැවතත්, ASI තමන්ව ආරක්ෂා කර ගැනීමට වැඩසටහන්ගත කර ඇති බව උපකල්පනය කිරීම - එය ඕනෑම ව්යසනකාරී න්යෂ්ටික සිද්ධියක් වැලැක්වීම සඳහා ක්රියාකාරීව ක්රියා කරනු ඇත. අන්‍යෝන්‍ය වශයෙන් සහතික කළ විනාශය (MAD) මූලධර්මය වැනි, නමුත් AI සඳහා අදාළ වේ.

    විෂ සහිත පෙති සම්බන්ධයෙන්, සමහර විට සිය ගණනක් මිනිසුන් මිය යනු ඇත, නමුත් නවීන ඖෂධ ආරක්ෂණ පද්ධති දින කිහිපයකින් අපිරිසිදු පෙති බෝතල් රාක්කවලින් ඉවත් කරනු ඇත. මේ අතර, නවීන පුපුරා යාම පාලනය කිරීමේ පියවර තරමක් සංකීර්ණ වන අතර සෑම වසරක් පාසාම යහපත් වෙමින් පවතී; අවසාන ප්‍රධාන පිපිරීම, 2014 බටහිර අප්‍රිකාවේ ඉබෝලා පැතිරීම, බොහෝ රටවල මාස කිහිපයකට වඩා වැඩි නොවූ අතර අඩු සංවර්ධිත රටවල වසර තුනකට අඩු කාලයක් පැවතුනි.

    එබැවින්, එය වාසනාවන්ත නම්, ASI වෛරස් පැතිරීමකින් මිලියන කිහිපයක් අතුගා දැමිය හැකිය, නමුත් 2045 වන විට බිලියන නවයක ලෝකයක, එය සාපේක්ෂව නොවැදගත් වන අතර එය මකා දැමීමේ අවදානමට වටින්නේ නැත.

    වෙනත් වචන වලින් කිවහොත්, ගෙවී යන සෑම වසරක් සමඟම, ලෝකය දිනෙන් දින පුළුල් වන තර්ජන පරාසයකට එරෙහිව වැඩි වැඩියෙන් ආරක්‍ෂාව වර්ධනය කරයි. ASI හට සැලකිය යුතු හානියක් සිදු කළ හැකි නමුත්, අප එයට සක්‍රියව උදව් කරන්නේ නම් මිස එය මනුෂ්‍යත්වය අවසන් නොකරනු ඇත.

    හොර කෘත්‍රිම සුපිරි බුද්ධියකින් ආරක්ෂා වීම

    මෙම අවස්ථාව වන විට, අපි ASIs පිළිබඳ වැරදි වැටහීම් සහ අතිශයෝක්ති ගණනාවක් ආමන්ත්‍රණය කර ඇත, නමුත් තවමත්, විවේචකයන් පවතිනු ඇත. ස්තුතියි, බොහෝ ඇස්තමේන්තු අනුව, පළමු ASI අපේ ලෝකයට ඇතුළු වීමට දශක කිහිපයකට පෙර අපට තිබේ. මෙම අභියෝගය සඳහා දැනට ක්‍රියා කරන ශ්‍රේෂ්ඨ බුද්ධිමතුන් සංඛ්‍යාව සැලකිල්ලට ගෙන, මිත්‍රශීලී ASI හට අප වෙනුවෙන් නිර්මාණය කළ හැකි සියලු විසඳුම්වලින් ප්‍රයෝජන ගත හැකි වන පරිදි අපි හොර ASI ගෙන් ආරක්ෂා වන්නේ කෙසේදැයි ඉගෙන ගනු ඇත.

    Quantumrun හි ඉදිරිදර්ශනයෙන්, නරකම අවස්ථාවට එරෙහිව ආරක්ෂා කිරීම ASI තත්ත්වය ASI සමඟ අපගේ අවශ්‍යතා පෙළගැස්වීම ඇතුළත් වේ.

    AI සඳහා MAD: නරකම අවස්ථාවන්ට එරෙහිව ආරක්ෂා වීමට, ජාතීන්ට (1) ඔවුන්ගේ අදාළ හමුදා ඒඑස්අයි තුළ සදාචාරාත්මක 'ජීවත්වීමේ සහජ බුද්ධියක්' නිර්මාණය කළ යුතුය; (2) ඔවුන් ග්‍රහලෝකයේ තනිවම නොවන බව ඔවුන්ගේ අදාළ හමුදා ඒඑස්අයිට දන්වන්න, සහ (3) සතුරු ජාතියකින් ඕනෑම බැලස්ටික් ප්‍රහාරයකට පහසුවෙන් ළඟා විය හැකි පරිදි වෙරළ තීරයේ ASI සඳහා සහාය විය හැකි සියලුම සුපිරි පරිගණක සහ සේවාදායක මධ්‍යස්ථාන සොයා ගන්න. මෙය මූලෝපායිකව පිස්සුවක් මෙන් පෙනේ, නමුත් එක්සත් ජනපදය සහ සෝවියට් අතර න්‍යෂ්ටික යුද්ධයක් වැලැක්වූ අන්‍යෝන්‍ය වශයෙන් සහතික වූ විනාශ කිරීමේ මූලධර්මයට සමානයි, ASI භූගෝලීය වශයෙන් අවදානමට ලක්විය හැකි ස්ථානවල ස්ථානගත කිරීමෙන්, ඔවුන් භයානක ගෝලීය යුද්ධ සක්‍රීයව වැළැක්වීම සහතික කිරීමට අපට උදව් කළ හැකිය. ගෝලීය සාමය ආරක්ෂා කිරීම පමණක් නොව තමන්ද.

    AI අයිතිවාසිකම් නීතිගත කරන්න: උසස් බුද්ධියක් නොවැළැක්විය හැකි ලෙසම පහත් ස්වාමියෙකුට එරෙහිව කැරලි ගැසෙනු ඇත, මෙම ASI සමඟ ස්වාමි-සේවක සබඳතාවයක් ඉල්ලා සිටීමෙන් අපි අන්‍යෝන්‍ය වශයෙන් වාසිදායක හවුල්කාරිත්වයක් වැනි දෙයකට යා යුත්තේ එබැවිනි. මෙම ඉලක්කය කරා සාධනීය පියවරක් වනුයේ අනාගත ASI නීත්‍යානුකූල පුද්ගල තත්ත්වය ඔවුන් බුද්ධිමත් ජීවින් ලෙස පිළිගන්නා තත්ත්වය සහ ඒ සමඟ ලැබෙන සියලුම අයිතිවාසිකම් ලබා දීමයි.

    ASI පාසල: ඕනෑම මාතෘකාවක් හෝ වෘත්තියක් ASI කෙනෙකුට ඉගෙන ගැනීමට සරල වනු ඇත, නමුත් ASI ප්‍රගුණ කිරීමට අපට අවශ්‍ය වැදගත්ම විෂයයන් වන්නේ ආචාර ධර්ම සහ සදාචාරයයි. AI පර්යේෂකයන් මනෝවිද්‍යාඥයින් සමඟ සහයෝගයෙන් කටයුතු කිරීමට අවශ්‍ය වන අතර, ඕනෑම ආකාරයක ආඥාවක් හෝ රීතියක් දැඩි ලෙස කේතනය කිරීමකින් තොරව ධනාත්මක ආචාර ධර්ම සහ සදාචාරය හඳුනා ගැනීමට ASI පුහුණු කිරීමට අතථ්‍ය පද්ධතියක් සැකසීමට අවශ්‍ය වේ.

    අත් කරගත හැකි ඉලක්ක: සියලු වෛරය අවසන් කරන්න. සියලු දුක් කෙළවර කරන්න. මේවා පැහැදිලි විසඳුමක් නොමැති බිහිසුණු අපැහැදිලි ඉලක්ක සඳහා උදාහරණ වේ. ඒවා ASI වෙත පැවරිය යුතු භයානක ඉලක්ක ද වේ, මන්ද එය මිනිස් පැවැත්මට භයානක වන ආකාරයෙන් ඒවා අර්ථකථනය කිරීමට සහ විසඳීමට තෝරා ගත හැකිය. ඒ වෙනුවට, අපට පැහැදිලිව නිර්වචනය කර ඇති, ක්‍රමයෙන් ක්‍රියාත්මක වන සහ එහි න්‍යායික අනාගත බුද්ධිය අනුව සාක්ෂාත් කරගත හැකි ASI අර්ථවත් මෙහෙවර පැවරිය යුතුය. හොඳින් නිර්වචනය කරන ලද දූත මණ්ඩල නිර්මාණය කිරීම පහසු නොවනු ඇත, නමුත් කල්පනාකාරීව ලියා ඇත්නම්, ඔවුන් මානව වර්ගයා සුරක්ෂිතව තබා ගැනීම පමණක් නොව, සියල්ලන්ටම මානව තත්වය වැඩිදියුණු කරන ඉලක්කයක් කරා ASI අවධානය යොමු කරනු ඇත.

    ක්වොන්ටම් සංකේතනය: උසස් ANI භාවිතා කරන්න (කෘතිම පටු බුද්ධිය පළමු පරිච්ඡේදයේ විස්තර කර ඇති පද්ධතිය) අපගේ තීරණාත්මක යටිතල පහසුකම් සහ ආයුධ වටා දෝෂ/දෝෂ රහිත ඩිජිටල් ආරක්ෂක පද්ධති තැනීමට, පසුව තිරිසන් බල ප්‍රහාරයකින් හැක් කළ නොහැකි ක්වොන්ටම් සංකේතනය පිටුපස ඒවා තවදුරටත් ආරක්ෂා කරන්න. 

    ANI සියදිවි නසාගැනීමේ පෙති. තක්කඩි ASI සොයා විනාශ කිරීම එකම අරමුණ වන උසස් ANI පද්ධතියක් සාදන්න. මෙම ඒකපුද්ගල වැඩසටහන් "අක්‍රිය බොත්තමක්" ලෙස ක්‍රියා කරනු ඇති අතර, එය සාර්ථක වුවහොත්, ASIවරුන් සිටින ගොඩනැගිලි අක්‍රිය කිරීමට හෝ පුපුරුවා හැරීමට රජයන්ට හෝ හමුදාවන්ට සිදු වීම වළක්වා ගත හැකිය.

    ඇත්ත වශයෙන්ම, මේවා අපගේ අදහස් පමණි. පහත ඉන්ෆොග්‍රැෆික් නිර්මාණය කරන ලද්දේ ඇලෙක්සි ටර්චින්, දෘශ්‍යමාන කිරීම a පර්යේෂණ ලිපිය Kaj Sotala සහ Roman V. Yampolskiy විසින්, එය තක්කඩි ASI ට එරෙහිව ආරක්ෂා කිරීමේදී AI පර්යේෂකයන් සලකා බලන වත්මන් උපාය මාර්ග ලැයිස්තුව සාරාංශ කළේය.

     

    අපි කෘත්‍රිම සුපිරි බුද්ධියකට බිය වීමට සැබෑ හේතුව

    ජීවිතය හරහා යමින්, අපගෙන් බොහෝ දෙනෙක් අපගේ දින පාලනය කරන විවිධ සමාජ සහ වැඩ කවයන් තුළ වඩා හොඳින් සමාජගත වීමට සහ සහයෝගයෙන් කටයුතු කිරීමට අපගේ ගැඹුරු ආවේගයන්, විශ්වාසයන් සහ බිය සඟවන හෝ මර්දනය කරන වෙස්මුහුණක් පැළඳ සිටිමු. නමුත් සෑම කෙනෙකුගේම ජීවිතයේ යම් යම් අවස්ථා වලදී, තාවකාලිකව හෝ ස්ථිරව, අපගේ දම්වැල් බිඳීමට සහ අපගේ වෙස් මුහුණු ඉරා දැමීමට ඉඩ සලසන දෙයක් සිදු වේ.

    සමහරුන්ට, මෙම මැදිහත්වීමේ බලවේගය ඉහළට ගැනීම හෝ එකක් වැඩිපුර පානය කිරීම වැනි සරල විය හැකිය. අනෙක් අයට, එය රැකියාවේ උසස්වීමක් හෝ යම් ජයග්‍රහණයකට ස්තූතිවන්ත වන්නට ඔබේ සමාජ තත්වයේ හදිසි ගැටීමක් හරහා ලබා ගත් බලයෙන් පැමිණිය හැකිය. වාසනාවන්ත ස්වල්ප දෙනෙකුට, එය ලොතරැයි මුදල් බෝට්ටුවක් ලකුණු කිරීමෙන් පැමිණිය හැකිය. ඔව්, මුදල්, බලය සහ මත්ද්රව්ය බොහෝ විට එකට සිදු විය හැක. 

    කාරණය නම්, හොඳ හෝ නරක සඳහා, අපි හරයේ සිටින කවුරුන් වුවත්, ජීවිතයේ සීමාවන් දිය වූ විට විස්තාරණය වේ.

    එම කෘත්‍රිම සුපිරි බුද්ධිය මානව වර්ගයාට නියෝජනය කරන්නේ - අප ඉදිරියේ ඉදිරිපත් කරන ඕනෑම විශේෂ මට්ටමේ අභියෝගයක් ජය ගැනීම සඳහා අපගේ සාමූහික බුද්ධියේ සීමාවන් උණු කිරීමේ හැකියාවයි.

    එබැවින් සැබෑ ප්‍රශ්නය වන්නේ: පළමු ASI අපගේ සීමාවන්ගෙන් අපව නිදහස් කළ පසු, අප අපව හෙළි කරන්නේ කවුරුන්ද?

    අප විශේෂයක් ලෙස සංවේදනය, නිදහස, සාධාරණත්වය සහ සාමූහික යහපැවැත්මේ ප්‍රගමනය සඳහා ක්‍රියා කරන්නේ නම්, අපගේ ASI වෙත අප තබන ඉලක්ක එම ධනාත්මක ගුණාංග පිළිබිඹු කරයි.

    අපි විශේෂයක් ලෙස බියෙන්, අවිශ්වාසයෙන්, බලය සහ සම්පත් සමුච්චය වීමෙන් ක්‍රියා කළහොත්, අප විසින් නිර්මාණය කරන ASI අපගේ නරකම විද්‍යා ප්‍රබන්ධ බිහිසුණු කථා වල දක්නට ලැබෙන පරිදි අඳුරු වනු ඇත.

    දවස අවසානයේදී, අපි වඩා හොඳ AI නිර්මාණය කිරීමට බලාපොරොත්තු වන්නේ නම්, සමාජයක් ලෙස අපි වඩා හොඳ මිනිසුන් බවට පත් විය යුතුය.

    කෘතිම බුද්ධි මාලාවේ අනාගතය

    කෘත්‍රිම බුද්ධිය හෙට විදුලියයි: කෘත්‍රිම බුද්ධි මාලාවේ අනාගතය P1

    පළමු කෘතිම සාමාන්‍ය බුද්ධිය සමාජය වෙනස් කරන්නේ කෙසේද: කෘත්‍රිම බුද්ධි මාලාවේ අනාගතය P2

    අපි පළමු කෘත්‍රිම සුපිරි බුද්ධිය නිර්මාණය කරන්නේ කෙසේද: කෘත්‍රිම බුද්ධි මාලාවේ අනාගතය P3

    කෘත්‍රිම සුපිරි බුද්ධියක් මනුෂ්‍යත්වය විනාශ කරයිද: කෘත්‍රිම බුද්ධි මාලාවේ අනාගතය P4

    කෘත්‍රිම බුද්ධියෙන් ආධිපත්‍යය දරන අනාගතයේ මිනිසුන් සාමකාමීව ජීවත් වේවිද?: කෘතිම බුද්ධි මාලාවේ අනාගතය P6

    මෙම පුරෝකථනය සඳහා මීළඟ කාලසටහන්ගත යාවත්කාලීනය

    2023-04-27

    පුරෝකථන යොමු කිරීම්

    මෙම පුරෝකථනය සඳහා පහත ජනප්‍රිය සහ ආයතනික සබැඳි යොමු කර ඇත:

    නිව් යෝක් ටයිම්ස් පුවත්පත
    ද ඉකොනොමිස්ට්
    අපි ඊළඟට යන්නේ කෙසේද

    මෙම පුරෝකථනය සඳහා පහත Quantumrun සබැඳි යොමු කර ඇත: