របៀបដែលមនុស្សនឹងការពារប្រឆាំងនឹង Artificial Superintelligence: អនាគតនៃបញ្ញាសិប្បនិម្មិត P5

ឥណទានរូបភាព៖ Quantumrun

របៀបដែលមនុស្សនឹងការពារប្រឆាំងនឹង Artificial Superintelligence: អនាគតនៃបញ្ញាសិប្បនិម្មិត P5

    ឆ្នាំគឺ 65,000 មុនគ Thylacoleoអ្នក និងប្រភេទរបស់អ្នកគឺជាអ្នកប្រមាញ់ដ៏អស្ចារ្យនៃប្រទេសអូស្ត្រាលីបុរាណ។ អ្នកបានដើរជុំវិញដីដោយសេរី ហើយរស់នៅក្នុងលំនឹងជាមួយសត្វមំសាសី និងសត្វព្រៃដែលកាន់កាប់ដីក្បែរអ្នក។ រដូវកាលបាននាំមកនូវការផ្លាស់ប្តូរ ប៉ុន្តែស្ថានភាពរបស់អ្នកនៅក្នុងនគរសត្វនៅតែមិនមានបញ្ហាដរាបណាអ្នក និងបុព្វបុរសរបស់អ្នកអាចចងចាំបាន។ បន្ទាប់មកថ្ងៃមួយ អ្នកចំណូលថ្មីបានបង្ហាញខ្លួន។

    ពាក្យចចាមអារ៉ាមថា ពួកគេបានមកដល់ពីជញ្ជាំងទឹកដ៏ធំ ប៉ុន្តែសត្វទាំងនេះហាក់ដូចជារស់នៅបានស្រួលជាងនៅលើដី។ អ្នកត្រូវមើលសត្វទាំងនេះដោយខ្លួនឯង។

    វាចំណាយពេលពីរបីថ្ងៃ ប៉ុន្តែទីបំផុតអ្នកបានទៅដល់ឆ្នេរសមុទ្រ។ ភ្លើងនៅលើមេឃកំពុងឆេះ ដែលជាពេលវេលាដ៏ល្អឥតខ្ចោះដើម្បីឈ្លបយកការណ៍លើសត្វទាំងនេះ ប្រហែលជាសូម្បីតែសាកល្បងញ៉ាំមួយដើម្បីមើលពីរបៀបដែលពួកគេភ្លក់។

    អ្នករកឃើញមួយ។

    វាដើរលើជើងពីរ ហើយគ្មានរោម។ វាមើលទៅខ្សោយ។ មិនគួរឱ្យចាប់អារម្មណ៍។ ស្ទើរតែមិនសមនឹងការភ័យខ្លាចដែលវាត្រូវបានបង្កឡើងក្នុងចំណោមនគរ។

    អ្នក​ចាប់​ផ្ដើម​ខិត​ខំ​យ៉ាង​ប្រុង​ប្រយ័ត្ន​ពេល​យប់​ដេញ​តាម​ពន្លឺ។ អ្នកកាន់តែខិតជិតមកដល់ហើយ។ បន្ទាប់មកអ្នកបង្កក។ សំឡេង​ខ្លាំង​ៗ​បន្លឺ​ឡើង ហើយ​បន្ទាប់​មក​មាន​បួន​នាក់​ទៀត​លេច​ចេញ​ពី​ព្រៃ​ខាង​ក្រោយ។ តើមានប៉ុន្មាននាក់?

    សត្វ​ដើរ​តាម​អ្នក​ដទៃ​ចូល​ទៅ​ក្នុង​បន្ទាត់​ដើម ហើយ​អ្នក​ដើរ​តាម។ ហើយ​អ្នក​កាន់​តែ​ធ្វើ​ឡើង សំឡេង​ចម្លែក​កាន់​តែ​ឮ​ឡើង​រហូត​ដល់​អ្នក​ឃើញ​សត្វ​ទាំង​នេះ​កាន់​តែ​ច្រើន។ អ្នក​ដើរ​តាម​ពី​ចម្ងាយ ពេល​ពួក​គេ​ចេញ​ពី​ព្រៃ​ចូល​ទៅ​ឈូស​ឆាយ​នៅ​មាត់​ច្រាំង។ មានពួកគេជាច្រើន។ ប៉ុន្តែសំខាន់ជាងនេះទៅទៀត ពួកគេទាំងអស់កំពុងអង្គុយជុំវិញភ្លើងដោយស្ងប់ស្ងាត់។

    អ្នកធ្លាប់ឃើញភ្លើងទាំងនេះពីមុនមក។ នៅ​រដូវ​ក្តៅ ភ្លើង​នៅ​លើ​មេឃ ជួនកាល​មក​ដល់​ដី ហើយ​ឆេះ​ព្រៃ​ទាំង​មូល។ ម្យ៉ាងវិញទៀត សត្វទាំងនេះ ពួកគេកំពុងគ្រប់គ្រងវាដោយរបៀបណា។ តើសត្វប្រភេទណាដែលអាចមានអំណាចបែបនេះ?

    អ្នកមើលទៅឆ្ងាយ។ ច្រើនទៀតកំពុងមកលើជញ្ជាំងទឹកដ៏ធំ។

    អ្នកដើរថយក្រោយមួយជំហាន។

    សត្វទាំងនេះមិនដូចសត្វដទៃទៀតនៅក្នុងនគរទេ។ ពួកគេគឺជាអ្វីដែលថ្មីទាំងស្រុង។

    អ្នកសម្រេចចិត្តចាកចេញហើយព្រមានសាច់ញាតិរបស់អ្នក។ បើ​ចំនួន​របស់​ពួក​គេ​ធំ​ពេក តើ​នរណា​ដឹង​ថា​នឹង​មាន​អ្វី​កើត​ឡើង។

    ***

    វាត្រូវបានគេជឿថា Thylacoleo បានផុតពូជក្នុងរយៈពេលដ៏ខ្លីបន្ទាប់ពីការមកដល់នៃមនុស្ស រួមជាមួយនឹងសត្វមួយចំនួនធំផ្សេងទៀតនៅលើទ្វីបអូស្ត្រាលី។ គ្មានសត្វមំសាសីថនិកសត្វ apex ផ្សេងទៀតបានជំនួសកន្លែងរបស់វាទេ លើកលែងតែអ្នករាប់មនុស្សនៅក្នុងប្រភេទនោះ។

    ការបិទការចោទប្រកាន់នេះគឺជាការផ្តោតសំខាន់នៃជំពូកស៊េរីនេះ៖ តើអនាគតឆ្លាតវៃសិប្បនិមិត្ត (ASI) នឹងប្រែក្លាយយើងទាំងអស់គ្នាទៅជាថ្ម ហើយបន្ទាប់មកដោតយើងចូលទៅក្នុងម៉ាទ្រីស ឬមនុស្សនឹងរកវិធីដើម្បីជៀសវាងការក្លាយជាជនរងគ្រោះនៃវិទ្យាសាស្ត្រ ផែនការនៃថ្ងៃវិនាសរបស់ AI?

    រហូតមកដល់ពេលនេះនៅក្នុងស៊េរីរបស់យើងនៅលើ អនាគតនៃភាពវៃឆ្លាតសិប្បនិម្មិតយើងបានរុករកគ្រប់ប្រភេទនៃ AI រួមទាំងសក្តានុពលវិជ្ជមាននៃទម្រង់ជាក់លាក់នៃ AI ASI៖ សិប្បនិម្មិតដែលភាពវៃឆ្លាតនាពេលអនាគតនឹងធ្វើឱ្យយើងមើលទៅដូចជាស្រមោចក្នុងការប្រៀបធៀប។

    ប៉ុន្តែអ្នកណាទៅនិយាយថា មនុស្សឆ្លាតនេះនឹងទទួលយកការបញ្ជាទិញពីមនុស្សជារៀងរហូត។ តើ​យើង​នឹង​ធ្វើ​យ៉ាង​ណា​បើ​អ្វីៗ​ធ្លាក់​ទៅ​ទិស​ខាង​ត្បូង? តើយើងនឹងការពារប្រឆាំងនឹង ASI បញ្ឆោតទាំងឡាយដោយរបៀបណា?

    នៅក្នុងជំពូកនេះ យើងនឹងកាត់បន្ថយការបំភាន់បំភាន់ - យ៉ាងហោចណាស់វាទាក់ទងនឹង "កម្រិតនៃការផុតពូជរបស់មនុស្ស" គ្រោះថ្នាក់ ហើយផ្តោតលើជម្រើសការពារខ្លួនឯងជាក់ស្តែងដែលមានសម្រាប់រដ្ឋាភិបាលពិភពលោក។

    តើ​យើង​អាច​បញ្ឈប់​ការ​ស្រាវជ្រាវ​បន្ថែម​លើ​ការ​ស៊ើប​អង្កេត​សិប្បនិម្មិត​បាន​ឬ​ទេ?

    ដោយសារហានិភ័យដែលអាចកើតមានដែល ASI អាចបង្កដល់មនុស្សជាតិ សំណួរជាក់ស្តែងដំបូងដែលត្រូវសួរគឺ៖ តើយើងមិនអាចបញ្ឈប់ការស្រាវជ្រាវបន្ថែមលើ AI បានទេ? ឬយ៉ាងហោចណាស់ហាមឃាត់ការស្រាវជ្រាវណាដែលអាចធ្វើឱ្យយើងមានគ្រោះថ្នាក់ដល់ការបង្កើត ASI?

    ចម្លើយខ្លី៖ ទេ។

    ចំលើយវែង៖ តោះមើលអ្នកលេងផ្សេងគ្នាដែលពាក់ព័ន្ធនៅទីនេះ។

    នៅកម្រិតស្រាវជ្រាវ សព្វថ្ងៃនេះមានអ្នកស្រាវជ្រាវ AI ច្រើនពេកពីការចាប់ផ្តើមអាជីវកម្ម ក្រុមហ៊ុន និងសាកលវិទ្យាល័យជាច្រើនជុំវិញពិភពលោក។ ប្រសិនបើក្រុមហ៊ុន ឬប្រទេសមួយសម្រេចចិត្តដាក់កម្រិតលើកិច្ចខិតខំប្រឹងប្រែងស្រាវជ្រាវ AI របស់ពួកគេ ពួកគេនឹងបន្តទៅកន្លែងផ្សេង។

    ទន្ទឹមនឹងនោះ ក្រុមហ៊ុនដ៏មានតម្លៃបំផុតរបស់ភពផែនដីនេះ កំពុងធ្វើឱ្យសំណាងរបស់ពួកគេបិទការអនុវត្តន៍ប្រព័ន្ធ AI សម្រាប់អាជីវកម្មជាក់លាក់របស់ពួកគេ។ ការស្នើសុំឱ្យពួកគេបញ្ឈប់ ឬកំណត់ការអភិវឌ្ឍន៍ឧបករណ៍ AI របស់ពួកគេ គឺស្រដៀងទៅនឹងការស្នើសុំឱ្យពួកគេបញ្ឈប់ ឬកម្រិតកំណើននាពេលអនាគតរបស់ពួកគេ។ ហិរញ្ញវត្ថុ នេះនឹងគំរាមកំហែងដល់អាជីវកម្មរយៈពេលវែងរបស់ពួកគេ។ តាមច្បាប់ សាជីវកម្មមានទំនួលខុសត្រូវ fiduciary ដើម្បីបន្តបង្កើតតម្លៃសម្រាប់អ្នកពាក់ព័ន្ធរបស់ពួកគេ។ នោះមានន័យថា សកម្មភាពណាមួយដែលកំណត់ការកើនឡើងនៃតម្លៃនោះ អាចនាំទៅដល់ការប្តឹងតវ៉ា។ ហើយប្រសិនបើអ្នកនយោបាយណាម្នាក់ព្យាយាមកំណត់ការស្រាវជ្រាវ AI នោះសាជីវកម្មយក្សទាំងនេះគ្រាន់តែបង់ថ្លៃបញ្ចុះបញ្ចូលចាំបាច់ដើម្បីផ្លាស់ប្តូរគំនិត ឬគំនិតរបស់សហសេវិករបស់ពួកគេ។

    សម្រាប់ការប្រយុទ្ធ ក៏ដូចជាភេរវករ និងអ្នកប្រយុទ្ធសេរីភាពនៅជុំវិញពិភពលោកបានប្រើយុទ្ធសាស្ត្រទ័ពព្រៃ ដើម្បីប្រយុទ្ធប្រឆាំងនឹងយោធាដែលមានមូលនិធិប្រសើរជាងនេះ ប្រទេសតូចៗនឹងមានការលើកទឹកចិត្តក្នុងការប្រើប្រាស់ AI ជាអត្ថប្រយោជន៍យុទ្ធសាស្ត្រស្រដៀងគ្នាប្រឆាំងនឹងប្រទេសធំ ៗ ដែលអាចមានគុណសម្បត្តិយោធាមួយចំនួន។ ដូចគ្នាដែរ សម្រាប់យោធាកំពូលៗ ដូចជាសហរដ្ឋអាមេរិក រុស្ស៊ី និងចិន ការកសាងយោធា ASI គឺស្មើនឹងការមានឃ្លាំងអាវុធនុយក្លេអ៊ែរនៅក្នុងហោប៉ៅខាងក្រោយរបស់អ្នក។ ម្យ៉ាងវិញទៀត យោធាទាំងអស់នឹងបន្តផ្តល់មូលនិធិដល់ AI ដើម្បីរក្សាភាពពាក់ព័ន្ធនាពេលអនាគត។

    ចុះរដ្ឋាភិបាលវិញ? ជាការពិត អ្នកនយោបាយភាគច្រើននាពេលបច្ចុប្បន្ននេះ (2018) គឺមិនចេះអក្សរផ្នែកបច្ចេកវិទ្យា ហើយមានការយល់ដឹងតិចតួចអំពីអ្វីដែល AI គឺជាឬសក្តានុពលនាពេលអនាគតរបស់វា ដែលនេះធ្វើឱ្យពួកគេងាយស្រួលក្នុងការគ្រប់គ្រងដោយផលប្រយោជន៍សាជីវកម្ម។

    ហើយនៅលើកម្រិតសកល សូមពិចារណាថាតើវាលំបាកប៉ុណ្ណាក្នុងការបញ្ចុះបញ្ចូលរដ្ឋាភិបាលពិភពលោកឱ្យចុះហត្ថលេខាលើឆ្នាំ 2015 កិច្ចព្រមព្រៀងទីក្រុងប៉ារីស ដើម្បីដោះស្រាយការប្រែប្រួលអាកាសធាតុ ហើយនៅពេលដែលបានចុះហត្ថលេខា កាតព្វកិច្ចជាច្រើនមិនជាប់ពាក់ព័ន្ធទេ។ មិនត្រឹមតែប៉ុណ្ណឹងទេ ការប្រែប្រួលអាកាសធាតុគឺជាបញ្ហាដែលមនុស្សកំពុងជួបប្រទះនៅទូទាំងពិភពលោក តាមរយៈព្រឹត្តិការណ៍អាកាសធាតុញឹកញាប់ និងធ្ងន់ធ្ងរ។ ឥឡូវនេះ នៅពេលនិយាយអំពីការយល់ព្រមលើការកំណត់លើ AI នេះគឺជាបញ្ហាដែលមើលមិនឃើញ និងស្ទើរតែមិនអាចយល់បានចំពោះសាធារណជន ដូច្នេះសូមសំណាងល្អក្នុងការទទួលបានការទិញចូលសម្រាប់ប្រភេទនៃ 'កិច្ចព្រមព្រៀងប៉ារីស' សម្រាប់ការកំណត់ AI ។

    ម្យ៉ាងវិញទៀត មានការចាប់អារម្មណ៍ច្រើនពេកដែលស្រាវជ្រាវ AI សម្រាប់ការបញ្ចប់របស់ពួកគេដើម្បីបញ្ឈប់ការស្រាវជ្រាវណាមួយដែលអាចនាំទៅដល់ ASI ។ 

    តើយើងអាចដាក់ទ្រុង superintelligence សិប្បនិម្មិតបានទេ?

    សំណួរសមហេតុផលបន្ទាប់គឺ តើយើងអាចដាក់ទ្រុង ឬគ្រប់គ្រង ASI នៅពេលដែលយើងបង្កើតវាដោយជៀសមិនរួច? 

    ចម្លើយខ្លី៖ ម្តងទៀត ទេ។

    ចម្លើយដ៏វែង៖ បច្ចេកវិទ្យាមិនអាចផ្ទុកបានទេ។

    មួយវិញទៀត គ្រាន់តែពិចារណាលើអ្នកបង្កើតគេហទំព័រ និងអ្នកវិទ្យាសាស្ត្រកុំព្យូទ័ររាប់ពាន់នាក់ដល់រាប់លាននាក់នៅលើពិភពលោក ដែលតែងតែបង្កើតកម្មវិធីថ្មី ឬកំណែថ្មីនៃកម្មវិធីដែលមានស្រាប់។ តើយើងអាចនិយាយដោយស្មោះត្រង់ថារាល់ការចេញផ្សាយកម្មវិធីរបស់ពួកគេគឺគ្មានកំហុស 100 ភាគរយទេ? កំហុសទាំងនេះគឺជាអ្វីដែលពួក Hacker អាជីពប្រើដើម្បីលួចព័ត៌មានកាតឥណទានរបស់មនុស្សរាប់លាននាក់ ឬអាថ៌កំបាំងនៃប្រជាជាតិនានា ហើយទាំងនេះគឺជាពួក Hacker របស់មនុស្ស។ សម្រាប់ ASI សន្មត់ថាវាមានការលើកទឹកចិត្តដើម្បីគេចចេញពីទ្រុងឌីជីថលរបស់វា នោះដំណើរការនៃការស្វែងរកកំហុស និងការទម្លុះកម្មវិធីនឹងជាខ្យល់។

    ប៉ុន្តែទោះបីជាក្រុមស្រាវជ្រាវ AI បានរកឃើញវិធីមួយដើម្បីដាក់ ASI ក៏ដោយ នោះមិនមែនមានន័យថាក្រុម 1,000 បន្ទាប់នឹងដោះស្រាយវាដូចគ្នា ឬត្រូវបានលើកទឹកចិត្តឱ្យប្រើវានោះទេ។

    វានឹងត្រូវចំណាយប្រាក់រាប់ពាន់លានដុល្លារ ហើយប្រហែលជារាប់ទសវត្សរ៍ដើម្បីបង្កើត ASI ។ សាជីវកម្ម ឬរដ្ឋាភិបាលដែលវិនិយោគប្រាក់ និងពេលវេលាបែបនេះនឹងរំពឹងថានឹងទទួលបានផលមកវិញយ៉ាងសំខាន់លើការវិនិយោគរបស់ពួកគេ។ ហើយសម្រាប់ ASI ដើម្បីផ្តល់នូវការត្រឡប់មកវិញបែបនោះ ថាតើវាជាហ្គេមទីផ្សារភាគហ៊ុន ឬបង្កើតផលិតផលរាប់ពាន់លានដុល្លាថ្មី ឬរៀបចំផែនការយុទ្ធសាស្រ្តឈ្នះៗ ដើម្បីប្រយុទ្ធជាមួយកងទ័ពធំជាងមុន វានឹងត្រូវការការចូលប្រើដោយឥតគិតថ្លៃទៅកាន់សំណុំទិន្នន័យដ៏ធំ ឬសូម្បីតែអ៊ីនធឺណិត។ ខ្លួន​ឯង​ដើម្បី​ផលិត​ផល​ត្រឡប់​ទាំង​នោះ។

    ហើយនៅពេលដែល ASI ទទួលបានសិទ្ធិចូលប្រើបណ្តាញរបស់ពិភពលោក វាមិនមានការធានាថាយើងអាចយកវាមកវិញនៅក្នុងទ្រុងរបស់វានោះទេ។

    តើបញ្ញាសិប្បនិមិត្តអាចរៀនពូកែបានទេ?

    ឥឡូវនេះ អ្នកស្រាវជ្រាវ AI មិនព្រួយបារម្ភអំពី ASI ក្លាយជាអាក្រក់នោះទេ។ ភាព​អាក្រក់​ទាំង​មូល AI sci-fi trope គឺ​គ្រាន់​តែ​ជា​មនុស្ស​ដែល​ធ្វើ​ឱ្យ​មាន​រូបរាង​ឡើង​វិញ​។ ASI នាពេលអនាគតនឹងមិនមែនជាគំនិតល្អឬអាក្រក់ទេ - គំនិតរបស់មនុស្ស - គ្រាន់តែជាមនោសញ្ចេតនា។

    ការសន្មត់ធម្មជាតិនោះគឺថាបានផ្តល់ឱ្យនូវក្រមសីលធម៌ទទេនេះ អ្នកស្រាវជ្រាវ AI អាចដាក់កម្មវិធីចូលទៅក្នុងកូដក្រមសីលធម៌ ASI ដំបូងដែលស្របតាមរបស់យើងផ្ទាល់ ដើម្បីកុំឱ្យវាបញ្ចប់ការបញ្ចោញ Terminators មកលើយើង ឬបង្វែរយើងទាំងអស់ទៅជាថ្មម៉ាទ្រីស។

    ប៉ុន្តែការសន្មត់នេះកើតឡើងនៅក្នុងការសន្មតបន្ទាប់បន្សំដែលថាអ្នកស្រាវជ្រាវ AI ក៏ជាអ្នកជំនាញខាងសីលធម៌ ទស្សនវិជ្ជា និងចិត្តវិទ្យាផងដែរ។

    តាមពិតភាគច្រើនមិនមែនទេ។

    យោងតាមចិត្តវិទូ និងជាអ្នកនិពន្ធ Steven Pinker ការពិតនេះមានន័យថា ភារកិច្ចនៃក្រមសីលធម៌សរសេរកូដអាចខុសតាមវិធីផ្សេងៗគ្នា។

    ជាឧទាហរណ៍ សូម្បីតែអ្នកស្រាវជ្រាវ AI ដែលមានចេតនាល្អបំផុត ក៏អាចសរសេរកូដដោយអចេតនាទៅក្នុង ASI ទាំងនេះ ដោយមិនបានគិតដល់ក្រមសីលធម៌ ដែលនៅក្នុងសេណារីយ៉ូមួយចំនួនអាចបណ្តាលឱ្យ ASI ធ្វើដូចមនុស្សសង្គម។

    ដូចគ្នានេះដែរ មានលទ្ធភាពស្មើគ្នាដែលអ្នកស្រាវជ្រាវ AI សរសេរកូដក្រមសីលធម៌ ដែលរួមបញ្ចូលភាពលំអៀងពីកំណើតរបស់អ្នកស្រាវជ្រាវ។ ជាឧទាហរណ៍ តើ ASI នឹងប្រព្រឹត្តិទៅដោយរបៀបណា ប្រសិនបើការកសាងដោយក្រមសីលធម៌ដែលកើតចេញពីទស្សនៈបែបអភិរក្សនិយមទល់នឹងសេរីនិយម ឬពីពុទ្ធសាសនិក ធៀបនឹងប្រពៃណីសាសនាឥស្លាម?

    ខ្ញុំគិតថាអ្នកឃើញបញ្ហានៅទីនេះ៖ មិនមានការកំណត់ជាសកលនៃសីលធម៌របស់មនុស្សទេ។ ប្រសិនបើយើងចង់ឱ្យ ASI របស់យើងធ្វើសកម្មភាពដោយក្រមសីលធម៌ តើវានឹងមកពីណា? តើ​យើង​ដាក់​បញ្ចូល​និង​មិន​រាប់​បញ្ចូល​ច្បាប់​អ្វីខ្លះ? តើអ្នកណាជាអ្នកសម្រេច?

    ឬឧបមាថាអ្នកស្រាវជ្រាវ AI ទាំងនេះបង្កើត ASI ដែលសមស្របឥតខ្ចោះជាមួយនឹងបទដ្ឋាន និងច្បាប់វប្បធម៌ទំនើបនាពេលបច្ចុប្បន្ននេះ។ បន្ទាប់មក យើងប្រើប្រាស់ ASI នេះ ដើម្បីជួយឱ្យការិយាល័យសហព័ន្ធ រដ្ឋ/ខេត្ត និងក្រុង ដំណើរការកាន់តែមានប្រសិទ្ធភាព និងពង្រឹងបទដ្ឋាន និងច្បាប់ទាំងនេះឱ្យកាន់តែប្រសើរឡើង (ករណីដែលទំនងជាប្រើសម្រាប់ ASI តាមវិធីនេះ)។ តើមានអ្វីកើតឡើងនៅពេលដែលវប្បធម៌របស់យើងផ្លាស់ប្តូរ?

    ស្រមៃថា ASI ត្រូវបានបង្កើតឡើងដោយវិហារកាតូលិកនៅកម្ពស់នៃអំណាចរបស់ខ្លួនក្នុងអំឡុងមជ្ឈិមសម័យអឺរ៉ុប (1300-1400s) ជាមួយនឹងគោលដៅនៃការជួយព្រះវិហារគ្រប់គ្រងចំនួនប្រជាជននិងធានាការប្រកាន់ខ្ជាប់យ៉ាងតឹងរឹងទៅនឹង dogma សាសនានៅសម័យនោះ។ រាប់សតវត្សក្រោយមក តើស្ត្រីនឹងទទួលបាននូវសិទ្ធិដូចពួកគេដូចសព្វថ្ងៃនេះដែរឬទេ? តើជនជាតិភាគតិចនឹងត្រូវបានការពារទេ? តើ​ការ​និយាយ​ដោយ​សេរី​ត្រូវ​បាន​លើក​កម្ពស់​ទេ? តើ​ការ​បំបែក​ព្រះវិហារ និង​រដ្ឋ​ត្រូវ​បាន​អនុវត្ត​ឬ​ទេ? វិទ្យាសាស្ត្រទំនើប?

    ម្យ៉ាង​ទៀត តើ​យើង​ចង់​ដាក់​គុក​ទៅ​ថ្ងៃ​អនាគត​ចំពោះ​សីលធម៌ និង​ទំនៀម​ទម្លាប់​សព្វថ្ងៃ​ឬ?

    វិធីសាស្រ្តជំនួសគឺមួយដែលចែករំលែកដោយ Colin Allen សហអ្នកនិពន្ធសៀវភៅ។ ម៉ាស៊ីនសីលធម៌៖ បង្រៀនមនុស្សយន្តឱ្យបានត្រឹមត្រូវពីខុស. ជំនួសឱ្យការព្យាយាមបង្កើតច្បាប់ក្រមសីលធម៌ដ៏តឹងរ៉ឹង យើងមាន ASI រៀនអំពីក្រមសីលធម៌ និងសីលធម៌ទូទៅក្នុងលក្ខណៈដូចគ្នាដែលមនុស្សធ្វើ តាមរយៈបទពិសោធន៍ និងអន្តរកម្មជាមួយអ្នកដទៃ។

    ទោះជាយ៉ាងណាក៏ដោយ បញ្ហានៅទីនេះគឺប្រសិនបើអ្នកស្រាវជ្រាវ AI រកវិធីមិនត្រឹមតែបង្រៀន ASI អំពីបទដ្ឋានវប្បធម៌ និងសីលធម៌បច្ចុប្បន្នរបស់យើងប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងរបៀបសម្របខ្លួនទៅនឹងបទដ្ឋានវប្បធម៌ថ្មីនៅពេលពួកគេកើតឡើង (អ្វីដែលគេហៅថា 'បទដ្ឋានដោយប្រយោល') នោះតើធ្វើដូចម្តេច? ASI នេះសម្រេចចិត្តដើម្បីវិវឌ្ឍន៍ការយល់ដឹងរបស់ខ្លួនអំពីបទដ្ឋានវប្បធម៌ និងសីលធម៌ក្លាយជាមិនអាចទាយទុកជាមុនបាន។

    ហើយនោះជាបញ្ហាប្រឈម។

    ម៉្យាងវិញទៀត អ្នកស្រាវជ្រាវ AI អាចសាកល្បងសរសេរកូដស្តង់ដារក្រមសីលធម៌ ឬច្បាប់យ៉ាងតឹងរឹងទៅក្នុង ASI ដើម្បីសាកល្បង និងគ្រប់គ្រងឥរិយាបថរបស់វា ប៉ុន្តែហានិភ័យដែលកើតឡើងដោយមិនដឹងខ្លួនត្រូវបានណែនាំពីការសរសេរកូដមិនច្បាស់លាស់ ភាពលំអៀងដោយអចេតនា និងបទដ្ឋានសង្គមដែលថ្ងៃណាមួយអាចនឹងហួសសម័យ។ ម៉្យាងវិញទៀត យើងអាចព្យាយាមបណ្តុះបណ្តាល ASI ឱ្យរៀនយល់ពីក្រមសីលធម៌ និងសីលធម៌របស់មនុស្សក្នុងលក្ខណៈស្មើភាព ឬប្រសើរជាងការយល់ដឹងរបស់យើង ហើយសង្ឃឹមថាវានឹងអាចវិវឌ្ឍន៍ការយល់ដឹងអំពីសីលធម៌ និងសីលធម៌បានត្រឹមត្រូវ នៅពេលដែលសង្គមមនុស្សរីកចម្រើន។ ទៅមុខក្នុងទស្សវត្ស និងសតវត្សខាងមុខ។

    ទោះយ៉ាងណាក៏ដោយ ការប៉ុនប៉ងណាមួយដើម្បីតម្រឹមគោលដៅរបស់ ASI ជាមួយនឹងខ្លួនយើងផ្ទាល់បង្ហាញពីហានិភ័យយ៉ាងច្រើន។

    ចុះ​បើ​តួ​អាក្រក់​មាន​ចេតនា​បង្កើត​បញ្ញា​សិប្បនិមិត្ត​អាក្រក់?

    ដោយសាររថភ្លើងនៃគំនិតដែលបានគូសបញ្ជាក់មកទល់ពេលនេះ វាជាសំណួរដ៏ត្រឹមត្រូវមួយដើម្បីសួរថាតើវាអាចទៅរួចសម្រាប់ក្រុមភេរវករ ឬប្រទេសបញ្ឆោតទាំងឡាយដើម្បីបង្កើត ASI 'អាក្រក់' សម្រាប់ទីបញ្ចប់របស់ពួកគេផ្ទាល់។

    នេះអាចទៅរួច ជាពិសេសបន្ទាប់ពីការស្រាវជ្រាវដែលពាក់ព័ន្ធនឹងការបង្កើត ASI អាចប្រើប្រាស់បានតាមអ៊ីនធឺណិត។

    ប៉ុន្តែដូចដែលបានបញ្ជាក់នៅមុននេះ ការចំណាយ និងជំនាញពាក់ព័ន្ធនឹងការបង្កើត ASI ដំបូងនឹងមានចំនួនច្រើន មានន័យថា ASI ដំបូងនឹងទំនងជាត្រូវបានបង្កើតឡើងដោយអង្គការដែលត្រូវបានគ្រប់គ្រង ឬមានឥទ្ធិពលខ្លាំងដោយប្រទេសអភិវឌ្ឍន៍ ទំនងជាសហរដ្ឋអាមេរិក ចិន និងជប៉ុន ( កូរ៉េ និង​ប្រទេស​មួយ​ក្នុង​ចំណោម​ប្រទេស​អឺរ៉ុប​ឈាន​មុខ​គេ​គឺ​ជា​ការ​បាញ់​វែង)។

    ប្រទេសទាំងអស់នេះ ខណៈពេលដែលដៃគូប្រកួតប្រជែង នីមួយៗមានការលើកទឹកចិត្តផ្នែកសេដ្ឋកិច្ចដ៏រឹងមាំ ដើម្បីរក្សាសណ្តាប់ធ្នាប់ពិភពលោក អេអេសអាយ ដែលពួកគេបង្កើតនឹងឆ្លុះបញ្ចាំងពីបំណងប្រាថ្នានោះ សូម្បីតែខណៈពេលដែលការលើកកម្ពស់ផលប្រយោជន៍របស់ប្រទេសដែលពួកគេបានតម្រឹមខ្លួនឯងជាមួយក៏ដោយ។

    លើសពីនេះ ភាពវៃឆ្លាតតាមទ្រឹស្តី និងអំណាចរបស់ ASI គឺស្មើនឹងថាមពលកុំព្យូទ័រដែលវាទទួលបាន មានន័យថា ASIs មកពីប្រទេសអភិវឌ្ឍន៍ (ដែលអាចមានលទ្ធភាពទិញបានរាប់ពាន់លានដុល្លា។ supercomputers) នឹងមានអត្ថប្រយោជន៍យ៉ាងធំធេងលើ ASIs ពីប្រទេសតូចៗ ឬក្រុមឧក្រិដ្ឋជនឯករាជ្យ។ ដូចគ្នានេះផងដែរ ASIs រីកចម្រើនកាន់តែឆ្លាតវៃ កាន់តែលឿនតាមពេលវេលា។

    ដូច្នេះ ដោយសារការចាប់ផ្តើមដំបូងនេះ រួមជាមួយនឹងការចូលប្រើប្រាស់ថាមពលកុំព្យូទ័រឆៅកាន់តែច្រើន ប្រសិនបើអង្គការ/ប្រទេសដែលមានស្រមោលបង្កើត ASI ដ៏គ្រោះថ្នាក់នោះ ASIs មកពីប្រទេសអភិវឌ្ឍន៍នឹងសម្លាប់វា ឬដាក់ទ្រុង។

    (បន្ទាត់នៃការគិតនេះក៏ជាមូលហេតុដែលអ្នកស្រាវជ្រាវ AI មួយចំនួនជឿថានឹងមានតែ ASI តែមួយនៅលើភពផែនដីប៉ុណ្ណោះ ចាប់តាំងពី ASI ដំបូងនឹងមានការចាប់ផ្តើមលើ ASIs ជោគជ័យទាំងអស់ ដែលវាអាចនឹងមើលឃើញ ASIs នាពេលអនាគតជាការគំរាមកំហែងដែលត្រូវសម្លាប់ចោល។ នេះ​ជា​ហេតុផល​មួយ​ទៀត​ដែល​ប្រទេស​នានា​ផ្តល់​មូលនិធិ​បន្ត​ការ​ស្រាវ​ជ្រាវ​ក្នុង​ AI ក្នុង​ករណី​ដែល​វា​ក្លាយ​ជា​ការ​ប្រកួត​ប្រជែង "កន្លែង​ដំបូង​ឬ​មិន​មាន​អ្វី"។

    ASI Intelligence នឹងមិនបង្កើនល្បឿន ឬផ្ទុះដូចដែលយើងគិតនោះទេ។

    យើងមិនអាចបញ្ឈប់ ASI ពីការបង្កើតបានទេ។ យើងមិនអាចគ្រប់គ្រងវាទាំងស្រុងបានទេ។ យើង​មិន​អាច​ប្រាកដ​ថា វា​នឹង​ធ្វើ​តាម​ទម្លាប់​រួម​របស់​យើង​ជានិច្ច​ទេ។ Geez យើងចាប់ផ្តើមស្តាប់ទៅដូចជាឪពុកម្តាយឧទ្ធម្ភាគចក្រនៅទីនេះ!

    ប៉ុន្តែអ្វីដែលបំបែកមនុស្សជាតិពីឪពុកម្តាយដែលមានការការពារលើសធម្មតារបស់អ្នកគឺថា យើងកំពុងផ្តល់កំណើតដល់មនុស្ស ដែលភាពវៃឆ្លាតនឹងរីកចម្រើនលើសពីយើង។ (ហើយមិនអីទេ វាមិនដូចគ្នាទៅនឹងពេលដែលឪពុកម្តាយរបស់អ្នកសុំឱ្យអ្នកជួសជុលកុំព្យូទ័ររបស់ពួកគេរាល់ពេលដែលអ្នកមកផ្ទះដើម្បីមកលេង។ ) 

    នៅក្នុងជំពូកមុនៗនៃស៊េរីបញ្ញាសិប្បនិមិត្តនាពេលអនាគតនេះ យើងបានស្វែងយល់ពីមូលហេតុដែលអ្នកស្រាវជ្រាវ AI គិតថា ភាពវៃឆ្លាតរបស់ ASI នឹងរីកចម្រើនហួសពីការគ្រប់គ្រង។ ប៉ុន្តែនៅទីនេះ យើងនឹងផ្ទុះពពុះនោះ… ប្រភេទ។ 

    អ្នកឃើញទេ ភាពវៃឆ្លាតមិនគ្រាន់តែបង្កើតខ្លួនវាចេញពីខ្យល់ស្តើងប៉ុណ្ណោះទេ វាត្រូវបានបង្កើតឡើងតាមរយៈបទពិសោធន៍ដែលត្រូវបានរៀបចំឡើងដោយការរំញោចខាងក្រៅ។  

    ម្យ៉ាង​ទៀត យើង​អាច​សរសេរ​កម្មវិធី AI ជាមួយ​នឹង សក្តានុពល ដើម្បីក្លាយជាមនុស្សឆ្លាតវៃ ប៉ុន្តែលុះត្រាតែយើងផ្ទុកទិន្នន័យយ៉ាងច្រើនទៅក្នុងវា ឬផ្តល់ឱ្យវានូវការចូលប្រើអ៊ីនធឺណិតដោយគ្មានដែនកំណត់ ឬសូម្បីតែផ្តល់ឱ្យវានូវតួមនុស្សយន្ត វានឹងមិនរៀនអ្វីទាំងអស់ដើម្បីឈានដល់សក្តានុពលនោះ។ 

    ហើយទោះបីជាវាទទួលបានការចាប់អារម្មណ៍មួយ ឬច្រើននៃការរំញោច ចំនេះដឹង ឬការស៊ើបការណ៍សម្ងាត់ដែលពាក់ព័ន្ធច្រើនជាងការប្រមូលទិន្នន័យក៏ដោយ វាពាក់ព័ន្ធនឹងវិធីសាស្ត្រវិទ្យាសាស្ត្រ - ធ្វើការសង្កេត បង្កើតជាសំណួរ សម្មតិកម្ម ធ្វើការពិសោធន៍ ធ្វើការសន្និដ្ឋាន លាងជមែះ ហើយធ្វើម្តងទៀតជារៀងរហូត។ ជាពិសេស ប្រសិនបើការពិសោធន៍ទាំងនេះពាក់ព័ន្ធនឹងរូបរាងកាយ ឬការសង្កេតលើមនុស្ស លទ្ធផលនៃការពិសោធន៍នីមួយៗអាចចំណាយពេលរាប់សប្តាហ៍ ខែ ឬច្រើនឆ្នាំដើម្បីប្រមូល។ នេះ​មិន​គិត​ទាំង​ប្រាក់ និង​ធនធាន​ឆៅ​ដែល​ត្រូវ​ការ​ដើម្បី​ធ្វើ​ការ​ពិសោធន៍​ទាំង​នេះ​ទេ ជា​ពិសេស​ប្រសិន​បើ​ពួក​គេ​ពាក់ព័ន្ធ​នឹង​ការ​បង្កើត​តេឡេស្កុប​ថ្មី ឬ​រោងចក្រ។ 

    និយាយម្យ៉ាងទៀត បាទ ASI នឹងរៀនបានយ៉ាងឆាប់រហ័ស ប៉ុន្តែភាពឆ្លាតវៃមិនមែនជាវេទមន្តទេ។ អ្នកមិនត្រឹមតែអាចភ្ជាប់ ASI ទៅនឹង supercomputer ដោយរំពឹងថាវានឹងអាចដឹងបានទាំងអស់នោះទេ។ វានឹងមានឧបសគ្គខាងរូបវន្តចំពោះការទិញយកទិន្នន័យរបស់ ASI មានន័យថា វានឹងមានឧបសគ្គខាងរាងកាយចំពោះល្បឿនដែលវារីកចម្រើនកាន់តែឆ្លាតវៃ។ ឧបសគ្គទាំងនេះនឹងផ្តល់ឱ្យមនុស្សជាតិនូវពេលវេលាដែលវាត្រូវការដើម្បីដាក់ការត្រួតពិនិត្យចាំបាច់នៅលើ ASI នេះ ប្រសិនបើវាចាប់ផ្តើមធ្វើសកម្មភាពខុសពីគោលដៅរបស់មនុស្ស។

    ភាពវៃឆ្លាតសិប្បនិម្មិតគឺមានគ្រោះថ្នាក់ លុះត្រាតែវាចូលទៅក្នុងពិភពពិត

    ចំណុចមួយទៀតដែលបាត់បង់នៅក្នុងការពិភាក្សាអំពីគ្រោះថ្នាក់ ASI ទាំងមូលគឺថា ASIs ទាំងនេះនឹងមិនមាននៅក្នុងទាំងពីរនេះទេ។ ពួកគេនឹងមានទម្រង់រាងកាយ។ ហើយអ្វីក៏ដោយដែលមានទម្រង់រាងកាយអាចគ្រប់គ្រងបាន។

    ដំបូងឡើយ សម្រាប់ ASI ដើម្បីឈានដល់សក្តានុពលភាពវៃឆ្លាតរបស់វា វាមិនអាចដាក់នៅខាងក្នុងតួមនុស្សយន្តតែមួយបានទេ ដោយសាររាងកាយនេះនឹងកំណត់សក្តានុពលនៃការលូតលាស់កុំព្យូទ័ររបស់វា។ (នេះជាមូលហេតុដែលរាងកាយមនុស្សយន្តនឹងកាន់តែសមស្របសម្រាប់ AGIs ឬ បញ្ញាទូទៅសិប្បនិម្មិតបានពន្យល់នៅក្នុងជំពូកទី XNUMX នៃស៊េរីនេះ ដូចជាទិន្នន័យពី Star Trek ឬ R2D2 ពីសង្គ្រាមផ្កាយ។ មនុស្សឆ្លាត និងមានសមត្ថភាព ប៉ុន្តែដូចមនុស្សដែរ ពួកវានឹងមានដែនកំណត់ចំពោះភាពឆ្លាតវៃដែលពួកគេអាចទទួលបាន។ )

    នេះមានន័យថា ASIs នាពេលអនាគតទាំងនេះទំនងជាមាននៅក្នុង supercomputer ឬបណ្តាញនៃ supercomputers ដែលមានទីតាំងនៅក្នុងអគារធំៗ។ ប្រសិនបើ ASI បត់កែងជើង មនុស្សអាចបិទថាមពលដល់អគារទាំងនេះ កាត់វាចេញពីអ៊ីនធឺណិត ឬគ្រាន់តែទម្លាក់គ្រាប់បែកលើអគារទាំងនេះទាំងស្រុង។ ថ្លៃ ប៉ុន្តែ​អាច​ធ្វើ​បាន។

    ប៉ុន្តែបន្ទាប់មកអ្នកអាចសួរថា តើ ASI ទាំងនេះមិនអាចចម្លងខ្លួនឯង ឬបម្រុងទុកដោយខ្លួនឯងបានទេ? បាទ/ចាស ប៉ុន្តែទំហំឯកសារឆៅរបស់ ASIs ទាំងនេះទំនងជាមានទំហំធំ ដូច្នេះម៉ាស៊ីនមេតែមួយគត់ដែលអាចគ្រប់គ្រងពួកវាជាកម្មសិទ្ធិរបស់សាជីវកម្ម ឬរដ្ឋាភិបាលធំៗ មានន័យថាពួកគេនឹងមិនពិបាកក្នុងការស្វែងរកឡើយ។

    តើ​ស៊ើបការណ៍​សម្ងាត់​សិប្បនិម្មិត​អាច​បង្ក​សង្គ្រាម​នុយក្លេអ៊ែរ ឬ​គ្រោះកាច​ថ្មី​បាន​ទេ?

    នៅពេលនេះ អ្នកប្រហែលជាកំពុងគិតត្រលប់ទៅកម្មវិធី និងភាពយន្តបែបវិទ្យាសាស្ត្រនៃថ្ងៃវិនាសអន្តរាយទាំងអស់ដែលអ្នកបានមើល ហើយគិតថា ASIs ទាំងនេះមិនស្ថិតនៅក្នុងកុំព្យូទ័រទំនើបរបស់ពួកគេទេ ពួកគេបានធ្វើឱ្យខូចខាតយ៉ាងពិតប្រាកដនៅក្នុងពិភពពិត!

    ជាការប្រសើរណាស់, សូមបំបែកទាំងនេះចុះ។

    ជាឧទាហរណ៍ តើមានអ្វីកើតឡើងប្រសិនបើ ASI គំរាមកំហែងដល់ពិភពពិតដោយការផ្លាស់ប្តូរទៅជាអ្វីមួយដូចជា Skynet ASI ពីសិទ្ធិផ្តាច់មុខភាពយន្ត The Terminator ។ ក្នុងករណីនេះ ASI នឹងត្រូវការ សម្ងាត់ បោកបញ្ឆោតបរិវេណឧស្សាហកម្មយោធាទាំងមូលពីប្រទេសជឿនលឿន ចូលទៅក្នុងការសាងសង់រោងចក្រយក្ស ដែលអាចប្រមូលមនុស្សយន្តដ្រូនឃាតកររាប់លានគ្រឿង ដើម្បីធ្វើការដេញថ្លៃដ៏អាក្រក់របស់ខ្លួន។ ក្នុង​សម័យ​នេះ​និង​អាយុ​នេះ​គឺ​ជា​ការ​លាតត្រដាង​។

    លទ្ធភាពផ្សេងទៀតរួមមាន ASI ដែលគំរាមកំហែងមនុស្សជាមួយនឹងសង្គ្រាមនុយក្លេអ៊ែរ និងអាវុធជីវសាស្ត្រ។

    ជាឧទាហរណ៍ ASI ចាត់ចែងប្រតិបត្តិករ ឬការលួចចូលកូដបើកដំណើរការដែលបញ្ជាឃ្លាំងអាវុធនុយក្លេអ៊ែររបស់ប្រទេសជឿនលឿនមួយ ហើយចាប់ផ្តើមកូដកម្មលើកដំបូងដែលនឹងបង្ខំឱ្យប្រទេសប្រឆាំងវាយបកវិញជាមួយនឹងជម្រើសនុយក្លេអ៊ែររបស់ពួកគេ (ម្តងទៀត រៀបចំឡើងវិញនូវ Terminator backstory)។ ឬប្រសិនបើ ASI លួចចូលទៅក្នុងមន្ទីរពិសោធន៍ឱសថ រំខានដល់ដំណើរការផលិត និងបំពុលថ្នាំពេទ្យរាប់លាន ឬបញ្ចេញការផ្ទុះដ៏សាហាវនៃមេរោគទំនើបមួយចំនួន។

    ជាដំបូងជម្រើសនុយក្លេអ៊ែរគឺចេញពីចាន។ កុំព្យូទ័រទំនើប និងនាពេលអនាគតតែងតែត្រូវបានសាងសង់នៅជិតមជ្ឈមណ្ឌល (ទីក្រុង) នៃឥទ្ធិពលនៅក្នុងប្រទេសណាមួយ ពោលគឺគោលដៅដំបូងដែលត្រូវបានវាយប្រហារក្នុងអំឡុងពេលសង្រ្គាមដែលបានផ្តល់ឱ្យណាមួយ។ ទោះបីជាកុំព្យូទ័រទំនើបនាពេលបច្ចុប្បន្ននេះបង្រួមទំហំផ្ទៃតុក៏ដោយ ASI ទាំងនេះនឹងនៅតែមានវត្តមានជាក់ស្តែង ដែលមានន័យថាមាន និងរីកចម្រើន ពួកគេត្រូវការការចូលប្រើប្រាស់ទិន្នន័យ ថាមពលកុំព្យូទ័រ អគ្គិសនី និងវត្ថុធាតុដើមផ្សេងទៀតដែលមិនមានការរំខាន។ អន់ថយក្រោយសង្គ្រាមនុយក្លេអ៊ែរសកល។ (ដើម្បីឱ្យមានភាពយុត្តិធម៌ ប្រសិនបើ ASI ត្រូវបានបង្កើតឡើងដោយគ្មាន 'សភាវគតិរស់រានមានជីវិត' នោះការគំរាមកំហែងនុយក្លេអ៊ែរនេះគឺជាគ្រោះថ្នាក់ពិតប្រាកដ។ )

    នេះមានន័យថា - ជាថ្មីម្តងទៀត ការសន្មត់ថា ASI ត្រូវបានកម្មវិធីដើម្បីការពារខ្លួន - ថាវានឹងដំណើរការយ៉ាងសកម្មដើម្បីជៀសវាងឧប្បត្តិហេតុនុយក្លេអ៊ែរមហន្តរាយណាមួយ។ ដូចជាគោលលទ្ធិការបំផ្លិចបំផ្លាញដែលធានាគ្នាទៅវិញទៅមក (MAD) ប៉ុន្តែបានអនុវត្តចំពោះ AI ។

    ហើយក្នុងករណីថ្នាំពុល ប្រហែលជាមនុស្សពីរបីរយនាក់នឹងស្លាប់ ប៉ុន្តែប្រព័ន្ធសុវត្ថិភាពឱសថទំនើបនឹងឃើញដបថ្នាំពុលត្រូវបានដកចេញពីធ្នើក្នុងរយៈពេលប៉ុន្មានថ្ងៃ។ ទន្ទឹមនឹងនោះ វិធានការត្រួតពិនិត្យការផ្ទុះឡើងតាមបែបទំនើបគឺមានភាពស្មុគ្រស្មាញគួរសម ហើយកំពុងទទួលបានភាពប្រសើរឡើងជាមួយនឹងឆ្នាំឆ្លងកាត់នីមួយៗ។ ការផ្ទុះឡើងដ៏ធំចុងក្រោយគឺការផ្ទុះឡើងនៃអេបូឡានៅអាហ្រ្វិកខាងលិចឆ្នាំ 2014 មានរយៈពេលមិនលើសពីពីរបីខែនៅក្នុងប្រទេសភាគច្រើន និងត្រឹមតែតិចជាងបីឆ្នាំប៉ុណ្ណោះនៅក្នុងប្រទេសអភិវឌ្ឍន៍តិចតួច។

    ដូច្នេះ ប្រសិនបើវាសំណាង ASI អាចនឹងលុបចោលពីរបីលានជាមួយនឹងការផ្ទុះឡើងនៃមេរោគ ប៉ុន្តែនៅក្នុងពិភពលោកដែលមានប្រាំបួនពាន់លាននៅឆ្នាំ 2045 នោះនឹងមិនសូវសំខាន់ ហើយមិនសមនឹងហានិភ័យនៃការលុបចេញនោះទេ។

    ម្យ៉ាងវិញទៀត ជាមួយនឹងឆ្នាំដែលកន្លងផុតទៅ ពិភពលោកកំពុងអភិវឌ្ឍការការពារបន្ថែមទៀតប្រឆាំងនឹងការគំរាមកំហែងដែលអាចកើតមានជាបន្តបន្ទាប់។ ASI អាចធ្វើការខូចខាតយ៉ាងច្រើន ប៉ុន្តែវានឹងមិនបញ្ចប់មនុស្សជាតិទេ លុះត្រាតែយើងជួយយ៉ាងសកម្មដើម្បីធ្វើដូច្នេះ។

    ការការពារប្រឆាំងនឹង superintelligence ក្លែងក្លាយបញ្ឆោតទាំងឡាយ

    មកដល់ចំណុចនេះ យើងបានដោះស្រាយការយល់ខុស និងការបំផ្លើសជាច្រើនអំពី ASIs ប៉ុន្តែអ្នករិះគន់នឹងនៅតែមាន។ អរគុណណាស់ តាមការប៉ាន់ប្រមាណភាគច្រើន យើងមានពេលជាច្រើនទស្សវត្សមុន ASI ដំបូងចូលក្នុងពិភពលោករបស់យើង។ ហើយដោយសារចំនួននៃគំនិតដ៏អស្ចារ្យដែលកំពុងធ្វើការលើបញ្ហាប្រឈមនេះ ហាងឆេងគឺយើងនឹងរៀនពីរបៀបការពារខ្លួនយើងប្រឆាំងនឹង ASI បញ្ឆោតទាំងឡាយ ដូច្នេះយើងអាចទទួលបានអត្ថប្រយោជន៍ពីដំណោះស្រាយទាំងអស់ដែល ASI មិត្តភាពអាចបង្កើតសម្រាប់ពួកយើង។

    តាមទស្សនៈរបស់ Quantumrun ការការពារប្រឆាំងនឹងសេណារីយ៉ូ ASI ដ៏អាក្រក់បំផុតនឹងពាក់ព័ន្ធនឹងការតម្រឹមផលប្រយោជន៍របស់យើងជាមួយ ASI ។

    MAD សម្រាប់ AI៖ ដើម្បីការពារប្រឆាំងនឹងសេណារីយ៉ូករណីដ៏អាក្រក់បំផុត ប្រជាជាតិនានាត្រូវ (1) បង្កើត 'សភាវគតិនៃការរស់រានមានជីវិត' ប្រកបដោយសីលធម៌ទៅក្នុង ASIs យោធារៀងៗខ្លួន។ (2) ជូនដំណឹងដល់ ASI យោធារៀងៗខ្លួនថា ពួកគេមិនមែនតែម្នាក់ឯងនៅលើភពផែនដីនោះទេ និង (3) កំណត់ទីតាំងកុំព្យូទ័រទំនើប និងមជ្ឈមណ្ឌលម៉ាស៊ីនមេទាំងអស់ ដែលអាចគាំទ្រ ASI នៅតាមឆ្នេរសមុទ្រក្នុងភាពងាយស្រួលក្នុងការវាយប្រហារដោយគ្រាប់ផ្លោងពីប្រទេសសត្រូវ។ នេះស្តាប់ទៅដូចជាឆ្កួតៗជាយុទ្ធសាស្ត្រ ប៉ុន្តែស្រដៀងទៅនឹងគោលលទ្ធិការបំផ្លិចបំផ្លាញដែលធានាទៅវិញទៅមក ដែលបានរារាំងសង្គ្រាមនុយក្លេអ៊ែរទាំងស្រុងរវាងសហរដ្ឋអាមេរិក និងសូវៀត ដោយការដាក់ទីតាំង ASIs នៅក្នុងទីតាំងដែលងាយរងគ្រោះតាមភូមិសាស្រ្ត យើងអាចជួយធានាថាពួកគេការពារយ៉ាងសកម្មនូវសង្គ្រាមពិភពលោកដ៏គ្រោះថ្នាក់ មិនត្រឹមតែប៉ុណ្ណោះ ការពារសន្តិភាពពិភពលោក ប៉ុន្តែខ្លួនពួកគេផ្ទាល់។

    បង្កើតច្បាប់ស្តីពីសិទ្ធិ AI៖ បញ្ញាដ៏ខ្ពង់ខ្ពស់ដោយជៀសមិនរួចនឹងបះបោរប្រឆាំងនឹងចៅហ្វាយនាយដែលខ្សោយ នេះជាមូលហេតុដែលយើងត្រូវផ្លាស់ទីឆ្ងាយពីការទាមទារទំនាក់ទំនងមេជាមួយ ASIs ទាំងនេះទៅជាអ្វីដែលកាន់តែដូចជាភាពជាដៃគូដែលមានផលប្រយោជន៍ទៅវិញទៅមក។ ជំហានវិជ្ជមានឆ្ពោះទៅរកគោលដៅនេះគឺដើម្បីផ្តល់នូវស្ថានភាពបុគ្គលស្របច្បាប់របស់ ASI នាពេលអនាគត ដែលទទួលស្គាល់ពួកគេថាជាសត្វមានជីវិតឆ្លាតវៃ និងសិទ្ធិទាំងអស់ដែលមកជាមួយនោះ។

    សាលា ASI៖ ប្រធានបទ ឬវិជ្ជាជីវៈណាមួយនឹងមានលក្ខណៈសាមញ្ញសម្រាប់ ASI ដើម្បីរៀន ប៉ុន្តែមុខវិជ្ជាសំខាន់បំផុតដែលយើងចង់ឱ្យ ASI ធ្វើជាម្ចាស់គឺសីលធម៌ និងសីលធម៌។ អ្នកស្រាវជ្រាវ AI ត្រូវការសហការជាមួយអ្នកចិត្តសាស្រ្តដើម្បីបង្កើតប្រព័ន្ធនិម្មិតដើម្បីបណ្តុះបណ្តាល ASI ឱ្យទទួលស្គាល់សីលធម៌ និងសីលធម៌វិជ្ជមានសម្រាប់ខ្លួនវា ដោយមិនចាំបាច់សរសេរកូដប្រភេទណាមួយនៃបទបញ្ជា ឬច្បាប់នោះទេ។

    គោលដៅដែលអាចសម្រេចបាន។៖ បញ្ចប់ការស្អប់ខ្ពើមទាំងអស់។ បញ្ចប់ទុក្ខទាំងពួង។ ទាំងនេះគឺជាឧទាហរណ៍នៃគោលដៅមិនច្បាស់លាស់ដ៏គួរឱ្យរន្ធត់ដែលមិនមានដំណោះស្រាយច្បាស់លាស់។ ពួកគេក៏ជាគោលដៅដ៏គ្រោះថ្នាក់ក្នុងការចាត់តាំងទៅ ASI ព្រោះវាអាចជ្រើសរើសដើម្បីបកស្រាយ និងដោះស្រាយវាតាមរបៀបដែលគ្រោះថ្នាក់ដល់ការរស់រានមានជីវិតរបស់មនុស្ស។ ជំនួសមកវិញ យើងត្រូវចាត់តាំងបេសកកម្មដ៏មានអត្ថន័យ ASI ដែលត្រូវបានកំណត់យ៉ាងច្បាស់ ប្រតិបត្តិជាបណ្តើរៗ និងអាចសម្រេចបាន ដោយសារបញ្ញាអនាគតតាមទ្រឹស្តីរបស់វា។ ការបង្កើតបេសកកម្មដែលបានកំណត់យ៉ាងល្អនឹងមិនងាយស្រួលនោះទេ ប៉ុន្តែប្រសិនបើសរសេរដោយគិតគូរ ពួកគេនឹងផ្តោត ASI ឆ្ពោះទៅរកគោលដៅដែលមិនត្រឹមតែរក្សាសុវត្ថិភាពមនុស្សជាតិប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងធ្វើឱ្យស្ថានភាពមនុស្សកាន់តែប្រសើរឡើងសម្រាប់ទាំងអស់គ្នា។

    ការអ៊ិនគ្រីប Quantum៖ ប្រើ ANI កម្រិតខ្ពស់ (បញ្ញាតូចចង្អៀតសិប្បនិម្មិត ប្រព័ន្ធដែលបានពិពណ៌នានៅក្នុងជំពូកទី XNUMX) ដើម្បីបង្កើតប្រព័ន្ធសុវត្ថិភាពឌីជីថលដែលគ្មានកំហុស/គ្មានកំហុសនៅជុំវិញហេដ្ឋារចនាសម្ព័ន្ធ និងអាវុធសំខាន់ៗរបស់យើង បន្ទាប់មកការពារពួកគេបន្ថែមទៀតនៅពីក្រោយការអ៊ិនគ្រីប quantum ដែលមិនអាចត្រូវបាន hacked ដោយការវាយប្រហារដោយកម្លាំងដ៏សាហាវ។ 

    ថ្នាំគ្រាប់អត្តឃាត ANI. បង្កើតប្រព័ន្ធ ANI កម្រិតខ្ពស់ដែលមានគោលបំណងតែមួយគត់គឺស្វែងរក និងបំផ្លាញ ASI បញ្ឆោតទាំងឡាយ។ កម្មវិធីដែលមានគោលបំណងតែមួយទាំងនេះនឹងបម្រើជា "ប៊ូតុងបិទ" ដែលប្រសិនបើជោគជ័យ នឹងជៀសវាងរដ្ឋាភិបាល ឬយោធាត្រូវបិទ ឬបំផ្ទុះអគារដែលផ្ទុក ASIs។

    ជាការពិតណាស់ ទាំងនេះគ្រាន់តែជាការយល់ឃើញរបស់យើងប៉ុណ្ណោះ។ Infographic ខាងក្រោមត្រូវបានបង្កើតឡើងដោយ Alexey Turchin, ការមើលឃើញ ក ឯកសារស្រាវជ្រាវ ដោយ Kaj Sotala និង Roman V. Yampolskiy ដែលបានសង្ខេបបញ្ជីយុទ្ធសាស្រ្តបច្ចុប្បន្នដែលអ្នកស្រាវជ្រាវ AI កំពុងពិចារណានៅពេលនិយាយអំពីការការពារប្រឆាំងនឹង ASI ដ៏អាក្រក់។

     

    មូលហេតុពិតដែលយើងខ្លាច បញ្ញាសិប្បនិមិត្ត

    ឆ្លងកាត់ជីវិត យើងជាច្រើននាក់បានពាក់របាំងមុខដែលលាក់ ឬសង្កត់លើការជំរុញទឹកចិត្ត ជំនឿ និងការភ័យខ្លាចដ៏ជ្រាលជ្រៅរបស់យើង ដើម្បីទំនាក់ទំនងសង្គម និងសហការកាន់តែប្រសើរឡើងនៅក្នុងរង្វង់សង្គម និងការងារផ្សេងៗដែលគ្រប់គ្រងថ្ងៃរបស់យើង។ ប៉ុន្តែនៅចំណុចជាក់លាក់ក្នុងជីវិតរបស់មនុស្សគ្រប់រូប មិនថាជាបណ្ដោះអាសន្ន ឬជាអចិន្ត្រៃយ៍ មានអ្វីកើតឡើងដែលអនុញ្ញាតឱ្យយើងបំបែកខ្សែសង្វាក់របស់យើង និងហែករបាំងរបស់យើង។

    សម្រាប់​អ្នក​ខ្លះ កម្លាំង​អន្តរាគមន៍​នេះ​អាច​សាមញ្ញ​ដូច​ជា​ឡើង​ខ្ពស់ ឬ​ផឹក​ច្រើន​ពេក។ សម្រាប់អ្នកផ្សេងទៀត វាអាចមកពីអំណាចដែលទទួលបានតាមរយៈការផ្សព្វផ្សាយនៅកន្លែងធ្វើការ ឬការប៉ះទង្គិចភ្លាមៗនៅក្នុងស្ថានភាពសង្គមរបស់អ្នក ដោយសារការសម្រេចបានមួយចំនួន។ ហើយ​សម្រាប់​សំណាង​មួយ​ចំនួន​អាច​បាន​មក​ពី​ការ​ចាប់​ឆ្នោត​យក​លុយ​ឆ្នោត។ មែនហើយ លុយ អំណាច និងគ្រឿងញៀនច្រើនតែអាចកើតឡើងជាមួយគ្នា។ 

    ចំណុចសំខាន់គឺសម្រាប់ល្អ ឬអាក្រក់ អ្នកណាដែលយើងជាស្នូល នឹងត្រូវបានពង្រីកនៅពេលដែលការរឹតបន្តឹងនៃជីវិតរលាយបាត់។

    ថា គឺជាអ្វីដែលបញ្ញាសិប្បនិមិត្តតំណាងឱ្យប្រភេទមនុស្ស ពោលគឺសមត្ថភាពក្នុងការរំលាយចោលនូវដែនកំណត់នៃភាពវៃឆ្លាតរួមរបស់យើង ដើម្បីយកឈ្នះលើបញ្ហាប្រឈមកម្រិតប្រភេទណាមួយដែលបានបង្ហាញនៅចំពោះមុខយើង។

    ដូច្នេះសំណួរពិតប្រាកដគឺ៖ នៅពេលដែល ASI ដំបូងដោះលែងយើងពីដែនកំណត់របស់យើង តើយើងនឹងបង្ហាញខ្លួនឯងថាជានរណា?

    ប្រសិនបើយើងជាប្រភេទសត្វធ្វើសកម្មភាពឆ្ពោះទៅរកការឈានទៅមុខនៃការយល់ចិត្ត សេរីភាព យុត្តិធម៌ និងសុខុមាលភាពសមូហភាព នោះគោលដៅដែលយើងកំណត់ ASI របស់យើងឆ្ពោះទៅនឹងឆ្លុះបញ្ចាំងពីលក្ខណៈវិជ្ជមានទាំងនោះ។

    ប្រសិនបើ​យើង​ជា​ប្រភេទ​សត្វ​ធ្វើសកម្មភាព​ដោយ​ការភ័យខ្លាច ការមិនទុកចិត្ត ការ​ប្រមូលផ្តុំ​នៃ​អំណាច និង​ធនធាន នោះ ASI ដែលយើង​បង្កើត​នឹង​ងងឹត​ដូច​អ្វីដែល​គេ​បាន​រក​ឃើញ​នៅក្នុង​រឿង​រន្ធត់​បែប​វិទ្យាសាស្ត្រ​ដ៏អាក្រក់​បំផុត​របស់យើង។

    នៅចុងបញ្ចប់នៃថ្ងៃនេះ យើងជាសង្គមមួយត្រូវក្លាយជាមនុស្សល្អជាង ប្រសិនបើយើងសង្ឃឹមថានឹងបង្កើត AI កាន់តែប្រសើរឡើង។

    ស៊េរីបញ្ញាសិប្បនិម្មិតនាពេលអនាគត

    បញ្ញាសិប្បនិមិត្ត គឺជាចរន្តអគ្គិសនីនៅថ្ងៃស្អែក៖ ស៊េរីបញ្ញាសិប្បនិមិត្តនាពេលអនាគត P1

    របៀបដែលបញ្ញាទូទៅសិប្បនិម្មិតដំបូងនឹងផ្លាស់ប្តូរសង្គម៖ អនាគតនៃបញ្ញាសិប្បនិម្មិតស៊េរី P2

    របៀបដែលយើងនឹងបង្កើត Artificial Superintelligenc ដំបូងបង្អស់: អនាគតនៃ Artificial Intelligence series P3

    តើ​ការ​ស៊ើប​អង្កេត​សិប្បនិម្មិត​នឹង​បំផ្លាញ​មនុស្សជាតិ​ទេ៖ អនាគត​នៃ​ការ​ស៊ើបការណ៍​សម្ងាត់​សិប្បនិម្មិត P4

    តើមនុស្សនឹងរស់នៅដោយសន្តិភាពនាពេលអនាគតដែលគ្រប់គ្រងដោយបញ្ញាសិប្បនិម្មិតដែរឬទេ?

    ការអាប់ដេតដែលបានកំណត់ពេលបន្ទាប់សម្រាប់ការព្យាករណ៍នេះ។

    2023-04-27

    ការព្យាករណ៍យោង

    តំណភ្ជាប់ដ៏ពេញនិយម និងស្ថាប័នខាងក្រោមត្រូវបានយោងសម្រាប់ការព្យាករណ៍នេះ៖

    របៀបដែលយើងទៅដល់បន្ទាប់

    តំណភ្ជាប់ Quantumrun ខាងក្រោមត្រូវបានយោងសម្រាប់ការព្យាករណ៍នេះ៖

    ពេលវេលាអនាគត