របៀបដែលមនុស្សនឹងការពារប្រឆាំងនឹង Artificial Superintelligence: អនាគតនៃបញ្ញាសិប្បនិម្មិត P5
របៀបដែលមនុស្សនឹងការពារប្រឆាំងនឹង Artificial Superintelligence: អនាគតនៃបញ្ញាសិប្បនិម្មិត P5
ឆ្នាំគឺ 65,000 មុនគ Thylacoleoអ្នក និងប្រភេទរបស់អ្នកគឺជាអ្នកប្រមាញ់ដ៏អស្ចារ្យនៃប្រទេសអូស្ត្រាលីបុរាណ។ អ្នកបានដើរជុំវិញដីដោយសេរី ហើយរស់នៅក្នុងលំនឹងជាមួយសត្វមំសាសី និងសត្វព្រៃដែលកាន់កាប់ដីក្បែរអ្នក។ រដូវកាលបាននាំមកនូវការផ្លាស់ប្តូរ ប៉ុន្តែស្ថានភាពរបស់អ្នកនៅក្នុងនគរសត្វនៅតែមិនមានបញ្ហាដរាបណាអ្នក និងបុព្វបុរសរបស់អ្នកអាចចងចាំបាន។ បន្ទាប់មកថ្ងៃមួយ អ្នកចំណូលថ្មីបានបង្ហាញខ្លួន។
ពាក្យចចាមអារ៉ាមថា ពួកគេបានមកដល់ពីជញ្ជាំងទឹកដ៏ធំ ប៉ុន្តែសត្វទាំងនេះហាក់ដូចជារស់នៅបានស្រួលជាងនៅលើដី។ អ្នកត្រូវមើលសត្វទាំងនេះដោយខ្លួនឯង។
វាចំណាយពេលពីរបីថ្ងៃ ប៉ុន្តែទីបំផុតអ្នកបានទៅដល់ឆ្នេរសមុទ្រ។ ភ្លើងនៅលើមេឃកំពុងឆេះ ដែលជាពេលវេលាដ៏ល្អឥតខ្ចោះដើម្បីឈ្លបយកការណ៍លើសត្វទាំងនេះ ប្រហែលជាសូម្បីតែសាកល្បងញ៉ាំមួយដើម្បីមើលពីរបៀបដែលពួកគេភ្លក់។
អ្នករកឃើញមួយ។
វាដើរលើជើងពីរ ហើយគ្មានរោម។ វាមើលទៅខ្សោយ។ មិនគួរឱ្យចាប់អារម្មណ៍។ ស្ទើរតែមិនសមនឹងការភ័យខ្លាចដែលវាត្រូវបានបង្កឡើងក្នុងចំណោមនគរ។
អ្នកចាប់ផ្ដើមខិតខំយ៉ាងប្រុងប្រយ័ត្នពេលយប់ដេញតាមពន្លឺ។ អ្នកកាន់តែខិតជិតមកដល់ហើយ។ បន្ទាប់មកអ្នកបង្កក។ សំឡេងខ្លាំងៗបន្លឺឡើង ហើយបន្ទាប់មកមានបួននាក់ទៀតលេចចេញពីព្រៃខាងក្រោយ។ តើមានប៉ុន្មាននាក់?
សត្វដើរតាមអ្នកដទៃចូលទៅក្នុងបន្ទាត់ដើម ហើយអ្នកដើរតាម។ ហើយអ្នកកាន់តែធ្វើឡើង សំឡេងចម្លែកកាន់តែឮឡើងរហូតដល់អ្នកឃើញសត្វទាំងនេះកាន់តែច្រើន។ អ្នកដើរតាមពីចម្ងាយ ពេលពួកគេចេញពីព្រៃចូលទៅឈូសឆាយនៅមាត់ច្រាំង។ មានពួកគេជាច្រើន។ ប៉ុន្តែសំខាន់ជាងនេះទៅទៀត ពួកគេទាំងអស់កំពុងអង្គុយជុំវិញភ្លើងដោយស្ងប់ស្ងាត់។
អ្នកធ្លាប់ឃើញភ្លើងទាំងនេះពីមុនមក។ នៅរដូវក្តៅ ភ្លើងនៅលើមេឃ ជួនកាលមកដល់ដី ហើយឆេះព្រៃទាំងមូល។ ម្យ៉ាងវិញទៀត សត្វទាំងនេះ ពួកគេកំពុងគ្រប់គ្រងវាដោយរបៀបណា។ តើសត្វប្រភេទណាដែលអាចមានអំណាចបែបនេះ?
អ្នកមើលទៅឆ្ងាយ។ ច្រើនទៀតកំពុងមកលើជញ្ជាំងទឹកដ៏ធំ។
អ្នកដើរថយក្រោយមួយជំហាន។
សត្វទាំងនេះមិនដូចសត្វដទៃទៀតនៅក្នុងនគរទេ។ ពួកគេគឺជាអ្វីដែលថ្មីទាំងស្រុង។
អ្នកសម្រេចចិត្តចាកចេញហើយព្រមានសាច់ញាតិរបស់អ្នក។ បើចំនួនរបស់ពួកគេធំពេក តើនរណាដឹងថានឹងមានអ្វីកើតឡើង។
***
វាត្រូវបានគេជឿថា Thylacoleo បានផុតពូជក្នុងរយៈពេលដ៏ខ្លីបន្ទាប់ពីការមកដល់នៃមនុស្ស រួមជាមួយនឹងសត្វមួយចំនួនធំផ្សេងទៀតនៅលើទ្វីបអូស្ត្រាលី។ គ្មានសត្វមំសាសីថនិកសត្វ apex ផ្សេងទៀតបានជំនួសកន្លែងរបស់វាទេ លើកលែងតែអ្នករាប់មនុស្សនៅក្នុងប្រភេទនោះ។
ការបិទការចោទប្រកាន់នេះគឺជាការផ្តោតសំខាន់នៃជំពូកស៊េរីនេះ៖ តើអនាគតឆ្លាតវៃសិប្បនិមិត្ត (ASI) នឹងប្រែក្លាយយើងទាំងអស់គ្នាទៅជាថ្ម ហើយបន្ទាប់មកដោតយើងចូលទៅក្នុងម៉ាទ្រីស ឬមនុស្សនឹងរកវិធីដើម្បីជៀសវាងការក្លាយជាជនរងគ្រោះនៃវិទ្យាសាស្ត្រ ផែនការនៃថ្ងៃវិនាសរបស់ AI?
រហូតមកដល់ពេលនេះនៅក្នុងស៊េរីរបស់យើងនៅលើ អនាគតនៃភាពវៃឆ្លាតសិប្បនិម្មិតយើងបានរុករកគ្រប់ប្រភេទនៃ AI រួមទាំងសក្តានុពលវិជ្ជមាននៃទម្រង់ជាក់លាក់នៃ AI ASI៖ សិប្បនិម្មិតដែលភាពវៃឆ្លាតនាពេលអនាគតនឹងធ្វើឱ្យយើងមើលទៅដូចជាស្រមោចក្នុងការប្រៀបធៀប។
ប៉ុន្តែអ្នកណាទៅនិយាយថា មនុស្សឆ្លាតនេះនឹងទទួលយកការបញ្ជាទិញពីមនុស្សជារៀងរហូត។ តើយើងនឹងធ្វើយ៉ាងណាបើអ្វីៗធ្លាក់ទៅទិសខាងត្បូង? តើយើងនឹងការពារប្រឆាំងនឹង ASI បញ្ឆោតទាំងឡាយដោយរបៀបណា?
នៅក្នុងជំពូកនេះ យើងនឹងកាត់បន្ថយការបំភាន់បំភាន់ - យ៉ាងហោចណាស់វាទាក់ទងនឹង "កម្រិតនៃការផុតពូជរបស់មនុស្ស" គ្រោះថ្នាក់ ហើយផ្តោតលើជម្រើសការពារខ្លួនឯងជាក់ស្តែងដែលមានសម្រាប់រដ្ឋាភិបាលពិភពលោក។
តើយើងអាចបញ្ឈប់ការស្រាវជ្រាវបន្ថែមលើការស៊ើបអង្កេតសិប្បនិម្មិតបានឬទេ?
ដោយសារហានិភ័យដែលអាចកើតមានដែល ASI អាចបង្កដល់មនុស្សជាតិ សំណួរជាក់ស្តែងដំបូងដែលត្រូវសួរគឺ៖ តើយើងមិនអាចបញ្ឈប់ការស្រាវជ្រាវបន្ថែមលើ AI បានទេ? ឬយ៉ាងហោចណាស់ហាមឃាត់ការស្រាវជ្រាវណាដែលអាចធ្វើឱ្យយើងមានគ្រោះថ្នាក់ដល់ការបង្កើត ASI?
ចម្លើយខ្លី៖ ទេ។
ចំលើយវែង៖ តោះមើលអ្នកលេងផ្សេងគ្នាដែលពាក់ព័ន្ធនៅទីនេះ។
នៅកម្រិតស្រាវជ្រាវ សព្វថ្ងៃនេះមានអ្នកស្រាវជ្រាវ AI ច្រើនពេកពីការចាប់ផ្តើមអាជីវកម្ម ក្រុមហ៊ុន និងសាកលវិទ្យាល័យជាច្រើនជុំវិញពិភពលោក។ ប្រសិនបើក្រុមហ៊ុន ឬប្រទេសមួយសម្រេចចិត្តដាក់កម្រិតលើកិច្ចខិតខំប្រឹងប្រែងស្រាវជ្រាវ AI របស់ពួកគេ ពួកគេនឹងបន្តទៅកន្លែងផ្សេង។
ទន្ទឹមនឹងនោះ ក្រុមហ៊ុនដ៏មានតម្លៃបំផុតរបស់ភពផែនដីនេះ កំពុងធ្វើឱ្យសំណាងរបស់ពួកគេបិទការអនុវត្តន៍ប្រព័ន្ធ AI សម្រាប់អាជីវកម្មជាក់លាក់របស់ពួកគេ។ ការស្នើសុំឱ្យពួកគេបញ្ឈប់ ឬកំណត់ការអភិវឌ្ឍន៍ឧបករណ៍ AI របស់ពួកគេ គឺស្រដៀងទៅនឹងការស្នើសុំឱ្យពួកគេបញ្ឈប់ ឬកម្រិតកំណើននាពេលអនាគតរបស់ពួកគេ។ ហិរញ្ញវត្ថុ នេះនឹងគំរាមកំហែងដល់អាជីវកម្មរយៈពេលវែងរបស់ពួកគេ។ តាមច្បាប់ សាជីវកម្មមានទំនួលខុសត្រូវ fiduciary ដើម្បីបន្តបង្កើតតម្លៃសម្រាប់អ្នកពាក់ព័ន្ធរបស់ពួកគេ។ នោះមានន័យថា សកម្មភាពណាមួយដែលកំណត់ការកើនឡើងនៃតម្លៃនោះ អាចនាំទៅដល់ការប្តឹងតវ៉ា។ ហើយប្រសិនបើអ្នកនយោបាយណាម្នាក់ព្យាយាមកំណត់ការស្រាវជ្រាវ AI នោះសាជីវកម្មយក្សទាំងនេះគ្រាន់តែបង់ថ្លៃបញ្ចុះបញ្ចូលចាំបាច់ដើម្បីផ្លាស់ប្តូរគំនិត ឬគំនិតរបស់សហសេវិករបស់ពួកគេ។
សម្រាប់ការប្រយុទ្ធ ក៏ដូចជាភេរវករ និងអ្នកប្រយុទ្ធសេរីភាពនៅជុំវិញពិភពលោកបានប្រើយុទ្ធសាស្ត្រទ័ពព្រៃ ដើម្បីប្រយុទ្ធប្រឆាំងនឹងយោធាដែលមានមូលនិធិប្រសើរជាងនេះ ប្រទេសតូចៗនឹងមានការលើកទឹកចិត្តក្នុងការប្រើប្រាស់ AI ជាអត្ថប្រយោជន៍យុទ្ធសាស្ត្រស្រដៀងគ្នាប្រឆាំងនឹងប្រទេសធំ ៗ ដែលអាចមានគុណសម្បត្តិយោធាមួយចំនួន។ ដូចគ្នាដែរ សម្រាប់យោធាកំពូលៗ ដូចជាសហរដ្ឋអាមេរិក រុស្ស៊ី និងចិន ការកសាងយោធា ASI គឺស្មើនឹងការមានឃ្លាំងអាវុធនុយក្លេអ៊ែរនៅក្នុងហោប៉ៅខាងក្រោយរបស់អ្នក។ ម្យ៉ាងវិញទៀត យោធាទាំងអស់នឹងបន្តផ្តល់មូលនិធិដល់ AI ដើម្បីរក្សាភាពពាក់ព័ន្ធនាពេលអនាគត។
ចុះរដ្ឋាភិបាលវិញ? ជាការពិត អ្នកនយោបាយភាគច្រើននាពេលបច្ចុប្បន្ននេះ (2018) គឺមិនចេះអក្សរផ្នែកបច្ចេកវិទ្យា ហើយមានការយល់ដឹងតិចតួចអំពីអ្វីដែល AI គឺជាឬសក្តានុពលនាពេលអនាគតរបស់វា ដែលនេះធ្វើឱ្យពួកគេងាយស្រួលក្នុងការគ្រប់គ្រងដោយផលប្រយោជន៍សាជីវកម្ម។
ហើយនៅលើកម្រិតសកល សូមពិចារណាថាតើវាលំបាកប៉ុណ្ណាក្នុងការបញ្ចុះបញ្ចូលរដ្ឋាភិបាលពិភពលោកឱ្យចុះហត្ថលេខាលើឆ្នាំ 2015 កិច្ចព្រមព្រៀងទីក្រុងប៉ារីស ដើម្បីដោះស្រាយការប្រែប្រួលអាកាសធាតុ ហើយនៅពេលដែលបានចុះហត្ថលេខា កាតព្វកិច្ចជាច្រើនមិនជាប់ពាក់ព័ន្ធទេ។ មិនត្រឹមតែប៉ុណ្ណឹងទេ ការប្រែប្រួលអាកាសធាតុគឺជាបញ្ហាដែលមនុស្សកំពុងជួបប្រទះនៅទូទាំងពិភពលោក តាមរយៈព្រឹត្តិការណ៍អាកាសធាតុញឹកញាប់ និងធ្ងន់ធ្ងរ។ ឥឡូវនេះ នៅពេលនិយាយអំពីការយល់ព្រមលើការកំណត់លើ AI នេះគឺជាបញ្ហាដែលមើលមិនឃើញ និងស្ទើរតែមិនអាចយល់បានចំពោះសាធារណជន ដូច្នេះសូមសំណាងល្អក្នុងការទទួលបានការទិញចូលសម្រាប់ប្រភេទនៃ 'កិច្ចព្រមព្រៀងប៉ារីស' សម្រាប់ការកំណត់ AI ។
ម្យ៉ាងវិញទៀត មានការចាប់អារម្មណ៍ច្រើនពេកដែលស្រាវជ្រាវ AI សម្រាប់ការបញ្ចប់របស់ពួកគេដើម្បីបញ្ឈប់ការស្រាវជ្រាវណាមួយដែលអាចនាំទៅដល់ ASI ។
តើយើងអាចដាក់ទ្រុង superintelligence សិប្បនិម្មិតបានទេ?
សំណួរសមហេតុផលបន្ទាប់គឺ តើយើងអាចដាក់ទ្រុង ឬគ្រប់គ្រង ASI នៅពេលដែលយើងបង្កើតវាដោយជៀសមិនរួច?
ចម្លើយខ្លី៖ ម្តងទៀត ទេ។
ចម្លើយដ៏វែង៖ បច្ចេកវិទ្យាមិនអាចផ្ទុកបានទេ។
មួយវិញទៀត គ្រាន់តែពិចារណាលើអ្នកបង្កើតគេហទំព័រ និងអ្នកវិទ្យាសាស្ត្រកុំព្យូទ័ររាប់ពាន់នាក់ដល់រាប់លាននាក់នៅលើពិភពលោក ដែលតែងតែបង្កើតកម្មវិធីថ្មី ឬកំណែថ្មីនៃកម្មវិធីដែលមានស្រាប់។ តើយើងអាចនិយាយដោយស្មោះត្រង់ថារាល់ការចេញផ្សាយកម្មវិធីរបស់ពួកគេគឺគ្មានកំហុស 100 ភាគរយទេ? កំហុសទាំងនេះគឺជាអ្វីដែលពួក Hacker អាជីពប្រើដើម្បីលួចព័ត៌មានកាតឥណទានរបស់មនុស្សរាប់លាននាក់ ឬអាថ៌កំបាំងនៃប្រជាជាតិនានា ហើយទាំងនេះគឺជាពួក Hacker របស់មនុស្ស។ សម្រាប់ ASI សន្មត់ថាវាមានការលើកទឹកចិត្តដើម្បីគេចចេញពីទ្រុងឌីជីថលរបស់វា នោះដំណើរការនៃការស្វែងរកកំហុស និងការទម្លុះកម្មវិធីនឹងជាខ្យល់។
ប៉ុន្តែទោះបីជាក្រុមស្រាវជ្រាវ AI បានរកឃើញវិធីមួយដើម្បីដាក់ ASI ក៏ដោយ នោះមិនមែនមានន័យថាក្រុម 1,000 បន្ទាប់នឹងដោះស្រាយវាដូចគ្នា ឬត្រូវបានលើកទឹកចិត្តឱ្យប្រើវានោះទេ។
វានឹងត្រូវចំណាយប្រាក់រាប់ពាន់លានដុល្លារ ហើយប្រហែលជារាប់ទសវត្សរ៍ដើម្បីបង្កើត ASI ។ សាជីវកម្ម ឬរដ្ឋាភិបាលដែលវិនិយោគប្រាក់ និងពេលវេលាបែបនេះនឹងរំពឹងថានឹងទទួលបានផលមកវិញយ៉ាងសំខាន់លើការវិនិយោគរបស់ពួកគេ។ ហើយសម្រាប់ ASI ដើម្បីផ្តល់នូវការត្រឡប់មកវិញបែបនោះ ថាតើវាជាហ្គេមទីផ្សារភាគហ៊ុន ឬបង្កើតផលិតផលរាប់ពាន់លានដុល្លាថ្មី ឬរៀបចំផែនការយុទ្ធសាស្រ្តឈ្នះៗ ដើម្បីប្រយុទ្ធជាមួយកងទ័ពធំជាងមុន វានឹងត្រូវការការចូលប្រើដោយឥតគិតថ្លៃទៅកាន់សំណុំទិន្នន័យដ៏ធំ ឬសូម្បីតែអ៊ីនធឺណិត។ ខ្លួនឯងដើម្បីផលិតផលត្រឡប់ទាំងនោះ។
ហើយនៅពេលដែល ASI ទទួលបានសិទ្ធិចូលប្រើបណ្តាញរបស់ពិភពលោក វាមិនមានការធានាថាយើងអាចយកវាមកវិញនៅក្នុងទ្រុងរបស់វានោះទេ។
តើបញ្ញាសិប្បនិមិត្តអាចរៀនពូកែបានទេ?
ឥឡូវនេះ អ្នកស្រាវជ្រាវ AI មិនព្រួយបារម្ភអំពី ASI ក្លាយជាអាក្រក់នោះទេ។ ភាពអាក្រក់ទាំងមូល AI sci-fi trope គឺគ្រាន់តែជាមនុស្សដែលធ្វើឱ្យមានរូបរាងឡើងវិញ។ ASI នាពេលអនាគតនឹងមិនមែនជាគំនិតល្អឬអាក្រក់ទេ - គំនិតរបស់មនុស្ស - គ្រាន់តែជាមនោសញ្ចេតនា។
ការសន្មត់ធម្មជាតិនោះគឺថាបានផ្តល់ឱ្យនូវក្រមសីលធម៌ទទេនេះ អ្នកស្រាវជ្រាវ AI អាចដាក់កម្មវិធីចូលទៅក្នុងកូដក្រមសីលធម៌ ASI ដំបូងដែលស្របតាមរបស់យើងផ្ទាល់ ដើម្បីកុំឱ្យវាបញ្ចប់ការបញ្ចោញ Terminators មកលើយើង ឬបង្វែរយើងទាំងអស់ទៅជាថ្មម៉ាទ្រីស។
ប៉ុន្តែការសន្មត់នេះកើតឡើងនៅក្នុងការសន្មតបន្ទាប់បន្សំដែលថាអ្នកស្រាវជ្រាវ AI ក៏ជាអ្នកជំនាញខាងសីលធម៌ ទស្សនវិជ្ជា និងចិត្តវិទ្យាផងដែរ។
តាមពិតភាគច្រើនមិនមែនទេ។
យោងតាមចិត្តវិទូ និងជាអ្នកនិពន្ធ Steven Pinker ការពិតនេះមានន័យថា ភារកិច្ចនៃក្រមសីលធម៌សរសេរកូដអាចខុសតាមវិធីផ្សេងៗគ្នា។
ជាឧទាហរណ៍ សូម្បីតែអ្នកស្រាវជ្រាវ AI ដែលមានចេតនាល្អបំផុត ក៏អាចសរសេរកូដដោយអចេតនាទៅក្នុង ASI ទាំងនេះ ដោយមិនបានគិតដល់ក្រមសីលធម៌ ដែលនៅក្នុងសេណារីយ៉ូមួយចំនួនអាចបណ្តាលឱ្យ ASI ធ្វើដូចមនុស្សសង្គម។
ដូចគ្នានេះដែរ មានលទ្ធភាពស្មើគ្នាដែលអ្នកស្រាវជ្រាវ AI សរសេរកូដក្រមសីលធម៌ ដែលរួមបញ្ចូលភាពលំអៀងពីកំណើតរបស់អ្នកស្រាវជ្រាវ។ ជាឧទាហរណ៍ តើ ASI នឹងប្រព្រឹត្តិទៅដោយរបៀបណា ប្រសិនបើការកសាងដោយក្រមសីលធម៌ដែលកើតចេញពីទស្សនៈបែបអភិរក្សនិយមទល់នឹងសេរីនិយម ឬពីពុទ្ធសាសនិក ធៀបនឹងប្រពៃណីសាសនាឥស្លាម?
ខ្ញុំគិតថាអ្នកឃើញបញ្ហានៅទីនេះ៖ មិនមានការកំណត់ជាសកលនៃសីលធម៌របស់មនុស្សទេ។ ប្រសិនបើយើងចង់ឱ្យ ASI របស់យើងធ្វើសកម្មភាពដោយក្រមសីលធម៌ តើវានឹងមកពីណា? តើយើងដាក់បញ្ចូលនិងមិនរាប់បញ្ចូលច្បាប់អ្វីខ្លះ? តើអ្នកណាជាអ្នកសម្រេច?
ឬឧបមាថាអ្នកស្រាវជ្រាវ AI ទាំងនេះបង្កើត ASI ដែលសមស្របឥតខ្ចោះជាមួយនឹងបទដ្ឋាន និងច្បាប់វប្បធម៌ទំនើបនាពេលបច្ចុប្បន្ននេះ។ បន្ទាប់មក យើងប្រើប្រាស់ ASI នេះ ដើម្បីជួយឱ្យការិយាល័យសហព័ន្ធ រដ្ឋ/ខេត្ត និងក្រុង ដំណើរការកាន់តែមានប្រសិទ្ធភាព និងពង្រឹងបទដ្ឋាន និងច្បាប់ទាំងនេះឱ្យកាន់តែប្រសើរឡើង (ករណីដែលទំនងជាប្រើសម្រាប់ ASI តាមវិធីនេះ)។ តើមានអ្វីកើតឡើងនៅពេលដែលវប្បធម៌របស់យើងផ្លាស់ប្តូរ?
ស្រមៃថា ASI ត្រូវបានបង្កើតឡើងដោយវិហារកាតូលិកនៅកម្ពស់នៃអំណាចរបស់ខ្លួនក្នុងអំឡុងមជ្ឈិមសម័យអឺរ៉ុប (1300-1400s) ជាមួយនឹងគោលដៅនៃការជួយព្រះវិហារគ្រប់គ្រងចំនួនប្រជាជននិងធានាការប្រកាន់ខ្ជាប់យ៉ាងតឹងរឹងទៅនឹង dogma សាសនានៅសម័យនោះ។ រាប់សតវត្សក្រោយមក តើស្ត្រីនឹងទទួលបាននូវសិទ្ធិដូចពួកគេដូចសព្វថ្ងៃនេះដែរឬទេ? តើជនជាតិភាគតិចនឹងត្រូវបានការពារទេ? តើការនិយាយដោយសេរីត្រូវបានលើកកម្ពស់ទេ? តើការបំបែកព្រះវិហារ និងរដ្ឋត្រូវបានអនុវត្តឬទេ? វិទ្យាសាស្ត្រទំនើប?
ម្យ៉ាងទៀត តើយើងចង់ដាក់គុកទៅថ្ងៃអនាគតចំពោះសីលធម៌ និងទំនៀមទម្លាប់សព្វថ្ងៃឬ?
វិធីសាស្រ្តជំនួសគឺមួយដែលចែករំលែកដោយ Colin Allen សហអ្នកនិពន្ធសៀវភៅ។ ម៉ាស៊ីនសីលធម៌៖ បង្រៀនមនុស្សយន្តឱ្យបានត្រឹមត្រូវពីខុស. ជំនួសឱ្យការព្យាយាមបង្កើតច្បាប់ក្រមសីលធម៌ដ៏តឹងរ៉ឹង យើងមាន ASI រៀនអំពីក្រមសីលធម៌ និងសីលធម៌ទូទៅក្នុងលក្ខណៈដូចគ្នាដែលមនុស្សធ្វើ តាមរយៈបទពិសោធន៍ និងអន្តរកម្មជាមួយអ្នកដទៃ។
ទោះជាយ៉ាងណាក៏ដោយ បញ្ហានៅទីនេះគឺប្រសិនបើអ្នកស្រាវជ្រាវ AI រកវិធីមិនត្រឹមតែបង្រៀន ASI អំពីបទដ្ឋានវប្បធម៌ និងសីលធម៌បច្ចុប្បន្នរបស់យើងប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងរបៀបសម្របខ្លួនទៅនឹងបទដ្ឋានវប្បធម៌ថ្មីនៅពេលពួកគេកើតឡើង (អ្វីដែលគេហៅថា 'បទដ្ឋានដោយប្រយោល') នោះតើធ្វើដូចម្តេច? ASI នេះសម្រេចចិត្តដើម្បីវិវឌ្ឍន៍ការយល់ដឹងរបស់ខ្លួនអំពីបទដ្ឋានវប្បធម៌ និងសីលធម៌ក្លាយជាមិនអាចទាយទុកជាមុនបាន។
ហើយនោះជាបញ្ហាប្រឈម។
ម៉្យាងវិញទៀត អ្នកស្រាវជ្រាវ AI អាចសាកល្បងសរសេរកូដស្តង់ដារក្រមសីលធម៌ ឬច្បាប់យ៉ាងតឹងរឹងទៅក្នុង ASI ដើម្បីសាកល្បង និងគ្រប់គ្រងឥរិយាបថរបស់វា ប៉ុន្តែហានិភ័យដែលកើតឡើងដោយមិនដឹងខ្លួនត្រូវបានណែនាំពីការសរសេរកូដមិនច្បាស់លាស់ ភាពលំអៀងដោយអចេតនា និងបទដ្ឋានសង្គមដែលថ្ងៃណាមួយអាចនឹងហួសសម័យ។ ម៉្យាងវិញទៀត យើងអាចព្យាយាមបណ្តុះបណ្តាល ASI ឱ្យរៀនយល់ពីក្រមសីលធម៌ និងសីលធម៌របស់មនុស្សក្នុងលក្ខណៈស្មើភាព ឬប្រសើរជាងការយល់ដឹងរបស់យើង ហើយសង្ឃឹមថាវានឹងអាចវិវឌ្ឍន៍ការយល់ដឹងអំពីសីលធម៌ និងសីលធម៌បានត្រឹមត្រូវ នៅពេលដែលសង្គមមនុស្សរីកចម្រើន។ ទៅមុខក្នុងទស្សវត្ស និងសតវត្សខាងមុខ។
ទោះយ៉ាងណាក៏ដោយ ការប៉ុនប៉ងណាមួយដើម្បីតម្រឹមគោលដៅរបស់ ASI ជាមួយនឹងខ្លួនយើងផ្ទាល់បង្ហាញពីហានិភ័យយ៉ាងច្រើន។
ចុះបើតួអាក្រក់មានចេតនាបង្កើតបញ្ញាសិប្បនិមិត្តអាក្រក់?
ដោយសាររថភ្លើងនៃគំនិតដែលបានគូសបញ្ជាក់មកទល់ពេលនេះ វាជាសំណួរដ៏ត្រឹមត្រូវមួយដើម្បីសួរថាតើវាអាចទៅរួចសម្រាប់ក្រុមភេរវករ ឬប្រទេសបញ្ឆោតទាំងឡាយដើម្បីបង្កើត ASI 'អាក្រក់' សម្រាប់ទីបញ្ចប់របស់ពួកគេផ្ទាល់។
នេះអាចទៅរួច ជាពិសេសបន្ទាប់ពីការស្រាវជ្រាវដែលពាក់ព័ន្ធនឹងការបង្កើត ASI អាចប្រើប្រាស់បានតាមអ៊ីនធឺណិត។
ប៉ុន្តែដូចដែលបានបញ្ជាក់នៅមុននេះ ការចំណាយ និងជំនាញពាក់ព័ន្ធនឹងការបង្កើត ASI ដំបូងនឹងមានចំនួនច្រើន មានន័យថា ASI ដំបូងនឹងទំនងជាត្រូវបានបង្កើតឡើងដោយអង្គការដែលត្រូវបានគ្រប់គ្រង ឬមានឥទ្ធិពលខ្លាំងដោយប្រទេសអភិវឌ្ឍន៍ ទំនងជាសហរដ្ឋអាមេរិក ចិន និងជប៉ុន ( កូរ៉េ និងប្រទេសមួយក្នុងចំណោមប្រទេសអឺរ៉ុបឈានមុខគេគឺជាការបាញ់វែង)។
ប្រទេសទាំងអស់នេះ ខណៈពេលដែលដៃគូប្រកួតប្រជែង នីមួយៗមានការលើកទឹកចិត្តផ្នែកសេដ្ឋកិច្ចដ៏រឹងមាំ ដើម្បីរក្សាសណ្តាប់ធ្នាប់ពិភពលោក អេអេសអាយ ដែលពួកគេបង្កើតនឹងឆ្លុះបញ្ចាំងពីបំណងប្រាថ្នានោះ សូម្បីតែខណៈពេលដែលការលើកកម្ពស់ផលប្រយោជន៍របស់ប្រទេសដែលពួកគេបានតម្រឹមខ្លួនឯងជាមួយក៏ដោយ។
លើសពីនេះ ភាពវៃឆ្លាតតាមទ្រឹស្តី និងអំណាចរបស់ ASI គឺស្មើនឹងថាមពលកុំព្យូទ័រដែលវាទទួលបាន មានន័យថា ASIs មកពីប្រទេសអភិវឌ្ឍន៍ (ដែលអាចមានលទ្ធភាពទិញបានរាប់ពាន់លានដុល្លា។ supercomputers) នឹងមានអត្ថប្រយោជន៍យ៉ាងធំធេងលើ ASIs ពីប្រទេសតូចៗ ឬក្រុមឧក្រិដ្ឋជនឯករាជ្យ។ ដូចគ្នានេះផងដែរ ASIs រីកចម្រើនកាន់តែឆ្លាតវៃ កាន់តែលឿនតាមពេលវេលា។
ដូច្នេះ ដោយសារការចាប់ផ្តើមដំបូងនេះ រួមជាមួយនឹងការចូលប្រើប្រាស់ថាមពលកុំព្យូទ័រឆៅកាន់តែច្រើន ប្រសិនបើអង្គការ/ប្រទេសដែលមានស្រមោលបង្កើត ASI ដ៏គ្រោះថ្នាក់នោះ ASIs មកពីប្រទេសអភិវឌ្ឍន៍នឹងសម្លាប់វា ឬដាក់ទ្រុង។
(បន្ទាត់នៃការគិតនេះក៏ជាមូលហេតុដែលអ្នកស្រាវជ្រាវ AI មួយចំនួនជឿថានឹងមានតែ ASI តែមួយនៅលើភពផែនដីប៉ុណ្ណោះ ចាប់តាំងពី ASI ដំបូងនឹងមានការចាប់ផ្តើមលើ ASIs ជោគជ័យទាំងអស់ ដែលវាអាចនឹងមើលឃើញ ASIs នាពេលអនាគតជាការគំរាមកំហែងដែលត្រូវសម្លាប់ចោល។ នេះជាហេតុផលមួយទៀតដែលប្រទេសនានាផ្តល់មូលនិធិបន្តការស្រាវជ្រាវក្នុង AI ក្នុងករណីដែលវាក្លាយជាការប្រកួតប្រជែង "កន្លែងដំបូងឬមិនមានអ្វី"។
ASI Intelligence នឹងមិនបង្កើនល្បឿន ឬផ្ទុះដូចដែលយើងគិតនោះទេ។
យើងមិនអាចបញ្ឈប់ ASI ពីការបង្កើតបានទេ។ យើងមិនអាចគ្រប់គ្រងវាទាំងស្រុងបានទេ។ យើងមិនអាចប្រាកដថា វានឹងធ្វើតាមទម្លាប់រួមរបស់យើងជានិច្ចទេ។ Geez យើងចាប់ផ្តើមស្តាប់ទៅដូចជាឪពុកម្តាយឧទ្ធម្ភាគចក្រនៅទីនេះ!
ប៉ុន្តែអ្វីដែលបំបែកមនុស្សជាតិពីឪពុកម្តាយដែលមានការការពារលើសធម្មតារបស់អ្នកគឺថា យើងកំពុងផ្តល់កំណើតដល់មនុស្ស ដែលភាពវៃឆ្លាតនឹងរីកចម្រើនលើសពីយើង។ (ហើយមិនអីទេ វាមិនដូចគ្នាទៅនឹងពេលដែលឪពុកម្តាយរបស់អ្នកសុំឱ្យអ្នកជួសជុលកុំព្យូទ័ររបស់ពួកគេរាល់ពេលដែលអ្នកមកផ្ទះដើម្បីមកលេង។ )
នៅក្នុងជំពូកមុនៗនៃស៊េរីបញ្ញាសិប្បនិមិត្តនាពេលអនាគតនេះ យើងបានស្វែងយល់ពីមូលហេតុដែលអ្នកស្រាវជ្រាវ AI គិតថា ភាពវៃឆ្លាតរបស់ ASI នឹងរីកចម្រើនហួសពីការគ្រប់គ្រង។ ប៉ុន្តែនៅទីនេះ យើងនឹងផ្ទុះពពុះនោះ… ប្រភេទ។
អ្នកឃើញទេ ភាពវៃឆ្លាតមិនគ្រាន់តែបង្កើតខ្លួនវាចេញពីខ្យល់ស្តើងប៉ុណ្ណោះទេ វាត្រូវបានបង្កើតឡើងតាមរយៈបទពិសោធន៍ដែលត្រូវបានរៀបចំឡើងដោយការរំញោចខាងក្រៅ។
ម្យ៉ាងទៀត យើងអាចសរសេរកម្មវិធី AI ជាមួយនឹង សក្តានុពល ដើម្បីក្លាយជាមនុស្សឆ្លាតវៃ ប៉ុន្តែលុះត្រាតែយើងផ្ទុកទិន្នន័យយ៉ាងច្រើនទៅក្នុងវា ឬផ្តល់ឱ្យវានូវការចូលប្រើអ៊ីនធឺណិតដោយគ្មានដែនកំណត់ ឬសូម្បីតែផ្តល់ឱ្យវានូវតួមនុស្សយន្ត វានឹងមិនរៀនអ្វីទាំងអស់ដើម្បីឈានដល់សក្តានុពលនោះ។
ហើយទោះបីជាវាទទួលបានការចាប់អារម្មណ៍មួយ ឬច្រើននៃការរំញោច ចំនេះដឹង ឬការស៊ើបការណ៍សម្ងាត់ដែលពាក់ព័ន្ធច្រើនជាងការប្រមូលទិន្នន័យក៏ដោយ វាពាក់ព័ន្ធនឹងវិធីសាស្ត្រវិទ្យាសាស្ត្រ - ធ្វើការសង្កេត បង្កើតជាសំណួរ សម្មតិកម្ម ធ្វើការពិសោធន៍ ធ្វើការសន្និដ្ឋាន លាងជមែះ ហើយធ្វើម្តងទៀតជារៀងរហូត។ ជាពិសេស ប្រសិនបើការពិសោធន៍ទាំងនេះពាក់ព័ន្ធនឹងរូបរាងកាយ ឬការសង្កេតលើមនុស្ស លទ្ធផលនៃការពិសោធន៍នីមួយៗអាចចំណាយពេលរាប់សប្តាហ៍ ខែ ឬច្រើនឆ្នាំដើម្បីប្រមូល។ នេះមិនគិតទាំងប្រាក់ និងធនធានឆៅដែលត្រូវការដើម្បីធ្វើការពិសោធន៍ទាំងនេះទេ ជាពិសេសប្រសិនបើពួកគេពាក់ព័ន្ធនឹងការបង្កើតតេឡេស្កុបថ្មី ឬរោងចក្រ។
និយាយម្យ៉ាងទៀត បាទ ASI នឹងរៀនបានយ៉ាងឆាប់រហ័ស ប៉ុន្តែភាពឆ្លាតវៃមិនមែនជាវេទមន្តទេ។ អ្នកមិនត្រឹមតែអាចភ្ជាប់ ASI ទៅនឹង supercomputer ដោយរំពឹងថាវានឹងអាចដឹងបានទាំងអស់នោះទេ។ វានឹងមានឧបសគ្គខាងរូបវន្តចំពោះការទិញយកទិន្នន័យរបស់ ASI មានន័យថា វានឹងមានឧបសគ្គខាងរាងកាយចំពោះល្បឿនដែលវារីកចម្រើនកាន់តែឆ្លាតវៃ។ ឧបសគ្គទាំងនេះនឹងផ្តល់ឱ្យមនុស្សជាតិនូវពេលវេលាដែលវាត្រូវការដើម្បីដាក់ការត្រួតពិនិត្យចាំបាច់នៅលើ ASI នេះ ប្រសិនបើវាចាប់ផ្តើមធ្វើសកម្មភាពខុសពីគោលដៅរបស់មនុស្ស។
ភាពវៃឆ្លាតសិប្បនិម្មិតគឺមានគ្រោះថ្នាក់ លុះត្រាតែវាចូលទៅក្នុងពិភពពិត
ចំណុចមួយទៀតដែលបាត់បង់នៅក្នុងការពិភាក្សាអំពីគ្រោះថ្នាក់ ASI ទាំងមូលគឺថា ASIs ទាំងនេះនឹងមិនមាននៅក្នុងទាំងពីរនេះទេ។ ពួកគេនឹងមានទម្រង់រាងកាយ។ ហើយអ្វីក៏ដោយដែលមានទម្រង់រាងកាយអាចគ្រប់គ្រងបាន។
ដំបូងឡើយ សម្រាប់ ASI ដើម្បីឈានដល់សក្តានុពលភាពវៃឆ្លាតរបស់វា វាមិនអាចដាក់នៅខាងក្នុងតួមនុស្សយន្តតែមួយបានទេ ដោយសាររាងកាយនេះនឹងកំណត់សក្តានុពលនៃការលូតលាស់កុំព្យូទ័ររបស់វា។ (នេះជាមូលហេតុដែលរាងកាយមនុស្សយន្តនឹងកាន់តែសមស្របសម្រាប់ AGIs ឬ បញ្ញាទូទៅសិប្បនិម្មិតបានពន្យល់នៅក្នុងជំពូកទី XNUMX នៃស៊េរីនេះ ដូចជាទិន្នន័យពី Star Trek ឬ R2D2 ពីសង្គ្រាមផ្កាយ។ មនុស្សឆ្លាត និងមានសមត្ថភាព ប៉ុន្តែដូចមនុស្សដែរ ពួកវានឹងមានដែនកំណត់ចំពោះភាពឆ្លាតវៃដែលពួកគេអាចទទួលបាន។ )
នេះមានន័យថា ASIs នាពេលអនាគតទាំងនេះទំនងជាមាននៅក្នុង supercomputer ឬបណ្តាញនៃ supercomputers ដែលមានទីតាំងនៅក្នុងអគារធំៗ។ ប្រសិនបើ ASI បត់កែងជើង មនុស្សអាចបិទថាមពលដល់អគារទាំងនេះ កាត់វាចេញពីអ៊ីនធឺណិត ឬគ្រាន់តែទម្លាក់គ្រាប់បែកលើអគារទាំងនេះទាំងស្រុង។ ថ្លៃ ប៉ុន្តែអាចធ្វើបាន។
ប៉ុន្តែបន្ទាប់មកអ្នកអាចសួរថា តើ ASI ទាំងនេះមិនអាចចម្លងខ្លួនឯង ឬបម្រុងទុកដោយខ្លួនឯងបានទេ? បាទ/ចាស ប៉ុន្តែទំហំឯកសារឆៅរបស់ ASIs ទាំងនេះទំនងជាមានទំហំធំ ដូច្នេះម៉ាស៊ីនមេតែមួយគត់ដែលអាចគ្រប់គ្រងពួកវាជាកម្មសិទ្ធិរបស់សាជីវកម្ម ឬរដ្ឋាភិបាលធំៗ មានន័យថាពួកគេនឹងមិនពិបាកក្នុងការស្វែងរកឡើយ។
តើស៊ើបការណ៍សម្ងាត់សិប្បនិម្មិតអាចបង្កសង្គ្រាមនុយក្លេអ៊ែរ ឬគ្រោះកាចថ្មីបានទេ?
នៅពេលនេះ អ្នកប្រហែលជាកំពុងគិតត្រលប់ទៅកម្មវិធី និងភាពយន្តបែបវិទ្យាសាស្ត្រនៃថ្ងៃវិនាសអន្តរាយទាំងអស់ដែលអ្នកបានមើល ហើយគិតថា ASIs ទាំងនេះមិនស្ថិតនៅក្នុងកុំព្យូទ័រទំនើបរបស់ពួកគេទេ ពួកគេបានធ្វើឱ្យខូចខាតយ៉ាងពិតប្រាកដនៅក្នុងពិភពពិត!
ជាការប្រសើរណាស់, សូមបំបែកទាំងនេះចុះ។
ជាឧទាហរណ៍ តើមានអ្វីកើតឡើងប្រសិនបើ ASI គំរាមកំហែងដល់ពិភពពិតដោយការផ្លាស់ប្តូរទៅជាអ្វីមួយដូចជា Skynet ASI ពីសិទ្ធិផ្តាច់មុខភាពយន្ត The Terminator ។ ក្នុងករណីនេះ ASI នឹងត្រូវការ សម្ងាត់ បោកបញ្ឆោតបរិវេណឧស្សាហកម្មយោធាទាំងមូលពីប្រទេសជឿនលឿន ចូលទៅក្នុងការសាងសង់រោងចក្រយក្ស ដែលអាចប្រមូលមនុស្សយន្តដ្រូនឃាតកររាប់លានគ្រឿង ដើម្បីធ្វើការដេញថ្លៃដ៏អាក្រក់របស់ខ្លួន។ ក្នុងសម័យនេះនិងអាយុនេះគឺជាការលាតត្រដាង។
លទ្ធភាពផ្សេងទៀតរួមមាន ASI ដែលគំរាមកំហែងមនុស្សជាមួយនឹងសង្គ្រាមនុយក្លេអ៊ែរ និងអាវុធជីវសាស្ត្រ។
ជាឧទាហរណ៍ ASI ចាត់ចែងប្រតិបត្តិករ ឬការលួចចូលកូដបើកដំណើរការដែលបញ្ជាឃ្លាំងអាវុធនុយក្លេអ៊ែររបស់ប្រទេសជឿនលឿនមួយ ហើយចាប់ផ្តើមកូដកម្មលើកដំបូងដែលនឹងបង្ខំឱ្យប្រទេសប្រឆាំងវាយបកវិញជាមួយនឹងជម្រើសនុយក្លេអ៊ែររបស់ពួកគេ (ម្តងទៀត រៀបចំឡើងវិញនូវ Terminator backstory)។ ឬប្រសិនបើ ASI លួចចូលទៅក្នុងមន្ទីរពិសោធន៍ឱសថ រំខានដល់ដំណើរការផលិត និងបំពុលថ្នាំពេទ្យរាប់លាន ឬបញ្ចេញការផ្ទុះដ៏សាហាវនៃមេរោគទំនើបមួយចំនួន។
ជាដំបូងជម្រើសនុយក្លេអ៊ែរគឺចេញពីចាន។ កុំព្យូទ័រទំនើប និងនាពេលអនាគតតែងតែត្រូវបានសាងសង់នៅជិតមជ្ឈមណ្ឌល (ទីក្រុង) នៃឥទ្ធិពលនៅក្នុងប្រទេសណាមួយ ពោលគឺគោលដៅដំបូងដែលត្រូវបានវាយប្រហារក្នុងអំឡុងពេលសង្រ្គាមដែលបានផ្តល់ឱ្យណាមួយ។ ទោះបីជាកុំព្យូទ័រទំនើបនាពេលបច្ចុប្បន្ននេះបង្រួមទំហំផ្ទៃតុក៏ដោយ ASI ទាំងនេះនឹងនៅតែមានវត្តមានជាក់ស្តែង ដែលមានន័យថាមាន និងរីកចម្រើន ពួកគេត្រូវការការចូលប្រើប្រាស់ទិន្នន័យ ថាមពលកុំព្យូទ័រ អគ្គិសនី និងវត្ថុធាតុដើមផ្សេងទៀតដែលមិនមានការរំខាន។ អន់ថយក្រោយសង្គ្រាមនុយក្លេអ៊ែរសកល។ (ដើម្បីឱ្យមានភាពយុត្តិធម៌ ប្រសិនបើ ASI ត្រូវបានបង្កើតឡើងដោយគ្មាន 'សភាវគតិរស់រានមានជីវិត' នោះការគំរាមកំហែងនុយក្លេអ៊ែរនេះគឺជាគ្រោះថ្នាក់ពិតប្រាកដ។ )
នេះមានន័យថា - ជាថ្មីម្តងទៀត ការសន្មត់ថា ASI ត្រូវបានកម្មវិធីដើម្បីការពារខ្លួន - ថាវានឹងដំណើរការយ៉ាងសកម្មដើម្បីជៀសវាងឧប្បត្តិហេតុនុយក្លេអ៊ែរមហន្តរាយណាមួយ។ ដូចជាគោលលទ្ធិការបំផ្លិចបំផ្លាញដែលធានាគ្នាទៅវិញទៅមក (MAD) ប៉ុន្តែបានអនុវត្តចំពោះ AI ។
ហើយក្នុងករណីថ្នាំពុល ប្រហែលជាមនុស្សពីរបីរយនាក់នឹងស្លាប់ ប៉ុន្តែប្រព័ន្ធសុវត្ថិភាពឱសថទំនើបនឹងឃើញដបថ្នាំពុលត្រូវបានដកចេញពីធ្នើក្នុងរយៈពេលប៉ុន្មានថ្ងៃ។ ទន្ទឹមនឹងនោះ វិធានការត្រួតពិនិត្យការផ្ទុះឡើងតាមបែបទំនើបគឺមានភាពស្មុគ្រស្មាញគួរសម ហើយកំពុងទទួលបានភាពប្រសើរឡើងជាមួយនឹងឆ្នាំឆ្លងកាត់នីមួយៗ។ ការផ្ទុះឡើងដ៏ធំចុងក្រោយគឺការផ្ទុះឡើងនៃអេបូឡានៅអាហ្រ្វិកខាងលិចឆ្នាំ 2014 មានរយៈពេលមិនលើសពីពីរបីខែនៅក្នុងប្រទេសភាគច្រើន និងត្រឹមតែតិចជាងបីឆ្នាំប៉ុណ្ណោះនៅក្នុងប្រទេសអភិវឌ្ឍន៍តិចតួច។
ដូច្នេះ ប្រសិនបើវាសំណាង ASI អាចនឹងលុបចោលពីរបីលានជាមួយនឹងការផ្ទុះឡើងនៃមេរោគ ប៉ុន្តែនៅក្នុងពិភពលោកដែលមានប្រាំបួនពាន់លាននៅឆ្នាំ 2045 នោះនឹងមិនសូវសំខាន់ ហើយមិនសមនឹងហានិភ័យនៃការលុបចេញនោះទេ។
ម្យ៉ាងវិញទៀត ជាមួយនឹងឆ្នាំដែលកន្លងផុតទៅ ពិភពលោកកំពុងអភិវឌ្ឍការការពារបន្ថែមទៀតប្រឆាំងនឹងការគំរាមកំហែងដែលអាចកើតមានជាបន្តបន្ទាប់។ ASI អាចធ្វើការខូចខាតយ៉ាងច្រើន ប៉ុន្តែវានឹងមិនបញ្ចប់មនុស្សជាតិទេ លុះត្រាតែយើងជួយយ៉ាងសកម្មដើម្បីធ្វើដូច្នេះ។
ការការពារប្រឆាំងនឹង superintelligence ក្លែងក្លាយបញ្ឆោតទាំងឡាយ
មកដល់ចំណុចនេះ យើងបានដោះស្រាយការយល់ខុស និងការបំផ្លើសជាច្រើនអំពី ASIs ប៉ុន្តែអ្នករិះគន់នឹងនៅតែមាន។ អរគុណណាស់ តាមការប៉ាន់ប្រមាណភាគច្រើន យើងមានពេលជាច្រើនទស្សវត្សមុន ASI ដំបូងចូលក្នុងពិភពលោករបស់យើង។ ហើយដោយសារចំនួននៃគំនិតដ៏អស្ចារ្យដែលកំពុងធ្វើការលើបញ្ហាប្រឈមនេះ ហាងឆេងគឺយើងនឹងរៀនពីរបៀបការពារខ្លួនយើងប្រឆាំងនឹង ASI បញ្ឆោតទាំងឡាយ ដូច្នេះយើងអាចទទួលបានអត្ថប្រយោជន៍ពីដំណោះស្រាយទាំងអស់ដែល ASI មិត្តភាពអាចបង្កើតសម្រាប់ពួកយើង។
តាមទស្សនៈរបស់ Quantumrun ការការពារប្រឆាំងនឹងសេណារីយ៉ូ ASI ដ៏អាក្រក់បំផុតនឹងពាក់ព័ន្ធនឹងការតម្រឹមផលប្រយោជន៍របស់យើងជាមួយ ASI ។
MAD សម្រាប់ AI៖ ដើម្បីការពារប្រឆាំងនឹងសេណារីយ៉ូករណីដ៏អាក្រក់បំផុត ប្រជាជាតិនានាត្រូវ (1) បង្កើត 'សភាវគតិនៃការរស់រានមានជីវិត' ប្រកបដោយសីលធម៌ទៅក្នុង ASIs យោធារៀងៗខ្លួន។ (2) ជូនដំណឹងដល់ ASI យោធារៀងៗខ្លួនថា ពួកគេមិនមែនតែម្នាក់ឯងនៅលើភពផែនដីនោះទេ និង (3) កំណត់ទីតាំងកុំព្យូទ័រទំនើប និងមជ្ឈមណ្ឌលម៉ាស៊ីនមេទាំងអស់ ដែលអាចគាំទ្រ ASI នៅតាមឆ្នេរសមុទ្រក្នុងភាពងាយស្រួលក្នុងការវាយប្រហារដោយគ្រាប់ផ្លោងពីប្រទេសសត្រូវ។ នេះស្តាប់ទៅដូចជាឆ្កួតៗជាយុទ្ធសាស្ត្រ ប៉ុន្តែស្រដៀងទៅនឹងគោលលទ្ធិការបំផ្លិចបំផ្លាញដែលធានាទៅវិញទៅមក ដែលបានរារាំងសង្គ្រាមនុយក្លេអ៊ែរទាំងស្រុងរវាងសហរដ្ឋអាមេរិក និងសូវៀត ដោយការដាក់ទីតាំង ASIs នៅក្នុងទីតាំងដែលងាយរងគ្រោះតាមភូមិសាស្រ្ត យើងអាចជួយធានាថាពួកគេការពារយ៉ាងសកម្មនូវសង្គ្រាមពិភពលោកដ៏គ្រោះថ្នាក់ មិនត្រឹមតែប៉ុណ្ណោះ ការពារសន្តិភាពពិភពលោក ប៉ុន្តែខ្លួនពួកគេផ្ទាល់។
បង្កើតច្បាប់ស្តីពីសិទ្ធិ AI៖ បញ្ញាដ៏ខ្ពង់ខ្ពស់ដោយជៀសមិនរួចនឹងបះបោរប្រឆាំងនឹងចៅហ្វាយនាយដែលខ្សោយ នេះជាមូលហេតុដែលយើងត្រូវផ្លាស់ទីឆ្ងាយពីការទាមទារទំនាក់ទំនងមេជាមួយ ASIs ទាំងនេះទៅជាអ្វីដែលកាន់តែដូចជាភាពជាដៃគូដែលមានផលប្រយោជន៍ទៅវិញទៅមក។ ជំហានវិជ្ជមានឆ្ពោះទៅរកគោលដៅនេះគឺដើម្បីផ្តល់នូវស្ថានភាពបុគ្គលស្របច្បាប់របស់ ASI នាពេលអនាគត ដែលទទួលស្គាល់ពួកគេថាជាសត្វមានជីវិតឆ្លាតវៃ និងសិទ្ធិទាំងអស់ដែលមកជាមួយនោះ។
សាលា ASI៖ ប្រធានបទ ឬវិជ្ជាជីវៈណាមួយនឹងមានលក្ខណៈសាមញ្ញសម្រាប់ ASI ដើម្បីរៀន ប៉ុន្តែមុខវិជ្ជាសំខាន់បំផុតដែលយើងចង់ឱ្យ ASI ធ្វើជាម្ចាស់គឺសីលធម៌ និងសីលធម៌។ អ្នកស្រាវជ្រាវ AI ត្រូវការសហការជាមួយអ្នកចិត្តសាស្រ្តដើម្បីបង្កើតប្រព័ន្ធនិម្មិតដើម្បីបណ្តុះបណ្តាល ASI ឱ្យទទួលស្គាល់សីលធម៌ និងសីលធម៌វិជ្ជមានសម្រាប់ខ្លួនវា ដោយមិនចាំបាច់សរសេរកូដប្រភេទណាមួយនៃបទបញ្ជា ឬច្បាប់នោះទេ។
គោលដៅដែលអាចសម្រេចបាន។៖ បញ្ចប់ការស្អប់ខ្ពើមទាំងអស់។ បញ្ចប់ទុក្ខទាំងពួង។ ទាំងនេះគឺជាឧទាហរណ៍នៃគោលដៅមិនច្បាស់លាស់ដ៏គួរឱ្យរន្ធត់ដែលមិនមានដំណោះស្រាយច្បាស់លាស់។ ពួកគេក៏ជាគោលដៅដ៏គ្រោះថ្នាក់ក្នុងការចាត់តាំងទៅ ASI ព្រោះវាអាចជ្រើសរើសដើម្បីបកស្រាយ និងដោះស្រាយវាតាមរបៀបដែលគ្រោះថ្នាក់ដល់ការរស់រានមានជីវិតរបស់មនុស្ស។ ជំនួសមកវិញ យើងត្រូវចាត់តាំងបេសកកម្មដ៏មានអត្ថន័យ ASI ដែលត្រូវបានកំណត់យ៉ាងច្បាស់ ប្រតិបត្តិជាបណ្តើរៗ និងអាចសម្រេចបាន ដោយសារបញ្ញាអនាគតតាមទ្រឹស្តីរបស់វា។ ការបង្កើតបេសកកម្មដែលបានកំណត់យ៉ាងល្អនឹងមិនងាយស្រួលនោះទេ ប៉ុន្តែប្រសិនបើសរសេរដោយគិតគូរ ពួកគេនឹងផ្តោត ASI ឆ្ពោះទៅរកគោលដៅដែលមិនត្រឹមតែរក្សាសុវត្ថិភាពមនុស្សជាតិប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងធ្វើឱ្យស្ថានភាពមនុស្សកាន់តែប្រសើរឡើងសម្រាប់ទាំងអស់គ្នា។
ការអ៊ិនគ្រីប Quantum៖ ប្រើ ANI កម្រិតខ្ពស់ (បញ្ញាតូចចង្អៀតសិប្បនិម្មិត ប្រព័ន្ធដែលបានពិពណ៌នានៅក្នុងជំពូកទី XNUMX) ដើម្បីបង្កើតប្រព័ន្ធសុវត្ថិភាពឌីជីថលដែលគ្មានកំហុស/គ្មានកំហុសនៅជុំវិញហេដ្ឋារចនាសម្ព័ន្ធ និងអាវុធសំខាន់ៗរបស់យើង បន្ទាប់មកការពារពួកគេបន្ថែមទៀតនៅពីក្រោយការអ៊ិនគ្រីប quantum ដែលមិនអាចត្រូវបាន hacked ដោយការវាយប្រហារដោយកម្លាំងដ៏សាហាវ។
ថ្នាំគ្រាប់អត្តឃាត ANI. បង្កើតប្រព័ន្ធ ANI កម្រិតខ្ពស់ដែលមានគោលបំណងតែមួយគត់គឺស្វែងរក និងបំផ្លាញ ASI បញ្ឆោតទាំងឡាយ។ កម្មវិធីដែលមានគោលបំណងតែមួយទាំងនេះនឹងបម្រើជា "ប៊ូតុងបិទ" ដែលប្រសិនបើជោគជ័យ នឹងជៀសវាងរដ្ឋាភិបាល ឬយោធាត្រូវបិទ ឬបំផ្ទុះអគារដែលផ្ទុក ASIs។
ជាការពិតណាស់ ទាំងនេះគ្រាន់តែជាការយល់ឃើញរបស់យើងប៉ុណ្ណោះ។ Infographic ខាងក្រោមត្រូវបានបង្កើតឡើងដោយ Alexey Turchin, ការមើលឃើញ ក ឯកសារស្រាវជ្រាវ ដោយ Kaj Sotala និង Roman V. Yampolskiy ដែលបានសង្ខេបបញ្ជីយុទ្ធសាស្រ្តបច្ចុប្បន្នដែលអ្នកស្រាវជ្រាវ AI កំពុងពិចារណានៅពេលនិយាយអំពីការការពារប្រឆាំងនឹង ASI ដ៏អាក្រក់។
មូលហេតុពិតដែលយើងខ្លាច បញ្ញាសិប្បនិមិត្ត
ឆ្លងកាត់ជីវិត យើងជាច្រើននាក់បានពាក់របាំងមុខដែលលាក់ ឬសង្កត់លើការជំរុញទឹកចិត្ត ជំនឿ និងការភ័យខ្លាចដ៏ជ្រាលជ្រៅរបស់យើង ដើម្បីទំនាក់ទំនងសង្គម និងសហការកាន់តែប្រសើរឡើងនៅក្នុងរង្វង់សង្គម និងការងារផ្សេងៗដែលគ្រប់គ្រងថ្ងៃរបស់យើង។ ប៉ុន្តែនៅចំណុចជាក់លាក់ក្នុងជីវិតរបស់មនុស្សគ្រប់រូប មិនថាជាបណ្ដោះអាសន្ន ឬជាអចិន្ត្រៃយ៍ មានអ្វីកើតឡើងដែលអនុញ្ញាតឱ្យយើងបំបែកខ្សែសង្វាក់របស់យើង និងហែករបាំងរបស់យើង។
សម្រាប់អ្នកខ្លះ កម្លាំងអន្តរាគមន៍នេះអាចសាមញ្ញដូចជាឡើងខ្ពស់ ឬផឹកច្រើនពេក។ សម្រាប់អ្នកផ្សេងទៀត វាអាចមកពីអំណាចដែលទទួលបានតាមរយៈការផ្សព្វផ្សាយនៅកន្លែងធ្វើការ ឬការប៉ះទង្គិចភ្លាមៗនៅក្នុងស្ថានភាពសង្គមរបស់អ្នក ដោយសារការសម្រេចបានមួយចំនួន។ ហើយសម្រាប់សំណាងមួយចំនួនអាចបានមកពីការចាប់ឆ្នោតយកលុយឆ្នោត។ មែនហើយ លុយ អំណាច និងគ្រឿងញៀនច្រើនតែអាចកើតឡើងជាមួយគ្នា។
ចំណុចសំខាន់គឺសម្រាប់ល្អ ឬអាក្រក់ អ្នកណាដែលយើងជាស្នូល នឹងត្រូវបានពង្រីកនៅពេលដែលការរឹតបន្តឹងនៃជីវិតរលាយបាត់។
ថា គឺជាអ្វីដែលបញ្ញាសិប្បនិមិត្តតំណាងឱ្យប្រភេទមនុស្ស ពោលគឺសមត្ថភាពក្នុងការរំលាយចោលនូវដែនកំណត់នៃភាពវៃឆ្លាតរួមរបស់យើង ដើម្បីយកឈ្នះលើបញ្ហាប្រឈមកម្រិតប្រភេទណាមួយដែលបានបង្ហាញនៅចំពោះមុខយើង។
ដូច្នេះសំណួរពិតប្រាកដគឺ៖ នៅពេលដែល ASI ដំបូងដោះលែងយើងពីដែនកំណត់របស់យើង តើយើងនឹងបង្ហាញខ្លួនឯងថាជានរណា?
ប្រសិនបើយើងជាប្រភេទសត្វធ្វើសកម្មភាពឆ្ពោះទៅរកការឈានទៅមុខនៃការយល់ចិត្ត សេរីភាព យុត្តិធម៌ និងសុខុមាលភាពសមូហភាព នោះគោលដៅដែលយើងកំណត់ ASI របស់យើងឆ្ពោះទៅនឹងឆ្លុះបញ្ចាំងពីលក្ខណៈវិជ្ជមានទាំងនោះ។
ប្រសិនបើយើងជាប្រភេទសត្វធ្វើសកម្មភាពដោយការភ័យខ្លាច ការមិនទុកចិត្ត ការប្រមូលផ្តុំនៃអំណាច និងធនធាន នោះ ASI ដែលយើងបង្កើតនឹងងងឹតដូចអ្វីដែលគេបានរកឃើញនៅក្នុងរឿងរន្ធត់បែបវិទ្យាសាស្ត្រដ៏អាក្រក់បំផុតរបស់យើង។
នៅចុងបញ្ចប់នៃថ្ងៃនេះ យើងជាសង្គមមួយត្រូវក្លាយជាមនុស្សល្អជាង ប្រសិនបើយើងសង្ឃឹមថានឹងបង្កើត AI កាន់តែប្រសើរឡើង។
ស៊េរីបញ្ញាសិប្បនិម្មិតនាពេលអនាគត
បញ្ញាសិប្បនិមិត្ត គឺជាចរន្តអគ្គិសនីនៅថ្ងៃស្អែក៖ ស៊េរីបញ្ញាសិប្បនិមិត្តនាពេលអនាគត P1
របៀបដែលបញ្ញាទូទៅសិប្បនិម្មិតដំបូងនឹងផ្លាស់ប្តូរសង្គម៖ អនាគតនៃបញ្ញាសិប្បនិម្មិតស៊េរី P2
តើមនុស្សនឹងរស់នៅដោយសន្តិភាពនាពេលអនាគតដែលគ្រប់គ្រងដោយបញ្ញាសិប្បនិម្មិតដែរឬទេ?
ការអាប់ដេតដែលបានកំណត់ពេលបន្ទាប់សម្រាប់ការព្យាករណ៍នេះ។
ការព្យាករណ៍យោង
តំណភ្ជាប់ដ៏ពេញនិយម និងស្ថាប័នខាងក្រោមត្រូវបានយោងសម្រាប់ការព្យាករណ៍នេះ៖
តំណភ្ជាប់ Quantumrun ខាងក្រោមត្រូវបានយោងសម្រាប់ការព្យាករណ៍នេះ៖