ការតម្រឹម AI៖ ការផ្គូផ្គងគោលដៅបញ្ញាសិប្បនិម្មិតត្រូវគ្នានឹងតម្លៃរបស់មនុស្ស

ឥណទានរូបភាព៖
ឥណទានរូបភាព
iStock

ការតម្រឹម AI៖ ការផ្គូផ្គងគោលដៅបញ្ញាសិប្បនិម្មិតត្រូវគ្នានឹងតម្លៃរបស់មនុស្ស

ការតម្រឹម AI៖ ការផ្គូផ្គងគោលដៅបញ្ញាសិប្បនិម្មិតត្រូវគ្នានឹងតម្លៃរបស់មនុស្ស

អត្ថបទចំណងជើងរង
អ្នកស្រាវជ្រាវខ្លះជឿថាវិធានការគួរតែត្រូវបានអនុវត្តដើម្បីធានាថាបញ្ញាសិប្បនិម្មិតមិនប៉ះពាល់ដល់សង្គម។
    • អ្នកនិពន្ធ:
    • ឈ្មោះអ្នកនិពន្ធ
      ការទស្សន៍ទាយ Quantumrun
    • ខែមករា 25, 2023

    ការតម្រឹមបញ្ញាសិប្បនិម្មិត (AI) គឺជាពេលដែលគោលដៅរបស់ប្រព័ន្ធ AI ត្រូវនឹងតម្លៃរបស់មនុស្ស។ ក្រុមហ៊ុនដូចជា OpenAI, DeepMind និង Anthropic មានក្រុមអ្នកស្រាវជ្រាវដែលផ្តោតតែមួយគត់គឺសិក្សារនាំងការពារសម្រាប់សេណារីយ៉ូផ្សេងៗដែលរឿងនេះអាចកើតឡើង។

    បរិបទតម្រឹម AI

    យោងតាមការសិក្សាស្រាវជ្រាវរបស់សាកលវិទ្យាល័យ Cornell ឆ្នាំ 2021 ការសិក្សាជាច្រើនបានបង្ហាញថាឧបករណ៍ ឬគំរូដែលបង្កើតឡើងដោយក្បួនដោះស្រាយបង្ហាញភាពលំអៀងដែលបានមកពីទិន្នន័យដែលពួកគេត្រូវបានបណ្តុះបណ្តាល។ ជាឧទាហរណ៍ នៅក្នុងដំណើរការភាសាធម្មជាតិ (NLP) ជ្រើសរើសគំរូ NLP ដែលបានទទួលការបណ្តុះបណ្តាលលើសំណុំទិន្នន័យមានកំណត់ត្រូវបានចងក្រងជាឯកសារធ្វើឱ្យមានការព្យាករណ៍ដោយផ្អែកលើគំរូយេនឌ័រដែលបង្កគ្រោះថ្នាក់ចំពោះស្ត្រី។ ស្រដៀងគ្នានេះដែរ ការសិក្សាផ្សេងទៀតបានរកឃើញថា ក្បួនដោះស្រាយដែលត្រូវបានបណ្តុះបណ្តាលលើសំណុំទិន្នន័យដែលខូចបានបណ្តាលឱ្យមានការណែនាំលម្អៀងពូជសាសន៍ ជាពិសេសនៅក្នុងប៉ូលីស។

    មានឧទាហរណ៍ជាច្រើនដែលប្រព័ន្ធរៀនម៉ាស៊ីនបានធ្វើអាក្រក់សម្រាប់ជនជាតិភាគតិច ឬក្រុមដែលទទួលរងពីគុណវិបត្តិជាច្រើន។ ជាពិសេស ការវិភាគលើផ្ទៃមុខដោយស្វ័យប្រវត្តិ និងការវិនិច្ឆ័យថែទាំសុខភាពជាធម្មតាមិនដំណើរការល្អសម្រាប់ស្ត្រី និងមនុស្សដែលមានពណ៌សម្បុរនោះទេ។ នៅពេលដែលប្រព័ន្ធសំខាន់ៗដែលគួរតែផ្អែកលើការពិត និងតក្កវិជ្ជាជំនួសឱ្យអារម្មណ៍ត្រូវបានប្រើក្នុងបរិបទដូចជាការបែងចែកការថែទាំសុខភាព ឬការអប់រំ ពួកគេអាចធ្វើឱ្យខូចខាតកាន់តែច្រើន ដោយធ្វើឱ្យវាកាន់តែពិបាកក្នុងការកំណត់ហេតុផលនៅពីក្រោយការណែនាំទាំងនេះ។

    ជាលទ្ធផល ក្រុមហ៊ុនបច្ចេកវិទ្យាកំពុងបង្កើតក្រុមតម្រឹម AI ដើម្បីផ្តោតលើការរក្សាក្បួនដោះស្រាយដោយយុត្តិធម៌ និងមនុស្សធម៌។ ការស្រាវជ្រាវមានសារៈសំខាន់ក្នុងការយល់ដឹងពីទិសដៅនៃប្រព័ន្ធ AI កម្រិតខ្ពស់ ក៏ដូចជាបញ្ហាប្រឈមដែលយើងអាចប្រឈមមុខនៅពេលដែលសមត្ថភាព AI កើនឡើង។

    ផលប៉ះពាល់រំខាន

    យោងតាមលោក Jan Leike ប្រធានផ្នែកតម្រឹម AI នៅ OpenAI (2021) ដែលបានផ្តល់ឱ្យថាប្រព័ន្ធ AI ទើបតែមានលទ្ធភាពក្នុងទសវត្សរ៍ឆ្នាំ 2010 វាអាចយល់បានថាការស្រាវជ្រាវតម្រឹម AI ភាគច្រើនមានទ្រឹស្តីធ្ងន់។ នៅពេលដែលប្រព័ន្ធ AI ដ៏មានអានុភាពត្រូវបានតម្រឹម នោះបញ្ហាប្រឈមមួយដែលមនុស្សជួបប្រទះគឺថាម៉ាស៊ីនទាំងនេះអាចបង្កើតដំណោះស្រាយដែលស្មុគស្មាញពេកក្នុងការពិនិត្យឡើងវិញ និងវាយតម្លៃថាតើវាសមហេតុផលដែរឬទេ។

    Leike បានបង្កើតយុទ្ធសាស្រ្តបង្កើតគំរូរង្វាន់ឡើងវិញ (RRM) ដើម្បីដោះស្រាយបញ្ហានេះ។ ជាមួយនឹង RRM AI "ជំនួយ" ជាច្រើនត្រូវបានបង្រៀនដើម្បីជួយមនុស្សឱ្យវាយតម្លៃថាតើ AI ដែលស្មុគស្មាញជាងនេះដំណើរការបានល្អប៉ុណ្ណា។ គាត់មានសុទិដ្ឋិនិយមអំពីលទ្ធភាពនៃការបង្កើតអ្វីមួយដែលគាត់សំដៅទៅលើ "ការតម្រឹម MVP" ។ នៅក្នុងលក្ខខណ្ឌចាប់ផ្តើម MVP (ឬផលិតផលដែលអាចសម្រេចបានអប្បបរមា) គឺជាផលិតផលសាមញ្ញបំផុតដែលក្រុមហ៊ុនអាចបង្កើតដើម្បីសាកល្បងគំនិតមួយ។ ក្តីសង្ឃឹមគឺថានៅថ្ងៃណាមួយ AI ផ្គូផ្គងដំណើរការរបស់មនុស្សក្នុងការស្រាវជ្រាវ AI និងការតម្រឹមរបស់វាជាមួយនឹងតម្លៃខណៈពេលដែលមានមុខងារផងដែរ។

    ខណៈពេលដែលការបង្កើនចំណាប់អារម្មណ៍លើការតម្រឹម AI គឺជាវិជ្ជមានសុទ្ធ អ្នកវិភាគជាច្រើនក្នុងវិស័យនេះគិតថាការងារ "ក្រមសីលធម៌" ភាគច្រើននៅមន្ទីរពិសោធន៍ AI ឈានមុខគេគឺគ្រាន់តែជាទំនាក់ទំនងសាធារណៈដែលត្រូវបានរចនាឡើងដើម្បីធ្វើឱ្យក្រុមហ៊ុនបច្ចេកវិទ្យាមើលទៅល្អ និងជៀសវាងការផ្សព្វផ្សាយអវិជ្ជមាន។ បុគ្គលទាំងនេះមិនរំពឹងថាការអនុវត្តការអភិវឌ្ឍន៍សីលធម៌នឹងក្លាយជាអាទិភាពសម្រាប់ក្រុមហ៊ុនទាំងនេះគ្រប់ពេលវេលាក្នុងពេលឆាប់ៗនេះទេ។

    ការសង្កេតទាំងនេះបង្ហាញពីសារៈសំខាន់នៃវិធីសាស្រ្តអន្តរកម្មសិក្សាសម្រាប់កិច្ចខិតខំប្រឹងប្រែងតម្រឹមតម្លៃ ព្រោះថានេះគឺជាផ្នែកថ្មីនៃការស៊ើបអង្កេតខាងសីលធម៌ និងបច្ចេកទេស។ សាខាផ្សេងៗនៃចំណេះដឹងគួរតែជាផ្នែកនៃរបៀបវារៈនៃការស្រាវជ្រាវដែលរួមបញ្ចូល។ គំនិតផ្តួចផ្តើមនេះក៏ចង្អុលបង្ហាញពីតម្រូវការសម្រាប់អ្នកបច្ចេកទេស និងអ្នកបង្កើតគោលនយោបាយ ដើម្បីបន្តដឹងពីបរិបទសង្គម និងអ្នកពាក់ព័ន្ធរបស់ពួកគេ ទោះបីជាប្រព័ន្ធ AI កាន់តែជឿនលឿនក៏ដោយ។

    ផលប៉ះពាល់នៃការតម្រឹម AI

    ផលប៉ះពាល់កាន់តែទូលំទូលាយនៃការតម្រឹម AI អាចរួមមាន: 

    • មន្ទីរពិសោធន៍បញ្ញាសិប្បនិម្មិតជួលក្រុមប្រឹក្សាក្រមសីលធម៌ចម្រុះ ដើម្បីត្រួតពិនិត្យគម្រោង និងបំពេញគោលការណ៍ណែនាំ AI ប្រកបដោយក្រមសីលធម៌។ 
    • រដ្ឋាភិបាលបង្កើតច្បាប់ដែលតម្រូវឱ្យក្រុមហ៊ុនដាក់ស្នើក្របខ័ណ្ឌ AI ដែលទទួលខុសត្រូវរបស់ពួកគេ និងរបៀបដែលពួកគេមានគម្រោងអភិវឌ្ឍគម្រោង AI របស់ពួកគេ។
    • ភាពចម្រូងចម្រាសកើនឡើងលើការប្រើប្រាស់ក្បួនដោះស្រាយក្នុងការជ្រើសរើសបុគ្គលិក ការឃ្លាំមើលជាសាធារណៈ និងការអនុវត្តច្បាប់។
    • អ្នកស្រាវជ្រាវត្រូវបានបណ្តេញចេញពីមន្ទីរពិសោធន៍ AI ដ៏ធំដោយសារតែជម្លោះផលប្រយោជន៍រវាងក្រមសីលធម៌ និងគោលដៅរបស់ក្រុមហ៊ុន។
    • សម្ពាធកាន់តែច្រើនសម្រាប់រដ្ឋាភិបាលក្នុងការគ្រប់គ្រងប្រព័ន្ធ AI កម្រិតខ្ពស់ដែលមានឥទ្ធិពលខ្លាំងមិនគួរឱ្យជឿ ប៉ុន្តែអាចបំពានសិទ្ធិមនុស្ស។

    សំណួរដើម្បីផ្តល់យោបល់

    • តើក្រុមហ៊ុនអាចទទួលខុសត្រូវចំពោះប្រព័ន្ធ AI ដែលពួកគេបង្កើតដោយរបៀបណា?
    • តើអ្វីទៅជាគ្រោះថ្នាក់ដែលអាចកើតមានផ្សេងទៀតប្រសិនបើមាន AI misalignment?