ម៉ូដែល AI ទំនើប៖ ប្រព័ន្ធកុំព្យូទ័រយក្សកំពុងឈានដល់ចំណុចកំពូល

ឥណទានរូបភាព៖
ឥណទានរូបភាព
iStock

ម៉ូដែល AI ទំនើប៖ ប្រព័ន្ធកុំព្យូទ័រយក្សកំពុងឈានដល់ចំណុចកំពូល

ម៉ូដែល AI ទំនើប៖ ប្រព័ន្ធកុំព្យូទ័រយក្សកំពុងឈានដល់ចំណុចកំពូល

អត្ថបទចំណងជើងរង
គំរូគណិតវិទ្យានៃការរៀនតាមម៉ាស៊ីនកំពុងទទួលបានទំហំធំ និងទំនើបជាងមុនជារៀងរាល់ឆ្នាំ ប៉ុន្តែអ្នកជំនាញគិតថាក្បួនដោះស្រាយដ៏ទូលំទូលាយទាំងនេះហៀបនឹងឈានដល់កម្រិតកំពូល។
    • អ្នកនិពន្ធ:
    • ឈ្មោះអ្នកនិពន្ធ
      ការទស្សន៍ទាយ Quantumrun
    • ខែមិថុនា 2, 2023

    ចាប់តាំងពីឆ្នាំ 2012 មក ភាពជឿនលឿនយ៉ាងសំខាន់នៅក្នុង បញ្ញាសិប្បនិម្មិត (AI) បានកើតឡើងជាទៀងទាត់ ដែលភាគច្រើនត្រូវបានជំរុញដោយការបង្កើនថាមពលកុំព្យូទ័រ ("កុំព្យូទ័រ" សម្រាប់រយៈពេលខ្លី)។ ម៉ូដែលដ៏ធំបំផុតមួយ ដែលត្រូវបានដាក់ឱ្យដំណើរការនៅឆ្នាំ 2020 ប្រើប្រាស់កុំព្យូទ័រ 600,000 ដងច្រើនជាងម៉ូដែលដំបូងពីឆ្នាំ 2012។ អ្នកស្រាវជ្រាវនៅ OpenAI បានកត់សម្គាល់ពីនិន្នាការនេះក្នុងឆ្នាំ 2018 ហើយបានព្រមានថា អត្រាកំណើននេះនឹងមិនមាននិរន្តរភាពយូរទេ។

    បរិបទម៉ូដែល AI ធំជាង

    អ្នកអភិវឌ្ឍន៍ការរៀនម៉ាស៊ីន (ML) ជាច្រើនប្រើគំរូបំប្លែងសម្រាប់ការរៀនស៊ីជម្រៅ (DL) ដោយសារតែសមត្ថភាពរបស់ពួកគេហាក់ដូចជាគ្មានដែនកំណត់។ ឧទាហរណ៍នៃគំរូទាំងនេះរួមមាន Generative Pre-trained Transformer 2 (GPT-2), GPT-3, Bidirectional Encoder Representations from Transformers (BERT) និង Turing Natural Language Generation (NLG)។ ក្បួនដោះស្រាយទាំងនេះច្រើនតែមានកម្មវិធីក្នុងពិភពពិត ដូចជាការបកប្រែតាមម៉ាស៊ីន ឬការទស្សន៍ទាយស៊េរីពេលវេលា។ 

    របៀបបញ្ញាសិប្បនិមិត្តត្រូវតែពង្រីក ដើម្បីផ្ទុកទិន្នន័យបណ្តុះបណ្តាលកាន់តែច្រើន និងកាន់តែប្រសើរឡើងក្នុងការទស្សន៍ទាយ។ តម្រូវការនេះបាននាំឱ្យមានការកើនឡើងនៃគំរូធំដែលមានប៉ារ៉ាម៉ែត្ររាប់ពាន់លាន (អថេរដែលប្រើដោយក្បួនដោះស្រាយដើម្បីធ្វើការទស្សន៍ទាយ)។ ម៉ូដែលទាំងនេះត្រូវបានតំណាងដោយ OpenAI's GPT-3 (និងអន្តរកម្ម ChatGPT របស់វាបានចាប់ផ្តើមក្នុងខែធ្នូ ឆ្នាំ 2022), PanGu-alpha ដែលមានមូលដ្ឋាននៅប្រទេសចិន, Megatron-Turing NLG របស់ Nvidia និង DeepMind's Gopher ។ នៅឆ្នាំ 2020 ការបណ្តុះបណ្តាល GPT-3 ត្រូវការកុំព្យូទ័រទំនើបដែលស្ថិតក្នុងចំណោម XNUMX ធំបំផុតនៅលើពិភពលោក។ 

    ទោះជាយ៉ាងណាក៏ដោយ ម៉ូដែលទាំងនេះមានទំនោរត្រូវការទិន្នន័យបណ្តុះបណ្តាលដែលពឹងផ្អែកលើថាមពលយ៉ាងច្រើន។ ការរៀនជ្រៅជ្រះអាស្រ័យលើសមត្ថភាពរបស់វាក្នុងការប្រើប្រាស់ថាមពលកុំព្យូទ័រដ៏ធំសម្បើម ប៉ុន្តែវានឹងផ្លាស់ប្តូរក្នុងពេលឆាប់ៗនេះ។ ការបណ្តុះបណ្តាលមានតម្លៃថ្លៃ មានដែនកំណត់ចំពោះបន្ទះឈីប AI និងការបណ្តុះបណ្តាលម៉ូដែលធំ ៗ រារាំងដំណើរការដែលធ្វើឱ្យវាពិបាកក្នុងការគ្រប់គ្រងវាទាំងអស់។ ប៉ារ៉ាម៉ែត្រកាន់តែធំ ការចំណាយកាន់តែខ្ពស់ក្នុងការហ្វឹកហាត់ម៉ូដែលទាំងនេះ។ អ្នកជំនាញយល់ស្របថានឹងមានចំណុចមួយដែលគំរូ AI ធំជាងអាចក្លាយជាថ្លៃពេក និងប្រើថាមពលច្រើនក្នុងការហ្វឹកហាត់។ 

    ផលប៉ះពាល់រំខាន

    នៅឆ្នាំ 2020 OpenAI បានប៉ាន់ប្រមាណចំនួនអប្បបរមានៃការគណនាដែលត្រូវការដើម្បីបណ្តុះបណ្តាលម៉ូដែលជាច្រើន ដោយរាប់បញ្ចូលក្នុងចំនួនប៉ារ៉ាម៉ែត្រ និងទំហំសំណុំទិន្នន័យ។ សមីការទាំងនេះរាប់បញ្ចូលអំពីរបៀបដែល ML តម្រូវឱ្យទិន្នន័យនោះឆ្លងកាត់បណ្តាញជាច្រើនដង របៀបគណនាសម្រាប់លិខិតឆ្លងដែននីមួយៗកើនឡើងនៅពេលដែលចំនួនប៉ារ៉ាម៉ែត្រកើនឡើង និងចំនួនទិន្នន័យដែលត្រូវការនៅពេលដែលចំនួនប៉ារ៉ាម៉ែត្រកើនឡើង។

    យោងតាមការប៉ាន់ប្រមាណរបស់ Open AI សន្មតថាអ្នកអភិវឌ្ឍន៍អាចសម្រេចបាននូវប្រសិទ្ធភាពអតិបរមា ការសាងសង់ GPT-4 (100 ដងធំជាង GPT-3 (17.5 ពាន់ពាន់លានប៉ារ៉ាម៉ែត្រ)) នឹងត្រូវការ 7,600 អង្គដំណើរការក្រាហ្វិក (GPUs) ដែលដំណើរការយ៉ាងហោចណាស់មួយឆ្នាំ ហើយចំណាយប្រហែល 200 លានដុល្លារអាមេរិក។ គំរូប៉ារ៉ាម៉ែត្រ 100 ពាន់ពាន់លាននឹងត្រូវការ 83,000 GPUs ដើម្បីផ្តល់ថាមពលដល់វាសម្រាប់រយៈពេលមួយឆ្នាំ ដែលមានតម្លៃជាង 2 ពាន់លានដុល្លារ។

    ទោះជាយ៉ាងណាក៏ដោយ ក្រុមហ៊ុនបច្ចេកវិទ្យាបាននិងកំពុងសហការ និងវិនិយោគលើម៉ូដែល AI ដែលកំពុងពង្រីកខ្លួនរបស់ពួកគេ ខណៈដែលតម្រូវការសម្រាប់ដំណោះស្រាយ ML កើនឡើង។ ឧទាហរណ៍ ក្រុមហ៊ុន Baidu ដែលមានមូលដ្ឋាននៅប្រទេសចិន និងមន្ទីរពិសោធន៍ Peng Cheng បានចេញផ្សាយ PCL-BAIDU Wenxin ជាមួយនឹងប៉ារ៉ាម៉ែត្រ 280 ពាន់លាន។ PCL-BAIDU ត្រូវ​បាន​ប្រើ​រួច​ហើយ​ដោយ​ព័ត៌មាន​ព័ត៌មាន​របស់ Baidu ម៉ាស៊ីន​ស្វែងរក និង​ជំនួយការ​ឌីជីថល។ 

    កំណែកម្មវិធី Go-playing ចុងក្រោយបង្អស់ដែល DeepMind បានបង្កើតក្នុងខែធ្នូ ឆ្នាំ 2021 មានប៉ារ៉ាម៉ែត្រ 280 ពាន់លាន។ ម៉ូដែល Google Switch-Transformer-GLaM មានប៉ារ៉ាម៉ែត្រ 1 ពាន់ពាន់លាន និង 1.2 ពាន់ពាន់លាន រៀងគ្នា។ Wu Dao 2.0 ពី Beijing Academy of AI កាន់តែធំ ហើយត្រូវបានគេរាយការណ៍ថាមានប៉ារ៉ាម៉ែត្រ 1.75 ពាន់ពាន់លាន។ នៅពេលដែលទីក្រុងឆ្លាតវៃ និងស្វ័យប្រវត្តិកម្មបន្តជំរុញឱ្យមានការរអាក់រអួល អ្នកជំនាញមិនច្បាស់ថា AI compute នឹងគាំទ្រអនាគតបែបនោះទេ។ 

    ផលប៉ះពាល់នៃគំរូ AI ធំជាង

    ផលប៉ះពាល់កាន់តែទូលំទូលាយនៃគំរូ AI ធំជាងអាចរួមមាន: 

    • ការបង្កើនការវិនិយោគ និងឱកាសក្នុងការអភិវឌ្ឍន៍បន្ទះឈីបកុំព្យូទ័រ AI ដែលប្រើប្រាស់ថាមពលតិច។ 
    • ការរីកចម្រើនរបស់ AI បានថយចុះដោយសារកង្វះថាមពលកុំព្យូទ័រ ដែលនាំទៅដល់ការផ្តល់មូលនិធិបន្ថែមទៀតសម្រាប់បច្ចេកវិទ្យា និងដំណោះស្រាយដែលសន្សំសំចៃថាមពល។
    • អ្នកអភិវឌ្ឍន៍ ML បង្កើតគំរូជំនួសក្រៅពី transformers ដែលអាចនាំទៅរកការរកឃើញ និងការច្នៃប្រឌិតសម្រាប់ក្បួនដោះស្រាយដែលមានប្រសិទ្ធភាពជាងមុន។
    • ដំណោះស្រាយ AI ផ្តោតលើបញ្ហាដែលផ្តោតលើកម្មវិធី កែសម្រួលការគណនាតាមតម្រូវការ ឬកែប្រែតាមតម្រូវការ ជំនួសឱ្យការគ្រាន់តែពង្រីក។
    • សំណុំទិន្នន័យស្មុគ្រស្មាញកាន់តែច្រើនដែលអនុញ្ញាតឱ្យកម្មវិធី AI ធ្វើការទស្សន៍ទាយបានប្រសើរជាងមុន រួមទាំងការព្យាករណ៍អាកាសធាតុ ការរកឃើញអវកាស ការវិនិច្ឆ័យវេជ្ជសាស្រ្ត និងការជួញដូរអន្តរជាតិ។

    សំណួរដើម្បីផ្តល់យោបល់

    • ប្រសិនបើអ្នកធ្វើការក្នុងវិស័យ AI តើមានការវិវឌ្ឍន៍អ្វីខ្លះក្នុងការអភិវឌ្ឍន៍គំរូ ML កាន់តែប្រសើរ?
    • តើអ្វីទៅជាអត្ថប្រយោជន៍ដ៏មានសក្តានុពលផ្សេងទៀតនៃម៉ូដែលដែលមានទិន្នន័យបណ្តុះបណ្តាលយ៉ាងទូលំទូលាយដែលត្រូវរៀនពី?

    ឯកសារយោងការយល់ដឹង

    តំណភ្ជាប់ដ៏ពេញនិយម និងស្ថាប័នខាងក្រោមត្រូវបានយោងសម្រាប់ការយល់ដឹងនេះ៖