အကြီးစား AI မော်ဒယ်များ- ဧရာမကွန်ပြူတာစနစ်များသည် အကြံပြုချက်အမှတ်သို့ ရောက်ရှိနေပါသည်။

ပုံခရက်ဒစ်-
image ကိုအကြွေး
iStock

အကြီးစား AI မော်ဒယ်များ- ဧရာမကွန်ပြူတာစနစ်များသည် အကြံပြုချက်အမှတ်သို့ ရောက်ရှိနေပါသည်။

အကြီးစား AI မော်ဒယ်များ- ဧရာမကွန်ပြူတာစနစ်များသည် အကြံပြုချက်အမှတ်သို့ ရောက်ရှိနေပါသည်။

ခေါင်းစဉ်ခွဲ စာသား
စက်သင်ယူမှုသင်္ချာပုံစံများသည် နှစ်စဉ်ပိုမိုကြီးမားပြီး ပိုမိုခေတ်မီလာသော်လည်း ဤကျယ်ပြန့်သော algorithms များသည် အထွတ်အထိပ်သို့ရောက်နေပြီဟု ကျွမ်းကျင်သူများက ယူဆကြသည်။
    • Author:
    • စာရေးသူနာမည်
      Quantumrun Foresight
    • ဇြန္လ 2, 2023

    2012 ခုနှစ်မှစတင်၍ ဥာဏ်ရည်တု (AI) တွင် သိသာထင်ရှားသောတိုးတက်မှုများ ပုံမှန်ဖြစ်ပေါ်ခဲ့ပြီး အဓိကအားဖြင့် ကွန်ပြူတာစွမ်းအား (အတိုကောက်အတိုကောက် "compute") တိုးမြှင့်ခြင်းဖြင့် တွန်းအားပေးခဲ့သည်။ 2020 ခုနှစ်တွင် စတင်ထုတ်လုပ်ခဲ့သော အကြီးမားဆုံး မော်ဒယ်များထဲမှ တစ်ခုသည် 600,000 ခုနှစ်မှ ပထမမော်ဒယ်ထက် အဆ 2012 ပိုမိုအသုံးပြုခဲ့သည်။ OpenAI မှ သုတေသီများသည် 2018 တွင် ဤလမ်းကြောင်းကို မှတ်သားထားပြီး ဤတိုးတက်မှုနှုန်းသည် ရေရှည်တည်တံ့မည်မဟုတ်ကြောင်း သတိပေးခဲ့သည်။

    အကြီးစား AI မော်ဒယ်များ၏ ဆက်စပ်မှု

    machine learning (ML) developer အများအပြားသည် ၎င်းတို့၏ အကန့်အသတ်မရှိသော အလားအလာကြောင့် နက်နဲသော သင်ယူမှု (DL) အတွက် transformer ပုံစံများကို အသုံးပြုကြသည်။ ဤမော်ဒယ်များ၏ နမူနာများတွင် Generative Pre-trained Transformer 2 (GPT-2)၊ GPT-3၊ Transformers (BERT) မှ Bidirectional Encoder Representations နှင့် Turing Natural Language Generation (NLG) တို့ ပါဝင်သည်။ ဤအယ်လဂိုရီသမ်များတွင် စက်ဘာသာပြန်ဆိုခြင်း သို့မဟုတ် အချိန်စီးရီးခန့်မှန်းခြင်းကဲ့သို့သော လက်တွေ့ကမ္ဘာအပလီကေးရှင်းများ ရှိတတ်သည်။ 

    လေ့ကျင့်ရေးဒေတာပိုမိုလိုက်လျောညီထွေဖြစ်စေရန်နှင့်ခန့်မှန်းချက်များကိုပိုမိုကောင်းမွန်စေရန်အတွက် Artificial Intelligence မုဒ်များကိုချဲ့ထွင်ရန် လိုအပ်သည်။ ဤလိုအပ်ချက်သည် ဘီလီယံပေါင်းများစွာသော ကန့်သတ်ဘောင်များ (ကြိုတင်ခန့်မှန်းချက်ပြုလုပ်ရန် အယ်လဂိုရီသမ်များအသုံးပြုသော ကိန်းရှင်များ) ဖြင့် အကြီးစားမော်ဒယ်များ တိုးလာစေသည်။ ဤမော်ဒယ်များကို OpenAI ၏ GPT-3 (၎င်း၏ ChatGPT အပြန်အလှန်တုံ့ပြန်မှုသည် ဒီဇင်ဘာလ 2022)၊ တရုတ်အခြေစိုက် PanGu-alpha၊ Nvidia ၏ Megatron-Turing NLG နှင့် DeepMind's Gopher တို့က ကိုယ်စားပြုထားသည်။ 2020 ခုနှစ်တွင် GPT-3 လေ့ကျင့်ရေးတွင် ကမ္ဘာပေါ်တွင် အကြီးဆုံးငါးခုရှိသည့် စူပါကွန်ပြူတာတစ်လုံး လိုအပ်ပါသည်။ 

    သို့သော်၊ ဤမော်ဒယ်များသည် စွမ်းအင်သုံး လေ့ကျင့်မှုဒေတာ အများအပြား လိုအပ်ပါသည်။ နက်နက်ရှိုင်းရှိုင်း သင်ယူမှုသည် ကြီးမားသော ကွန်ပြူတာ ပါဝါကို အသုံးပြုရန် ၎င်း၏ စွမ်းရည်ပေါ်တွင် မူတည်သော်လည်း ၎င်းသည် မကြာမီ ပြောင်းလဲသွားမည်ဖြစ်သည်။ လေ့ကျင့်ရေးက ဈေးကြီးတယ်၊ AI ချစ်ပ်တွေကို ကန့်သတ်ချက်တွေ ရှိပြီး မော်ဒယ်ကြီးတွေက ပရိုဆက်ဆာတွေကို ပိတ်ဆို့စေပြီး အားလုံးကို စီမံခန့်ခွဲရတာ ခက်ပါတယ်။ ကန့်သတ်ဘောင်ပိုကြီးလေ၊ ဤမော်ဒယ်များကို လေ့ကျင့်ရန် စရိတ်စက ပိုများသည်။ AI မော်ဒယ်များသည် အလွန်စျေးကြီးပြီး လေ့ကျင့်ရန် စွမ်းအင်အလွန်အကျွံသုံးနိုင်သည့် အချက်တစ်ခုရှိလာမည်ဟု ကျွမ်းကျင်သူများက သဘောတူညီခဲ့ကြသည်။ 

    အနှောင့်အယှက်ဖြစ်စေတယ်။

    2020 ခုနှစ်တွင်၊ OpenAI သည် မော်ဒယ်အများအပြားကိုလေ့ကျင့်ရန် လိုအပ်သော အနည်းဆုံးတွက်ချက်မှုပမာဏကို ခန့်မှန်းခဲ့ပြီး ကန့်သတ်အရေအတွက်နှင့် ဒေတာအစုံအရွယ်အစားတို့ကို တွက်ချက်ခဲ့သည်။ ဤညီမျှခြင်းများသည် ကွန်ရက်ကို ဖြတ်သန်းရန် ဒေတာကို အကြိမ်များစွာ ဖြတ်သန်းရန် ML လိုအပ်ပုံ၊ ပါရာမီတာ အရေအတွက် တိုးလာသည်နှင့်အမျှ pass တစ်ခုစီအတွက် တွက်ချက်ပုံ တက်လာခြင်းနှင့် ကန့်သတ်အရေအတွက် တိုးလာသည်နှင့်အမျှ ဒေတာမည်မျှ လိုအပ်သည်တို့ကို တွက်ချက်ပါသည်။

    Open AI ခန့်မှန်းချက်များအရ developer များသည် အမြင့်ဆုံးထိရောက်မှုရရှိအောင်မြင်နိုင်သည်ဟု ယူဆပါက GPT-4 (GPT-100 ထက် အဆ 3 ပိုကြီးသော (17.5 ထရီလီယံ ကန့်သတ်ဘောင်များ)) ကို တည်ဆောက်ခြင်း) သည် အနည်းဆုံး တစ်နှစ်တာလည်ပတ်နေသည့် ဂရပ်ဖစ်လုပ်ဆောင်ခြင်းယူနစ် (GPUs) 7,600 လိုအပ်မည်ဖြစ်ပြီး ခန့်မှန်းခြေအားဖြင့် ကုန်ကျမည်ဖြစ်သည်။ အမေရိကန်ဒေါ်လာ သန်း ၂၀၀။ 200 ထရီလီယံ ပါရာမီတာ မော်ဒယ်သည် တစ်နှစ်အတွက် ပါဝါရရှိရန် GPU 100 လိုအပ်မည်ဖြစ်ပြီး အမေရိကန်ဒေါ်လာ 83,000 ဘီလီယံကျော် ကုန်ကျမည်ဖြစ်သည်။

    မည်သို့ပင်ဆိုစေကာမူ၊ နည်းပညာကုမ္ပဏီများသည် ML ဖြေရှင်းချက်လိုအပ်ချက်များ ကြီးထွားလာသည်နှင့်အမျှ ၎င်းတို့၏အမြဲတမ်းချဲ့ထွင်နေသော AI မော်ဒယ်လ်များတွင် ရင်းနှီးမြှုပ်နှံမှုများ ပူးပေါင်းကာ ရင်းနှီးမြှုပ်နှံမှုများ လောင်းထည့်လျက်ရှိသည်။ ဥပမာအားဖြင့်၊ တရုတ်အခြေစိုက် Baidu နှင့် Peng Cheng Lab တို့သည် ကန့်သတ်ဘောင် ၂၈၀ ဘီလီယံဖြင့် PCL-BAIDU Wenxin ကို ထုတ်ပြန်ခဲ့သည်။ PCL-BAIDU ကို Baidu ၏ သတင်းဖိဒ်များ၊ ရှာဖွေရေးအင်ဂျင်နှင့် ဒစ်ဂျစ်တယ်လက်ထောက်တို့က အသုံးပြုနေပြီဖြစ်သည်။ 

    2021 ခုနှစ် ဒီဇင်ဘာလတွင် DeepMind ဖန်တီးခဲ့သည့် နောက်ဆုံးထွက် Go-playing ပရိုဂရမ်ဗားရှင်းတွင် ကန့်သတ်ဘောင်ပေါင်း 280 ဘီလီယံရှိသည်။ Google Switch-Transformer-GLaM မော်ဒယ်များသည် တုန်လှုပ်ဖွယ် 1 ထရီလီယံနှင့် 1.2 ထရီလီယံ ဘောင်များ အသီးသီးရှိသည်။ Beijing Academy of AI မှ Wu Dao 2.0 သည် ပို၍ကြီးမားပြီး ကန့်သတ်ဘောင်ပေါင်း 1.75 ထရီလီယံရှိသည်ဟု သတင်းရရှိထားသည်။ စမတ်မြို့များနှင့် အလိုအလျောက်စနစ်များသည် အနှောင့်အယှက်များကို ဆက်လက်တွန်းအားပေးနေသောကြောင့် AI compute သည် ထိုကဲ့သို့သောအနာဂတ်ကို မည်သို့ပံ့ပိုးပေးမည်ကို ကျွမ်းကျင်သူများက မသေချာပါ။ 

    အကြီးစား AI မော်ဒယ်များ၏ သက်ရောက်မှုများ

    အကြီးစား AI မော်ဒယ်များ၏ ကျယ်ပြန့်သောသက်ရောက်မှုများ ပါဝင်နိုင်သည်- 

    • စွမ်းအင်နည်းသော AI ကွန်ပျူတာ ချစ်ပ်များ တီထွင်ရာတွင် ရင်းနှီးမြှုပ်နှံမှုများနှင့် အခွင့်အလမ်းများ တိုးလာပါသည်။ 
    • AI တိုးတက်မှုသည် ကွန်ပြူတာ ပါဝါမရှိခြင်းကြောင့် နှေးကွေးသွားပြီး စွမ်းအင်ချွေတာသော နည်းပညာများနှင့် ဖြေရှင်းချက်များအတွက် ရန်ပုံငွေပိုမိုရရှိစေသည်။
    • ပိုမိုထိရောက်သော algorithms အတွက် ရှာဖွေတွေ့ရှိမှုများနှင့် ဆန်းသစ်တီထွင်မှုများကို ဖြစ်ပေါ်စေနိုင်သည့် ထရန်စဖော်မာများမှလွဲ၍ အစားထိုးမော်ဒယ်များကို ML developer များက ဖန်တီးကြသည်။
    • အပလီကေးရှင်းဗဟိုပြုပြဿနာများကို အာရုံစိုက်ခြင်း၊ တွက်ချက်မှုကို လိုက်လျောညီထွေဖြစ်အောင် ချိန်ညှိခြင်း သို့မဟုတ် ချဲ့ထွင်ခြင်းအစား လိုအပ်သလို ပြင်ဆင်ခြင်းတို့ကို အာရုံစိုက်သည့် AI ဖြေရှင်းချက်များ။
    • ရာသီဥတုခန့်မှန်းချက်များ၊ အာကာသရှာဖွေတွေ့ရှိမှု၊ ဆေးဘက်ဆိုင်ရာရောဂါရှာဖွေမှုများနှင့် နိုင်ငံတကာကုန်သွယ်မှုများအပါအဝင် ပိုမိုကောင်းမွန်သော ခန့်မှန်းချက်များကို လုပ်ဆောင်ရန် AI ပရိုဂရမ်များအား ရှုပ်ထွေးသောဒေတာအတွဲများ။

    မှတ်ချက်ပေးရန်မေးခွန်းများ

    • အကယ်၍ သင်သည် AI ကဏ္ဍတွင် အလုပ်လုပ်ပါက၊ ပိုမိုကောင်းမွန်သော ML မော်ဒယ်များကို ဖန်တီးရာတွင် တိုးတက်မှုအချို့ရှိပါသနည်း။
    • သင်ယူရန် ကျယ်ပြန့်သော လေ့ကျင့်မှုဒေတာပါရှိသော မော်ဒယ်များ၏ အခြားအလားအလာကောင်းများကား အဘယ်နည်း။

    ဝိပဿနာကိုးကား

    ဤထိုးထွင်းသိမြင်မှုအတွက် အောက်ပါလူကြိုက်များပြီး အဖွဲ့အစည်းဆိုင်ရာလင့်ခ်များကို ကိုးကားထားပါသည်။