மிகைப்படுத்தப்பட்ட AI மாதிரிகள்: மாபெரும் கணினி அமைப்புகள் முனைப்புள்ளியை எட்டுகின்றன

பட கடன்:
பட கடன்
கசய்துள்ைது

மிகைப்படுத்தப்பட்ட AI மாதிரிகள்: மாபெரும் கணினி அமைப்புகள் முனைப்புள்ளியை எட்டுகின்றன

மிகைப்படுத்தப்பட்ட AI மாதிரிகள்: மாபெரும் கணினி அமைப்புகள் முனைப்புள்ளியை எட்டுகின்றன

உபதலைப்பு உரை
இயந்திர கற்றல் கணித மாதிரிகள் ஆண்டுதோறும் பெரியதாகவும் மேலும் அதிநவீனமாகவும் வருகின்றன, ஆனால் வல்லுநர்கள் இந்த விரிவான வழிமுறைகள் உச்சத்தை அடையும் என்று நினைக்கிறார்கள்.
    • ஆசிரியர் பற்றி:
    • ஆசிரியர் பெயர்
      குவாண்டம்ரன் தொலைநோக்கு
    • ஜூன் 2, 2023

    2012 முதல், செயற்கை நுண்ணறிவில் (AI) குறிப்பிடத்தக்க முன்னேற்றங்கள் தொடர்ந்து நிகழ்ந்து வருகின்றன, முக்கியமாக கணினி சக்தியை அதிகரிப்பதன் மூலம் இயக்கப்படுகிறது (சுருக்கமாக "கணக்கீடு"). 2020 இல் தொடங்கப்பட்ட மிகப்பெரிய மாடல்களில் ஒன்று, 600,000 முதல் மாடலை விட 2012 மடங்கு அதிகமான கணிப்பைப் பயன்படுத்தியது. OpenAI இன் ஆராய்ச்சியாளர்கள் 2018 இல் இந்தப் போக்கைக் குறிப்பிட்டு, இந்த வளர்ச்சி விகிதம் நீண்ட காலத்திற்கு நிலைத்திருக்காது என்று எச்சரித்தனர்.

    மிகைப்படுத்தப்பட்ட AI மாதிரிகள் சூழல்

    பல மெஷின் லேர்னிங் (எம்எல்) டெவலப்பர்கள் தங்கள் வெளித்தோற்றத்தில் வரம்பற்ற திறன் காரணமாக ஆழ்ந்த கற்றலுக்கு (டிஎல்) மின்மாற்றி மாதிரிகளைப் பயன்படுத்துகின்றனர். இந்த மாதிரிகளின் எடுத்துக்காட்டுகளில் ஜெனரேட்டிவ் ப்ரீ-ட்ரெய்ன்ட் டிரான்ஸ்ஃபார்மர் 2 (ஜிபிடி-2), ஜிபிடி-3, டிரான்ஸ்ஃபார்மர்ஸ் (பிஇஆர்டி) மற்றும் டூரிங் நேச்சுரல் லாங்குவேஜ் ஜெனரேஷன் (என்எல்ஜி) ஆகியவற்றிலிருந்து இருதரப்பு என்கோடர் பிரதிநிதித்துவங்கள் அடங்கும். இந்த வழிமுறைகள் பெரும்பாலும் இயந்திர மொழிபெயர்ப்பு அல்லது நேரத் தொடர் கணிப்பு போன்ற நிஜ-உலகப் பயன்பாடுகளைக் கொண்டுள்ளன. 

    செயற்கை நுண்ணறிவு முறைகள் அதிக பயிற்சி தரவுகளுக்கு இடமளிப்பதற்கும் கணிப்புகளில் சிறந்து விளங்குவதற்கும் விரிவாக்க வேண்டும். இந்தத் தேவை பில்லியன் கணக்கான அளவுருக்கள் (முன்கணிப்புகளைச் செய்ய அல்காரிதம்களால் பயன்படுத்தப்படும் மாறிகள்) கொண்ட சூப்பர்சைஸ் செய்யப்பட்ட மாடல்களின் எழுச்சிக்கு வழிவகுத்தது. இந்த மாதிரிகள் OpenAI இன் GPT-3 (மற்றும் அதன் ChatGPT தொடர்பு டிசம்பர் 2022 இல் தொடங்கப்பட்டது), சீனாவை தளமாகக் கொண்ட PanGu-alpha, Nvidia's Megatron-Turing NLG மற்றும் DeepMind's Gopher ஆகியவற்றால் குறிப்பிடப்படுகின்றன. 2020 ஆம் ஆண்டில், ஜிபிடி-3 பயிற்சிக்கு உலகின் ஐந்து பெரிய கணினிகளில் ஒரு சூப்பர் கம்ப்யூட்டர் தேவைப்பட்டது. 

    இருப்பினும், இந்த மாதிரிகளுக்கு பாரிய அளவிலான ஆற்றல்-தீவிர பயிற்சி தரவு தேவைப்படுகிறது. ஆழமான கற்றல் மகத்தான கணக்கீட்டு சக்தியைப் பயன்படுத்துவதற்கான அதன் திறனைப் பொறுத்தது, ஆனால் இது விரைவில் மாறும். பயிற்சி மிகவும் விலை உயர்ந்தது, AI சில்லுகளுக்கு வரம்புகள் உள்ளன, மேலும் பெரிய மாடல்களைப் பயிற்றுவிப்பது செயலிகளை அடைத்துவிடும், அவை அனைத்தையும் நிர்வகிப்பது கடினமாகிறது. அளவுரு பெரியது, இந்த மாதிரிகளைப் பயிற்றுவிப்பது விலை அதிகம். சூப்பர்சைஸ் செய்யப்பட்ட AI மாடல்கள் மிகவும் விலை உயர்ந்ததாகவும், பயிற்சியளிக்க முடியாத ஆற்றல் மிகுந்ததாகவும் மாறும் என்று நிபுணர்கள் ஒப்புக்கொள்கிறார்கள். 

    சீர்குலைக்கும் தாக்கம்

    2020 ஆம் ஆண்டில், OpenAI ஆனது, அளவுருக்களின் எண்ணிக்கை மற்றும் தரவுத்தொகுப்பு அளவைக் காரணியாக்குவதன் மூலம், எண்ணற்ற மாடல்களைப் பயிற்றுவிப்பதற்குத் தேவையான குறைந்தபட்ச கணக்கீட்டின் அளவை மதிப்பிட்டுள்ளது. இந்தச் சமன்பாடுகள் ML க்கு அந்தத் தரவு நெட்வொர்க்கின் வழியாகப் பலமுறை அனுப்பப்பட வேண்டும், அளவுருக்களின் எண்ணிக்கை அதிகரிக்கும்போது ஒவ்வொரு பாஸுக்கும் எவ்வாறு கணக்கிடப்படுகிறது மற்றும் அளவுருக்களின் எண்ணிக்கை வளரும்போது எவ்வளவு தரவு தேவைப்படுகிறது என்பதைக் கணக்கிடுகிறது.

    Open AI மதிப்பீடுகளின்படி, டெவலப்பர்கள் அதிகபட்ச செயல்திறனை அடைய முடியும் என்று கருதினால்,  GPT-4 (GPT-100 ஐ விட 3 மடங்கு பெரியது (17.5 டிரில்லியன் அளவுருக்கள்)) 7,600 கிராபிக்ஸ் செயலாக்க அலகுகள் (GPUs) குறைந்தது ஒரு வருடத்திற்கு இயங்கும் மற்றும் தோராயமாக செலவாகும். அமெரிக்க டாலர் 200 மில்லியன். 100-டிரில்லியன் அளவுரு மாடலுக்கு ஒரு வருடத்திற்கு 83,000 GPUகள் தேவைப்படும், $2 பில்லியனுக்கும் அதிகமாக செலவாகும்.

    ஆயினும்கூட, ML தீர்வுகளுக்கான தேவை அதிகரித்து வருவதால், தொழில்நுட்ப நிறுவனங்கள் ஒத்துழைத்து, அவற்றின் எப்போதும் விரிவடைந்து வரும் சூப்பர்சைஸ் செய்யப்பட்ட AI மாடல்களில் முதலீடுகளைச் செலுத்தி வருகின்றன. எடுத்துக்காட்டாக, சீனாவை தளமாகக் கொண்ட Baidu மற்றும் Peng Cheng Lab ஆகியவை PCL-BAIDU Wenxin ஐ 280 பில்லியன் அளவுருக்களுடன் வெளியிட்டன. PCL-BAIDU ஆனது ஏற்கனவே Baidu இன் செய்தி ஊட்டங்கள், தேடுபொறி மற்றும் டிஜிட்டல் உதவியாளரால் பயன்படுத்தப்படுகிறது. 

    டிசம்பர் 2021 இல் DeepMind உருவாக்கிய சமீபத்திய Go-playing நிரல் பதிப்பு 280 பில்லியன் அளவுருக்களைக் கொண்டுள்ளது. Google Switch-Transformer-GLaM மாடல்கள் முறையே 1 டிரில்லியன் மற்றும் 1.2 டிரில்லியன் அளவுருக்களைக் கொண்டுள்ளன. AI இன் பெய்ஜிங் அகாடமியின் Wu Dao 2.0 இன்னும் பெரியது மற்றும் 1.75 டிரில்லியன் அளவுருக்கள் இருப்பதாக தெரிவிக்கப்பட்டுள்ளது. ஸ்மார்ட் நகரங்கள் மற்றும் ஆட்டோமேஷன் இடையூறுகளைத் தொடர்ந்து வருவதால், AI கம்ப்யூட் அத்தகைய எதிர்காலத்தை எவ்வாறு ஆதரிக்கும் என்பது நிபுணர்களுக்குத் தெரியவில்லை. 

    மிகைப்படுத்தப்பட்ட AI மாடல்களின் தாக்கங்கள்

    மிகைப்படுத்தப்பட்ட AI மாதிரிகளின் பரந்த தாக்கங்கள் பின்வருவனவற்றை உள்ளடக்கியிருக்கலாம்: 

    • குறைந்த ஆற்றலைப் பயன்படுத்தும் AI கணினி சில்லுகளை உருவாக்குவதில் அதிக முதலீடுகள் மற்றும் வாய்ப்புகள். 
    • கம்ப்யூட்டிங் சக்தியின் பற்றாக்குறையால் AI முன்னேற்றம் குறைந்து, ஆற்றல்-சேமிப்பு தொழில்நுட்பங்கள் மற்றும் தீர்வுகளுக்கு அதிக நிதிக்கு வழிவகுத்தது.
    • ML டெவலப்பர்கள் மின்மாற்றிகளைத் தவிர்த்து மாற்று மாதிரிகளை உருவாக்குகிறார்கள், இது மிகவும் திறமையான வழிமுறைகளுக்கான கண்டுபிடிப்புகள் மற்றும் புதுமைகளுக்கு வழிவகுக்கும்.
    • AI தீர்வுகள் பயன்பாட்டை மையப்படுத்திய சிக்கல்களில் கவனம் செலுத்துகிறது, அதற்கேற்ப கணக்கீட்டை சரிசெய்தல் அல்லது தேவைக்கேற்ப மாற்றியமைத்தல்.
    • வானிலை முன்னறிவிப்புகள், விண்வெளி கண்டுபிடிப்புகள், மருத்துவ நோயறிதல்கள் மற்றும் சர்வதேச வர்த்தகம் உள்ளிட்ட சிறந்த கணிப்புகளைச் செய்ய AI நிரல்களை அனுமதிக்கும் மிகவும் சிக்கலான தரவுத்தொகுப்புகள்.

    கருத்து தெரிவிக்க வேண்டிய கேள்விகள்

    • நீங்கள் AI துறையில் பணிபுரிந்தால், சிறந்த ML மாடல்களை உருவாக்குவதில் சில முன்னேற்றங்கள் என்ன?
    • விரிவான பயிற்சித் தரவைக் கொண்ட மாதிரிகளின் பிற சாத்தியமான நன்மைகள் என்ன?

    நுண்ணறிவு குறிப்புகள்

    இந்த நுண்ணறிவுக்கு பின்வரும் பிரபலமான மற்றும் நிறுவன இணைப்புகள் குறிப்பிடப்பட்டுள்ளன: