Böyük ölçülü AI modelləri: Nəhəng hesablama sistemləri uçma nöqtəsinə çatır

ŞƏKİL KREDİTİ:
Şəkil krediti
iStock

Böyük ölçülü AI modelləri: Nəhəng hesablama sistemləri uçma nöqtəsinə çatır

Böyük ölçülü AI modelləri: Nəhəng hesablama sistemləri uçma nöqtəsinə çatır

Alt başlıq mətni
Maşın öyrənmə riyazi modelləri ildən-ilə böyüyür və daha təkmilləşir, lakin ekspertlər bu geniş alqoritmlərin zirvəyə çatmaq üzrə olduğunu düşünürlər.
    • Author:
    • Author adı
      Quantumrun Uzaqgörməsi
    • İyun 2, 2023

    2012-ci ildən bəri süni intellektdə (AI) əhəmiyyətli irəliləyişlər mütəmadi olaraq baş verir, əsasən hesablama gücünün artırılması (“qısaca hesablama”). 2020-ci ildə bazara çıxarılan ən böyük modellərdən biri 600,000-ci ildəki ilk modeldən 2012 dəfə çox hesablamadan istifadə edib. OpenAI tədqiqatçıları 2018-ci ildə bu tendensiyanı qeyd ediblər və bu artım tempinin uzun müddət davam etməyəcəyi barədə xəbərdarlıq ediblər.

    Böyük ölçülü AI modelləri konteksti

    Bir çox maşın öyrənməsi (ML) tərtibatçıları, zahirən sonsuz potensiallarına görə dərin öyrənmə (DL) üçün transformator modellərindən istifadə edirlər. Bu modellərə misal olaraq Generativ Əvvəlcədən Təlim edilmiş Transformator 2 (GPT-2), GPT-3, Transformatorlardan Bidirectional Encoder Representations (BERT) və Turing Natural Language Generation (NLG) daxildir. Bu alqoritmlər tez-tez maşın tərcüməsi və ya zaman sıralarının proqnozlaşdırılması kimi real dünya tətbiqlərinə malikdir. 

    Süni intellekt rejimləri daha çox təlim məlumatlarını yerləşdirmək və proqnozlarda daha yaxşı olmaq üçün genişlənməlidir. Bu tələb milyardlarla parametrli (proqnozlar vermək üçün alqoritmlər tərəfindən istifadə olunan dəyişənlər) böyük ölçülü modellərin artmasına səbəb olmuşdur. Bu modellər OpenAI-nin GPT-3 (və onun ChatGPT qarşılıqlı əlaqəsi 2022-ci ilin dekabrında başlamışdır), Çində əsaslanan PanGu-alpha, Nvidia-nın Megatron-Turing NLG və DeepMind-in Gopher ilə təmsil olunur. 2020-ci ildə GPT-3 təlimi üçün dünyanın beş ən böyük kompüterindən biri olan superkompüter tələb olunurdu. 

    Bununla belə, bu modellər böyük miqdarda enerji tutumlu təlim məlumatlarını tələb edir. Dərin öyrənmə onun böyük hesablama gücündən istifadə etmək qabiliyyətindən asılı idi, lakin bu, tezliklə dəyişəcək. Təlim bahalıdır, süni intellekt çiplərinə məhdudiyyətlər var və böyük modellərin təlimi prosessorları bağlayır və onların hamısını idarə etməyi çətinləşdirir. Parametr nə qədər böyükdürsə, bu modelləri hazırlamaq bir o qədər baha başa gəlir. Mütəxəssislər razılaşırlar ki, böyük ölçülü süni intellekt modelləri məşq etmək üçün çox bahalı və enerji tutumlu ola biləcək bir məqam gələcək. 

    Dağıdıcı təsir

    2020-ci ildə OpenAI, parametrlərin sayı və verilənlər bazasının ölçüsünü nəzərə alaraq, çoxsaylı modelləri hazırlamaq üçün tələb olunan minimum hesablama miqdarını təxmin etdi. Bu tənliklər ML-nin bu verilənlərin şəbəkədən dəfələrlə keçməsini necə tələb etdiyini, parametrlərin sayı artdıqca hər keçid üçün hesablamanın necə artdığını və parametrlərin sayı artdıqca nə qədər məlumat tələb olunduğunu nəzərə alır.

    Open AI hesablamalarına görə, tərtibatçıların maksimum səmərəliliyə nail ola biləcəyini fərz etsək, GPT-4 (GPT-100-dən 3 dəfə böyük (17.5 trilyon parametr)) qurmaq üçün ən azı bir il işləyən 7,600 qrafik emal vahidi (GPU) tələb olunacaq və təxminən başa gələcək. 200 milyon ABŞ dolları. 100 trilyon parametrli bir modelin bir il ərzində işləməsi üçün 83,000 GPU lazımdır ki, bu da 2 milyard ABŞ dollarından çox başa gəlir.

    Buna baxmayaraq, texnoloji firmalar əməkdaşlıq edir və ML həllərinə tələbat artdıqca daim genişlənən supersiz AI modellərinə sərmayələr yatırırlar. Məsələn, Çində yerləşən Baidu və Peng Cheng Laboratoriyası 280 milyard parametrlə PCL-BAIDU Wenxin-i buraxdı. PCL-BAIDU artıq Baidu-nun xəbər lentləri, axtarış sistemi və rəqəmsal köməkçisi tərəfindən istifadə olunur. 

    DeepMind-in 2021-ci ilin dekabrında yaratdığı ən son Go-playing proqramının versiyası 280 milyard parametrə malikdir. Google Switch-Transformer-GLaM modelləri müvafiq olaraq heyrətamiz 1 trilyon və 1.2 trilyon parametrə malikdir. Pekin Süni İntellekt Akademiyasından Wu Dao 2.0 daha böyükdür və 1.75 trilyon parametrə malik olduğu bildirilir. Ağıllı şəhərlər və avtomatlaşdırma fasilələri artırmağa davam etdikcə, ekspertlər süni intellekt hesablamalarının belə bir gələcəyi necə dəstəkləyəcəyinə əmin deyillər. 

    Böyük ölçülü AI modellərinin nəticələri

    Böyük ölçülü AI modellərinin daha geniş təsirləri aşağıdakıları əhatə edə bilər: 

    • Daha az enerji istehlak edən süni intellekt kompüter çiplərinin hazırlanmasında artan investisiyalar və imkanlar. 
    • Süni intellektin inkişafı hesablama gücünün olmaması səbəbindən yavaşladı və enerjiyə qənaət edən texnologiyalar və həllər üçün daha çox maliyyələşdirməyə səbəb oldu.
    • ML tərtibatçıları transformatorlardan başqa, daha səmərəli alqoritmlər üçün kəşflərə və yeniliklərə səbəb ola biləcək alternativ modellər yaradırlar.
    • Tətbiq mərkəzli problemlərə diqqət yetirən, hesablamanı müvafiq olaraq tənzimləyən və ya sadəcə böyükləşdirmək əvəzinə lazım olduqda dəyişdirən AI həlləri.
    • Süni intellekt proqramlarına hava proqnozları, kosmik kəşflər, tibbi diaqnozlar və beynəlxalq ticarət daxil olmaqla daha yaxşı proqnozlar verməyə imkan verən daha mürəkkəb verilənlər bazası.

    Şərh etmək üçün suallar

    • Əgər AI sektorunda işləyirsinizsə, daha yaxşı ML modellərinin hazırlanmasında hansı irəliləyişlər var?
    • Öyrənmək üçün geniş təlim məlumatlarına malik modellərin digər potensial faydaları hansılardır?

    Anlayış istinadları

    Bu fikir üçün aşağıdakı məşhur və institusional bağlantılara istinad edilmişdir:

    Təhlükəsizlik və İnkişaf etməkdə olan Texnologiyalar Mərkəzi AI və Compute 202 2 DEKABR Hesablamalar Süni İntellektə nə qədər güc verə bilər