Progrese în supercalculatură: utilizarea rețelelor optice neuromorfe

Progrese în supercalculatură: utilizarea rețelelor optice neuromorfe
CREDIT DE IMAGINE:  

Progrese în supercalculatură: utilizarea rețelelor optice neuromorfe

    • Autor Denumirea
      Planul Jasmin Saini
    • Autorul Twitter Handle
      @Quantumrun

    Povestea completă (folosiți NUMAI butonul „Lipiți din Word” pentru a copia și a lipi în siguranță text dintr-un document Word)

    În ultimele câteva decenii, tendința cândva bine-cunoscută și precisă, Legea lui Moore, prezisă de Gordon Moore de la IBM în 1965, devine acum o măsură defunctă a performanței de calcul. Legea lui Moore a prezis că aproximativ la fiecare doi ani numărul de tranzistori dintr-un circuit integrat se va dubla, că ar exista mai mulți tranzistori în aceeași cantitate de spațiu, ceea ce duce la creșterea calculelor și, prin urmare, a performanței computerului. În aprilie 2005, într-un interviu, Gordon Moore însuși a declarat că proiecția sa nu va mai fi sustenabilă: „În ceea ce privește dimensiunea [a tranzistorilor], puteți vedea că ne apropiem de dimensiunea atomilor, care este o barieră fundamentală, dar este vor trece două sau trei generații până să ajungem atât de departe, dar asta este atât de departe pe cât am putut să vedem vreodată. Mai avem încă 10 până la 20 de ani până să ajungem la o limită fundamentală.”   

    Deși legea lui Moore este sortită să atingă un punct mort, alți indicatori ai calculului înregistrează o creștere a aplicabilității. Cu tehnologia pe care o folosim în viața noastră de zi cu zi, cu toții putem vedea tendințele computerelor din ce în ce mai mici, dar și că bateriile dispozitivelor durează din ce în ce mai mult. Ultima tendință cu bateriile este denumită Legea lui Koomey, numită după profesorul de la Universitatea Stanford, Jonathan Koomey. Legea lui Koomey prezice că „... la o sarcină fixă ​​de calcul, cantitatea de baterie de care aveți nevoie va scădea cu un factor de doi în fiecare an și jumătate”. Prin urmare, consumul de energie electronică sau eficiența energetică a computerelor se dublează aproximativ la fiecare 18 luni. Deci, spre ce indică și dezvăluie toate aceste tendințe și schimbări este viitorul computerului.

    Viitorul computerului

    Am ajuns într-un moment al istoriei în care trebuie să redefinim computerul, deoarece tendințele și legile prezise cu câteva decenii în urmă nu mai sunt aplicabile. De asemenea, pe măsură ce calculul împinge spre scara nano și cuantică, există limitări fizice evidente și provocări de depășit. Poate cea mai notabilă încercare de supercalculatură, calculul cuantic, are provocarea evidentă de a valorifica cu adevărat întanglementul cuantic pentru calculul paralel, adică efectuarea de calcule înainte de decoerența cuantică. Cu toate acestea, în ciuda provocărilor computerului cuantic, s-au înregistrat multe progrese în ultimele decenii. Se pot găsi modele ale arhitecturii computerizate tradiționale John von Neumann aplicate calculului cuantic. Dar există un alt domeniu nu atât de cunoscut al (super)calculaturii, numit calcul neuromorfic, care nu urmează arhitectura tradițională von Neumann. 

    Calcularea neuromorfă a fost imaginată de profesorul de la Caltech, Carver Mead, în lucrarea sa fundamentală din 1990. În principiu, principiile calculului neuromorf se bazează pe principii biologice teoretizate de acțiune, precum cele considerate a fi utilizate de creierul uman în calcul. O distincție succintă între teoria informatică neuromorfă versus teoria clasică a calculului von Neumann a fost rezumată într-un articol al lui Don Monroe în Asociația pentru mașini de calcul jurnal. Afirmația sună astfel: „În arhitectura tradițională von Neumann, un nucleu logic puternic (sau mai multe în paralel) operează secvenţial pe datele preluate din memorie. În schimb, calculul „neuromorf” distribuie atât calculul, cât și memoria într-un număr enorm de „neuroni” relativ primitivi, fiecare comunicând cu sute sau mii de alți neuroni prin „sinapse”.  

    Alte caracteristici cheie ale computerului neuromorfic includ intoleranța la greșeală, care își propune să modeleze capacitatea creierului uman de a pierde neuroni și de a putea funcționa în continuare. În mod analog, în calculul tradițional, pierderea unui tranzistor afectează funcționarea corectă. Un alt avantaj preconizat și vizat al calculului neuromorf este că nu este nevoie să fie programat; acest ultim scop este modelarea capacității creierului uman de a învăța, de a răspunde și de a se adapta la semnale. Astfel, calculul neuromorf este în prezent cel mai bun candidat pentru sarcinile de învățare automată și inteligență artificială. 

    Progrese ale supercalculaturii neuromorfe

    Restul acestui articol va analiza progresele supercalculaturii neuromorfe. Mai exact, cercetările publicate recent despre Arxiv de la Alexander Tait et. al. de la Universitatea Princeton arată că un model de rețea neuronală fotonică pe bază de siliciu depășește de aproape 2000 de ori o abordare de calcul convențională. Această platformă fotonică neuromorfă de calcul ar putea duce la procesarea ultrarapidă a informațiilor. 

    Tait et. al. lucrare intitulată Fotonica siliciului neuromorfic începe prin a descrie avantajele și dezavantajele utilizării formei de lumină fotonică a radiației electromagnetice pentru calcul. Principalele puncte inițiale ale lucrării sunt că lumina a fost utilizată pe scară largă pentru transmiterea informațiilor, dar nu pentru transformarea informațiilor, adică calculul optic digital. În mod similar, pentru calculul cuantic, există provocări fizice fundamentale pentru calculul optic digital. Lucrarea intră apoi în detaliile unei platforme de calcul fotonice neuromorfe propuse anterior, Tait et. al. echipa publicată în 2014, intitulată Difuzare și greutate: O rețea integrată pentru procesarea scalabilă a vârfurilor fotonice. Lucrarea lor mai nouă descrie rezultatele primei demonstrații experimentale a unei rețele neuronale fotonice integrate. 

    În arhitectura de calcul „difuzare și greutate”, „nodurilor” li se atribuie un „purtător de lungime de undă” unic care este „multiplexat prin diviziune în lungime de undă (WDM)” și apoi difuzat către alte „noduri”. „Nodurile” din această arhitectură sunt menite să simuleze comportamentul neuronilor în creierul uman. Apoi semnalele „WDM” sunt procesate prin filtre cu valori continue numite „microring (MRR) weight banks” și apoi însumate electric într-o valoare măsurată a puterii totale de detectare. Neliniaritatea acestei ultime transformări/calculare electro-optice este tocmai neliniaritatea necesară pentru a imita funcționalitatea neuronilor, esențială pentru calculul conform principiilor neuromorfe. 

    În lucrare, ei discută că aceste dinamice de transformare electro-optică verificate experimental sunt identice din punct de vedere matematic cu un model de „rețea neuronală recurentă în timp continuu cu 2 noduri” (CTRNN). Aceste rezultate de pionierat sugerează că instrumentele de programare care au fost utilizate pentru modelele CTRNN ar putea fi aplicate platformelor neuromorfe pe bază de siliciu. Această descoperire deschide calea către adaptarea metodologiei CTRNN la fotonica cu siliciu neuromorf. În lucrarea lor, ei fac o astfel de adaptare a modelului asupra arhitecturii lor de „difuzare și greutate”. Rezultatele arată că modelul CTRNN simulat pe arhitectura lor cu 49 de noduri oferă arhitectura de calcul neuromorfă pentru a depăși modelele de calcul clasice cu 3 ordine de mărime.   

    Tag-uri
    Categorii
    Câmp tematic