Napredak u superkompjuteru: korištenje neuromorfnih optičkih mreža

Napredak u superkompjuteru: korištenje neuromorfnih optičkih mreža
KREDIT ZA SLIKU:  

Napredak u superkompjuteru: korištenje neuromorfnih optičkih mreža

    • Autor ime
      Jasmin Saini plan
    • Autor Twitter Handle
      @Quantumrun

    Cijela priča (koristite SAMO dugme 'Zalijepi iz Word' za sigurno kopiranje i lijepljenje teksta iz Word dokumenta)

    U posljednjih nekoliko decenija, nekada dobro poznat i tačan trend, Moorov zakon, koji je predvidio Gordon Moore iz IBM-a 1965. godine, sada polako postaje zastarjela mjera performansi računara. Mooreov zakon predviđa da će se otprilike svake dvije godine broj tranzistora u integriranom kolu udvostručiti, da će biti više tranzistora u istoj količini prostora, što će dovesti do povećanja računanja, a time i performansi računara. U aprilu 2005., u jednom intervjuu, sam Gordon Moore je izjavio da njegova projekcija vjerovatno više neće biti održiva: „U smislu veličine [tranzistora] možete vidjeti da se približavamo veličini atoma koja je fundamentalna barijera, ali proći će dvije ili tri generacije prije nego što stignemo tako daleko - ali to je onoliko daleko koliko smo ikada mogli vidjeti. Imamo još 10 do 20 godina pre nego što dostignemo fundamentalnu granicu.”   

    Iako je Mooreov zakon osuđen na ćorsokak, drugi pokazatelji računarstva bilježe porast primjenjivosti. Uz tehnologiju koju koristimo u svakodnevnom životu, svi možemo vidjeti trendove sve manje i manje računala, ali i da baterije uređaja traju sve duže i duže. Potonji trend sa baterijama naziva se Koomeyev zakon, nazvan po profesoru Univerziteta Stanford Jonathanu Koomeyu. Koomeyjev zakon predviđa da će "… pri fiksnom opterećenju računara, količina baterije koja vam je potrebna će pasti za faktor dva svake godine i po." Stoga se elektronska potrošnja energije ili energetska efikasnost računara udvostručuje svakih 18 mjeseci. Dakle, ono na šta svi ovi trendovi i promjene ukazuju i otkrivaju budućnost računarstva.

    Budućnost računarstva

    Došli smo u vrijeme u istoriji kada moramo redefinirati računarstvo jer trendovi i zakoni predviđeni prije nekoliko decenija više nisu primjenjivi. Takođe, kako se računarstvo gura prema nano i kvantnoj skali, postoje očigledna fizička ograničenja i izazovi koje treba prevazići. Možda najistaknutiji pokušaj superračunarstva, kvantno računanje, ima očigledan izazov istinskog iskorištavanja kvantne isprepletenosti za paralelno računanje, odnosno izvođenje računanja prije kvantne dekoherencije. Međutim, uprkos izazovima kvantnog računarstva, u proteklih nekoliko decenija postignut je veliki napredak. Mogu se pronaći modeli tradicionalne arhitekture Džona fon Nojmana primenjene na kvantno računarstvo. Ali postoji još jedno ne tako dobro poznato područje (super)računarstva, nazvano neuromorfno računarstvo koje ne prati tradicionalnu von Neumannovu arhitekturu. 

    Neuromorfno računarstvo je zamislio profesor Caltecha Carver Mead u svom ključnom radu 1990. U osnovi, principi neuromorfnog računarstva su zasnovani na teoretiziranim biološkim principima djelovanja, poput onih za koje se smatra da ih ljudski mozak koristi u računanju. Sažeta razlika između neuromorfne teorije računarstva i klasične von Neumannove teorije računarstva sažeta je u članku Don Monroea u Udruženje za računarske mašine journal. Izjava glasi ovako: „U tradicionalnoj von Neumannovoj arhitekturi, moćno logičko jezgro (ili nekoliko paralelno) radi sekvencijalno na podacima preuzetim iz memorije. Nasuprot tome, 'neuromorfno' računarstvo distribuira i računanje i pamćenje između ogromnog broja relativno primitivnih 'neurona', od kojih svaki komunicira sa stotinama ili hiljadama drugih neurona putem 'sinapsa'.”  

    Ostale ključne karakteristike neuromorfnog računarstva uključuju netoleranciju na greške, koja ima za cilj da modelira sposobnost ljudskog mozga da izgubi neurone i da i dalje može funkcionirati. Analogno tome, u tradicionalnom računarstvu gubitak jednog tranzistora utiče na pravilno funkcionisanje. Još jedna zamišljena i ciljana prednost neuromorfnog računarstva je da nema potrebe za programiranjem; ovaj posljednji cilj je opet modeliranje sposobnosti ljudskog mozga da uči, reagira i prilagođava se signalima. Stoga je neuromorfno računarstvo trenutno najbolji kandidat za mašinsko učenje i zadatke umjetne inteligencije. 

    Napredak neuromorfnog superkompjutera

    Ostatak ovog članka će se baviti napretkom neuromorfnog superračunala. Konkretno, nedavno objavljeno istraživanje o Arxiv od Alexander Tait et. al. sa Univerziteta Princeton pokazuje da model fotonske neuronske mreže baziran na silikonu nadmašuje konvencionalni računarski pristup za skoro 2000 puta. Ova neuromorfna fotonska platforma računarstva mogla bi dovesti do ultrabrze obrade informacija. 

    The Tait et. al. rad pod naslovom Neuromorfna silicijumska fotonika počinje opisom prednosti i mana korištenja fotonskog svjetlosnog oblika elektromagnetnog zračenja za računarstvo. Početne glavne tačke rada su da se svjetlost naširoko koristi za prijenos informacija, ali ne i za transformaciju informacija, odnosno digitalno optičko računanje. Slično, kvantnom računarstvu, postoje fundamentalni fizički izazovi za digitalno optičko računarstvo. Rad zatim ulazi u detalje ranije predložene neuromorfne fotonske računarske platforme Tait et. al. tim objavljen 2014. godine pod naslovom Emitovanje i težina: Integrisana mreža za skalabilnu obradu fotonskih šiljaka. Njihov noviji rad opisuje rezultate prve eksperimentalne demonstracije integrisane fotonske neuronske mreže. 

    U računarskoj arhitekturi „emitovanja i težine“, „čvorovima“ se dodeljuje jedinstveni „nosač talasne dužine“ koji se „multipleksira sa podelom talasa (WDM)“, a zatim se emituje drugim „čvorovima“. „Čvorovi“ u ovoj arhitekturi imaju za cilj da simuliraju ponašanje neurona u ljudskom mozgu. Zatim se “WDM” signali obrađuju preko filtera kontinuirane vrijednosti koji se nazivaju “mikroring (MRR) banke težine” i zatim se električnim sumiranjem u izmjerenu vrijednost detekcije ukupne snage. Nelinearnost ove posljednje elektrooptičke transformacije/računanja je upravo nelinearnost potrebna da bi se oponašala funkcionalnost neurona, suštinska za računanje prema neuromorfnim principima. 

    U radu se raspravlja o tome da je ova eksperimentalno verifikovana dinamika elektro-optičke transformacije matematički identična modelu “2-čvorne kontinuirano-vremenske rekurentne neuronske mreže” (CTRNN). Ovi pionirski rezultati sugeriraju da bi se programski alati koji su korišteni za CTRNN modele mogli primijeniti na neuromorfne platforme bazirane na silicijumu. Ovo otkriće otvara put prilagođavanju CTRNN metodologije neuromorfnoj silicijumskoj fotonici. U svom radu oni rade upravo takvu adaptaciju modela na svoju arhitekturu „emitovanja i težine“. Rezultati pokazuju da CTRNN model simuliran na njihovoj arhitekturi od 49 čvorova daje neuromorfnoj računarskoj arhitekturi koja nadmašuje klasične računarske modele za 3 reda veličine.   

    Oznake
    kategorija
    Oznake
    Polje teme