Szuperszámítástechnikai fejlesztések: neuromorf optikai hálózatok használata

Szuperszámítástechnikai fejlesztések: neuromorf optikai hálózatok használata
KÉP HITEL:  

Szuperszámítástechnikai fejlesztések: neuromorf optikai hálózatok használata

    • Szerző neve
      Jasmin Saini terv
    • Szerző Twitter Handle
      @Quantumrun

    Teljes történet (CSAK a "Beillesztés Wordből" gombot használja a szöveg biztonságos másolásához és beillesztéséhez Word-dokumentumból)

    Az elmúlt néhány évtizedben az egykor jól ismert és pontos trend, a Moore-törvény, amelyet Gordon Moore, az IBM-től 1965-ben jósolt meg, mára lassan a számítási teljesítmény mércéjévé válik. Moore törvénye azt jósolta, hogy körülbelül kétévente megduplázódik a tranzisztorok száma egy integrált áramkörben, és több tranzisztor lesz ugyanannyi helyen, ami megnövekszik a számítási munkához és így a számítógép teljesítményéhez. 2005 áprilisában egy interjúban maga Gordon Moore kijelentette, hogy a vetülete valószínűleg már nem lesz fenntartható: „A [tranzisztorok] méretét tekintve látható, hogy közeledünk az atomok méretéhez, ami alapvető akadály, de két-három generációnak kell eltelnie, mire eljutunk idáig – de ez olyan messze van, amennyit valaha is láthattunk. Még 10-20 évünk van, mire elérjük az alapvető határt.”   

    Bár Moore törvénye zsákutcába van ítélve, a számítástechnika egyéb mutatói egyre jobban alkalmazhatók. A mindennapi életünkben használt technológiának köszönhetően mindannyian láthatjuk, hogy a számítógépek egyre kisebbek és egyre kisebbek, de azt is, hogy a készülékek akkumulátora egyre tovább tart. Ez utóbbi elemekkel kapcsolatos irányzatot Koomey törvényének nevezik, Jonathan Koomey Stanford Egyetem professzoráról nevezték el. Koomey törvénye azt jósolja, hogy "… rögzített számítási terhelés mellett a szükséges akkumulátor mennyisége másfél évente kétszeresére csökken." Ezért a számítógépek elektronikus energiafogyasztása vagy energiahatékonysága körülbelül 18 havonta megduplázódik. Tehát, amit ezek a trendek és változások mutatnak és elárulnak, az a számítástechnika jövője.

    A számítástechnika jövője

    Elérkeztünk a történelem olyan időszakához, amikor újra kell definiálnunk a számítástechnikát, mivel a több évtizeddel ezelőtt megjósolt trendek és törvények már nem érvényesek. Ezenkívül, ahogy a számítástechnika a nano- és kvantumlépték felé tolódik, nyilvánvaló fizikai korlátok és kihívások várnak rájuk. A szuperszámítási kísérlet talán legfigyelemreméltóbb kísérlete, a kvantumszámítás, az a nyilvánvaló kihívás, hogy valóban kihasználja a kvantumösszefonódást a párhuzamos számításokhoz, vagyis a kvantumdekoherencia előtti számításokat. A kvantumszámítás kihívásai ellenére azonban az elmúlt néhány évtizedben jelentős előrelépés történt. Megtalálhatók a hagyományos Neumann János számítógépes architektúra kvantumszámításra alkalmazott modelljei. De van a (szuper)számítástechnikának egy másik, nem túl jól ismert területe, az úgynevezett neuromorf számítástechnika, amely nem követi a hagyományos Neumann-architektúrát. 

    A neuromorf számítástechnikát a Caltech professzora, Carver Mead képzelte el 1990-ben írt tanulmányában. A neuromorf számítástechnika alapelvei alapvetően elméleti biológiai cselekvési elveken alapulnak, mint amilyeneket az emberi agy a számítások során felhasznál. A neuromorf számítástechnika elmélete és a klasszikus von Neumann számítástechnikai elmélet közötti szűkszavú különbségtétel Don Monroe cikkében foglalta össze. Számítástechnikai Gépek Szövetsége folyóirat. A kijelentés így hangzik: „A hagyományos Neumann-architektúrában egy erőteljes logikai mag (vagy több párhuzamosan) szekvenciálisan működik a memóriából lehívott adatokon. Ezzel szemben a „neuromorf” számítástechnika mind a számítást, mind a memóriát hatalmas számú viszonylag primitív „neuron” között osztja el, amelyek mindegyike „szinapszisok” révén kommunikál több száz vagy több ezer más neuronnal.  

    A neuromorf számítástechnika további kulcsfontosságú jellemzői közé tartozik a hiba intolerancia, amelynek célja, hogy modellezze az emberi agy azon képességét, hogy elveszítse a neuronokat, és továbbra is képes működni. Hasonlóképpen, a hagyományos számítástechnikában egy tranzisztor elvesztése befolyásolja a megfelelő működést. A neuromorf számítástechnika másik elképzelt és célzott előnye, hogy nincs szükség programozásra; ez utóbbi cél ismét az emberi agy képességének modellezése a jelekhez való tanulásra, reagálásra és a jelekhez való alkalmazkodásra. Így jelenleg a neuromorf számítástechnika a legjobb jelölt gépi tanulási és mesterséges intelligencia feladatokra. 

    A neuromorf szuperszámítástechnika fejlődése

    A cikk további része a neuromorf szuperszámítástechnika fejlődésével foglalkozik. Pontosabban, a közelmúltban publikált kutatások az Arxivról Alexander Tait et. al. A Princeton Egyetemen végzett kutatás azt mutatja, hogy a szilícium alapú fotonikus neurális hálózat modellje közel 2000-szeresen felülmúlja a hagyományos számítástechnikai megközelítést. A számítástechnikának ez a neuromorf fotonikus platformja ultragyors információfeldolgozáshoz vezethet. 

    A Tait et. al. című dolgozatot Neuromorf szilícium fotonika azzal kezdi, hogy leírja az elektromágneses sugárzás fotonikus fényformájának számítástechnikai alkalmazásának előnyeit és hátrányait. A cikk kezdeti főbb pontjai az, hogy a fényt széles körben használják információátvitelre, de nem információátalakításra, azaz digitális optikai számítástechnikára. A kvantumszámításhoz hasonlóan alapvető fizikai kihívások állnak a digitális optikai számítástechnika előtt is. A cikk ezután egy korábban javasolt neuromorf fotonikus számítási platform, a Tait et. al. című csapata 2014-ben jelent meg Adás és súly: Integrált hálózat a méretezhető fotonikus tüskék feldolgozásához. Újabb cikkük egy integrált fotonikus neurális hálózat első kísérleti demonstrációjának eredményeit írja le. 

    A „sugárzott és tömeg” számítási architektúrában a „csomópontokhoz” egyedi „hullámhossz-vivő” van hozzárendelve, amely „hullámhosszosztásos multiplexelés (WDM)”, majd továbbítva más „csomópontokhoz”. Ebben az architektúrában a „csomópontok” célja, hogy szimulálják a neuronok viselkedését az emberi agyban. Ezután a „WDM” jeleket folyamatos értékű szűrők, úgynevezett „mikroring (MRR) súlybankok” dolgozzák fel, majd elektromosan összegzik a mért teljes teljesítményérzékelési értékké. Ennek az utolsó elektro-optikai transzformációnak/számításnak a nemlinearitása pontosan az a nemlinearitás, amely az idegsejtek működésének utánzásához szükséges, ami elengedhetetlen a neuromorf alapelvek szerinti számításokhoz. 

    A cikkben azt tárgyalják, hogy ezek a kísérletileg igazolt elektro-optikai transzformációs dinamikák matematikailag megegyeznek a „2 csomópontos folyamatos idejű visszatérő neurális hálózat” (CTRNN) modelljével. Ezek az úttörő eredmények arra utalnak, hogy a CTRNN modellekhez használt programozási eszközök szilícium alapú neuromorf platformokon is alkalmazhatók. Ez a felfedezés megnyitja az utat a CTRNN módszernek a neuromorf szilícium fotonikához való adaptálásához. Lapjukban éppen egy ilyen modelladaptációt hajtanak végre a „közvetítés és súly” architektúrájára. Az eredmények azt mutatják, hogy a 49 csomópontos architektúrájukra szimulált CTRNN modell olyan neuromorf számítási architektúrát eredményez, amely 3 nagyságrenddel felülmúlja a klasszikus számítási modelleket.   

    Címkék
    Kategória
    Címkék
    Téma mező