Pokroky v superpočítači: pomocou neuromorfných optických sietí

Pokroky v superpočítači: pomocou neuromorfných optických sietí
OBRÁZOK PRE OBRÁZOK:  

Pokroky v superpočítači: pomocou neuromorfných optických sietí

    • Meno autora
      Plán Jasmin Saini
    • Autor Twitter Handle
      @Quantumrun

    Celý príbeh (na bezpečné kopírovanie a prilepenie textu z dokumentu Word použite LEN tlačidlo „Prilepiť z Wordu“)

    V posledných desaťročiach sa kedysi dobre známy a presný trend, Moorov zákon, ktorý predpovedal Gordon Moore z IBM v roku 1965, pomaly stáva nefunkčným meradlom výpočtového výkonu. Moorov zákon predpovedal, že približne každé dva roky sa počet tranzistorov v integrovanom obvode zdvojnásobí, že na rovnakom priestore bude viac tranzistorov, čo povedie k zvýšeniu výpočtov a tým aj výkonu počítača. V apríli 2005 v rozhovore sám Gordon Moore uviedol, že jeho projekcia už pravdepodobne nebude udržateľná: „Pokiaľ ide o veľkosť [tranzistorov], môžete vidieť, že sa blížime k veľkosti atómov, čo je základná bariéra, ale budú to dve alebo tri generácie, kým sa dostaneme tak ďaleko – ale to je tak ďaleko, ako sme kedy mohli vidieť. Máme ešte 10 až 20 rokov, kým dosiahneme základnú hranicu.“   

    Hoci je Moorov zákon odsúdený na slepú uličku, ďalšie ukazovatele výpočtovej techniky zaznamenávajú nárast použiteľnosti. Vďaka technológiám, ktoré používame v každodennom živote, všetci vidíme, ako sa počítače zmenšujú a zmenšujú, ale aj to, že batérie zariadení vydržia stále dlhšie. Posledný trend s batériami sa nazýva Koomeyho zákon, pomenovaný podľa profesora Stanfordskej univerzity Jonathana Koomeyho. Koomeyho zákon predpovedá, že "... pri pevnom výpočtovom zaťažení sa množstvo batérie, ktorú potrebujete, zníži o faktor dva každý rok a pol." Preto sa spotreba elektronickej energie alebo energetická účinnosť počítačov zdvojnásobuje približne každých 18 mesiacov. Takže to, čo všetky tieto trendy a zmeny ukazujú a odhaľujú, je budúcnosť výpočtovej techniky.

    Budúcnosť výpočtovej techniky

    Prišli sme do obdobia v histórii, keď musíme predefinovať výpočtovú techniku, pretože trendy a zákony predpovedané pred niekoľkými desaťročiami už nie sú použiteľné. Keďže výpočtová technika smeruje k nano a kvantovej škále, existujú zjavné fyzické obmedzenia a výzvy, ktoré treba prekonať. Snáď najpozoruhodnejší pokus o superpočítanie, kvantové výpočty, má zjavnú výzvu skutočne využiť kvantové zapletenie na paralelné výpočty, to znamená vykonať výpočty pred kvantovou dekoherenciou. Avšak napriek výzvam kvantovej výpočtovej techniky došlo za posledných niekoľko desaťročí k veľkému pokroku. Možno nájsť modely tradičnej počítačovej architektúry John von Neumann aplikovanej na kvantové výpočty. Existuje však ďalšia, nie príliš známa oblasť (super)počítačov, nazývaná neuromorfné výpočty, ktorá sa neriadi tradičnou von Neumannovou architektúrou. 

    Neuromorfné výpočty boli predstavené profesorom Caltechu Carverom Meadom vo svojej hlavnej práci v roku 1990. Princípy neuromorfných počítačov sú v zásade založené na teoretických biologických princípoch činnosti, ako sú tie, o ktorých sa predpokladá, že ich využíva ľudský mozog pri výpočtoch. Stručný rozdiel medzi teóriou neuromorfných výpočtov a klasickou von Neumannovou výpočtovou teóriou bol zhrnutý v článku Dona Monroea v Združenie pre počítačové stroje denník. Vyhlásenie znie takto: „V tradičnej von Neumannovej architektúre výkonné logické jadro (alebo niekoľko paralelne) pracuje sekvenčne na údajoch načítaných z pamäte. Na rozdiel od toho „neuromorfné“ výpočty distribuujú výpočty aj pamäť medzi obrovské množstvo relatívne primitívnych „neurónov“, z ktorých každý komunikuje so stovkami alebo tisíckami iných neurónov prostredníctvom „synapsií“.  

    Medzi ďalšie kľúčové vlastnosti neuromorfných počítačov patrí intolerancia chýb, ktorej cieľom je modelovať schopnosť ľudského mozgu strácať neuróny a stále byť schopný fungovať. Analogicky pri tradičnom výpočte strata jedného tranzistora ovplyvňuje správnu funkciu. Ďalšou predpokladanou a cielenou výhodou neuromorfných výpočtov je, že nie je potrebné programovať; posledným cieľom je opäť modelovanie schopnosti ľudského mozgu učiť sa, reagovať a prispôsobovať sa signálom. Neuromorfné výpočty sú teda v súčasnosti najlepším kandidátom na úlohy strojového učenia a umelej inteligencie. 

    Pokroky v neuromorfných superpočítačoch

    Zvyšok tohto článku sa bude venovať pokrokom v neuromorfných superpočítačoch. Konkrétne nedávno publikovaný výskum o Arxive od Alexandra Taita et. al. z Princetonskej univerzity ukazuje, že model fotonickej neurónovej siete na báze kremíka prekonáva konvenčný výpočtový prístup takmer 2000-krát. Táto neuromorfná fotonická platforma výpočtovej techniky by mohla viesť k ultrarýchlemu spracovaniu informácií. 

    Tait et. al. papier s názvom Neuromorfná kremíková fotonika začína opisom výhod a nevýhod použitia fotonického svetla vo forme elektromagnetického žiarenia na výpočty. Úvodné hlavné body článku sú, že svetlo sa široko používa na prenos informácií, ale nie na transformáciu informácií, tj digitálne optické výpočty. Podobne ako pri kvantových výpočtoch existujú základné fyzikálne výzvy pre digitálne optické výpočty. Článok potom ide do podrobností o skôr navrhovanej neuromorfnej fotonickej výpočtovej platforme Tait et. al. tím vydaný v roku 2014 s názvom Vysielanie a váha: Integrovaná sieť pre škálovateľné spracovanie fotonických špičiek. Ich novší článok popisuje výsledky prvej experimentálnej demonštrácie integrovanej fotonickej neurónovej siete. 

    Vo výpočtovej architektúre „vysielanie a váha“ je „uzlom“ priradený jedinečný „nosič vlnovej dĺžky“, ktorý je „multiplexovaný vlnovou dĺžkou (WDM)“ a potom sa vysiela do iných „uzlov“. „Uzly“ v tejto architektúre majú simulovať správanie neurónov v ľudskom mozgu. Potom sa signály „WDM“ spracujú cez filtre s kontinuálnou hodnotou nazývané „mikroringové (MRR) váhové banky“ a potom sa elektricky spočítajú do nameranej hodnoty detekcie celkového výkonu. Nelinearita tejto poslednej elektrooptickej transformácie/výpočtu je presne tá nelinearita potrebná na napodobnenie funkčnosti neurónov, ktorá je nevyhnutná pre výpočty na neuromorfných princípoch. 

    V článku diskutujú o tom, že táto experimentálne overená dynamika elektrooptickej transformácie je matematicky identická s modelom „2-uzlového kontinuálneho rekurentného neurónového siete“ (CTRNN). Tieto priekopnícke výsledky naznačujú, že programovacie nástroje, ktoré boli použité pre modely CTRNN, by sa mohli použiť na neuromorfné platformy na báze kremíka. Tento objav otvára cestu k prispôsobeniu metodológie CTRNN neuromorfnej kremíkovej fotonike. Vo svojom príspevku robia práve takéto prispôsobenie modelu svojej architektúre „vysielania a váhy“. Výsledky ukazujú, že model CTRNN simulovaný na ich 49-uzlovej architektúre poskytuje neuromorfnú výpočtovú architektúru, ktorá prekoná klasické výpočtové modely o 3 rády.