Pokroky v superpočítači: použití neuromorfních optických sítí

Pokroky v superpočítači: použití neuromorfních optických sítí
KREDIT OBRAZU:  

Pokroky v superpočítači: použití neuromorfních optických sítí

    • Jméno autora
      Plán Jasmin Saini
    • Autor Twitter Handle
      @Quantumrun

    Celý příběh (K bezpečnému zkopírování a vložení textu z dokumentu Word použijte POUZE tlačítko 'Vložit z Wordu')

    V posledních několika desetiletích se kdysi dobře známý a přesný trend, Moorův zákon, který předpověděl Gordon Moore z IBM v roce 1965, nyní pomalu stává zaniklým měřítkem výpočetního výkonu. Mooreův zákon předpovídal, že přibližně každé dva roky se počet tranzistorů v integrovaném obvodu zdvojnásobí, že na stejném prostoru bude více tranzistorů, což povede ke zvýšení výpočtů a tím i výkonu počítače. V dubnu 2005 v rozhovoru sám Gordon Moore uvedl, že jeho projekce již pravděpodobně nebude udržitelná: „Pokud jde o velikost [tranzistorů], můžete vidět, že se blížíme velikosti atomů, což je základní bariéra, ale budou to dvě nebo tři generace, než se dostaneme tak daleko – ale to je tak daleko, jak jsme kdy mohli vidět. Máme dalších 10 až 20 let, než dosáhneme základní hranice.“   

    Ačkoli je Moorův zákon odsouzen k nějaké slepé uličce, další ukazatele výpočetní techniky zaznamenávají nárůst použitelnosti. Díky technologii, kterou používáme v každodenním životě, všichni vidíme, že se stále zmenšují a zmenšují počítače, ale také, že baterie zařízení vydrží déle a déle. Poslední trend s bateriemi se nazývá Koomeyho zákon, pojmenovaný po profesorovi Stanfordské univerzity Jonathanu Koomeymu. Koomeyho zákon předpovídá, že "... při pevném výpočetním zatížení se množství baterie, kterou potřebujete, sníží o faktor dva každý rok a půl." Spotřeba elektroniky nebo energetická účinnost počítačů se proto každých 18 měsíců zdvojnásobuje. Takže to, k čemu všechny tyto trendy a změny směřují a co odhalují, je budoucnost výpočetní techniky.

    Budoucnost výpočetní techniky

    Přišli jsme do doby v historii, kdy musíme předefinovat výpočetní techniku, protože trendy a zákony předpovídané před několika desítkami let již neplatí. Vzhledem k tomu, že výpočetní technika směřuje k nano a kvantovým měřítkům, existují zjevná fyzická omezení a výzvy, které je třeba překonat. Snad nejpozoruhodnější pokus o superpočítač, kvantové počítání, má zřejmou výzvu skutečně využít kvantové zapletení pro paralelní výpočty, tedy provádět výpočty před kvantovou dekoherencí. Navzdory výzvám kvantových počítačů však v posledních několika desetiletích došlo k velkému pokroku. Lze najít modely tradiční počítačové architektury John von Neumann aplikované na kvantové výpočty. Existuje však další nepříliš známá oblast (super)počítačů, nazývaná neuromorfní výpočty, která se neřídí tradiční von Neumannovou architekturou. 

    Neuromorfní výpočetní technika byla představena profesorem Caltechu Carverem Meadem ve své základní práci v roce 1990. Principy neuromorfních počítačů jsou v zásadě založeny na teoretických biologických principech činnosti, jako jsou ty, o kterých se předpokládá, že je využívá lidský mozek při počítání. Stručný rozdíl mezi neuromorfní výpočetní teorií a klasickou von Neumannovou výpočetní teorií byl shrnut v článku Dona Monroea v Asociace pro výpočetní stroje časopis. Prohlášení zní takto: „V tradiční von Neumannově architektuře funguje výkonné logické jádro (nebo několik paralelně) sekvenčně na datech načítaných z paměti. Naproti tomu „neuromorfní“ výpočty distribuují jak výpočty, tak paměť mezi obrovský počet relativně primitivních „neuronů“, z nichž každý komunikuje se stovkami nebo tisíci dalších neuronů prostřednictvím „synapsí“.  

    Mezi další klíčové rysy neuromorfních výpočtů patří intolerance chyb, jejímž cílem je modelovat schopnost lidského mozku ztrácet neurony a přesto být schopen fungovat. Analogicky v tradičním počítání ovlivňuje ztráta jednoho tranzistoru správnou funkci. Další předpokládanou a zamýšlenou výhodou neuromorfních výpočtů je, že není třeba je programovat; tímto posledním cílem je opět modelování schopnosti lidského mozku učit se, reagovat a přizpůsobovat se signálům. Neuromorfní výpočty jsou tedy v současnosti nejlepším kandidátem pro úlohy strojového učení a umělé inteligence. 

    Pokroky neuromorfních superpočítačů

    Zbytek tohoto článku se bude zabývat pokroky neuromorfních superpočítačů. Konkrétně nedávno publikovaný výzkum Arxiv od Alexandra Taita et. al. z Princetonské univerzity ukazuje, že model fotonické neuronové sítě na bázi křemíku překonává konvenční výpočetní přístup téměř 2000krát. Tato neuromorfní fotonická platforma výpočetní techniky by mohla vést k ultrarychlému zpracování informací. 

    Tait et. al. papír s názvem Neuromorfní křemíková fotonika začíná popisem výhod a nevýhod použití formy fotonického světla elektromagnetického záření pro výpočetní techniku. Úvodní hlavní body článku jsou, že světlo bylo široce používáno pro přenos informací, nikoli však pro transformaci informací, tj. digitální optické výpočty. Podobně jako u kvantových počítačů existují základní fyzické výzvy pro digitální optické výpočty. Článek pak jde do detailů dříve navržené neuromorfní fotonické výpočetní platformy Tait et. al. tým vydaný v roce 2014 s názvem Vysílání a váha: Integrovaná síť pro škálovatelné zpracování fotonických špiček. Jejich novější článek popisuje výsledky první experimentální demonstrace integrované fotonické neuronové sítě. 

    Ve výpočetní architektuře „vysílání a váha“ je „uzlům“ přiřazen jedinečný „nosič vlnové délky“, který je „multiplexovaný vlnovou délkou (WDM)“ a poté je vysílán do dalších „uzlů“. „Uzly“ v této architektuře mají simulovat chování neuronů v lidském mozku. Poté jsou signály „WDM“ zpracovány pomocí filtrů s kontinuální hodnotou, které se nazývají „mikroringové (MRR) váhové banky“ a poté se elektricky sečtou do naměřené hodnoty detekce celkového výkonu. Nelinearita této poslední elektrooptické transformace/výpočtu je přesně ta nelinearita potřebná k napodobení neuronové funkčnosti, která je nezbytná pro výpočty na neuromorfních principech. 

    V příspěvku diskutují, že tyto experimentálně ověřené elektrooptické transformační dynamiky jsou matematicky totožné s modelem „2-uzlové kontinuálně rekurentní neuronové sítě“ (CTRNN). Tyto průkopnické výsledky naznačují, že programovací nástroje, které byly použity pro modely CTRNN, by mohly být aplikovány na neuromorfní platformy založené na křemíku. Tento objev otevírá cestu k přizpůsobení metodologie CTRNN neuromorfní křemíkové fotonice. Ve svém článku dělají právě takovou modelovou adaptaci na svou architekturu „vysílání a váha“. Výsledky ukazují, že model CTRNN simulovaný na jejich 49uzlové architektuře poskytuje neuromorfní výpočetní architekturu, která překonává klasické výpočetní modely o 3 řády.   

    Tagy
    Kategorie
    Tématické pole