Supercomputing-fremskridt: Brug af neuromorfe optiske netværk

Supercomputing-fremskridt: Brug af neuromorfe optiske netværk
BILLEDKREDIT:  

Supercomputing-fremskridt: Brug af neuromorfe optiske netværk

    • Forfatter Navn
      Jasmin Saini Plan
    • Forfatter Twitter Handle
      @Quantumrun

    Fuld historie (brug KUN knappen 'Indsæt fra Word' for sikkert at kopiere og indsætte tekst fra et Word-dokument)

    I de sidste par årtier er den engang velkendte og præcise trend, Moores lov, forudsagt af Gordon Moore fra IBM i 1965, nu langsomt ved at blive et nedlagt mål for computerydelse. Moores lov forudsagde, at omkring hvert andet år ville antallet af transistorer i et integreret kredsløb fordobles, at der ville være flere transistorer i den samme mængde plads, hvilket fører til øget beregning og dermed computerens ydeevne. I april 2005, i et interview, udtalte Gordon Moore selv, at hans fremskrivning sandsynligvis ikke længere ville være bæredygtig: "Med hensyn til størrelse [af transistorer] kan du se, at vi nærmer os størrelsen af ​​atomer, hvilket er en grundlæggende barriere, men det vil der gå to eller tre generationer, før vi når så langt - men det er så langt ude, som vi nogensinde har kunnet se. Vi har yderligere 10 til 20 år, før vi når en grundlæggende grænse."   

    Selvom Moores lov er dømt til at ramme en blindgyde, ser andre indikatorer for computere en stigning i anvendeligheden. Med den teknologi, vi bruger i vores daglige liv, kan vi alle se, at computere bliver mindre og mindre, men også at enhedsbatterier holder længere og længere. Sidstnævnte tendens med batterier kaldes Koomeys lov, opkaldt efter Stanford University professor Jonathan Koomey. Koomeys lov forudsiger, at "... ved en fast computerbelastning vil mængden af ​​batteri, du har brug for, falde med en faktor på to hvert halvandet år." Derfor fordobles elektronisk strømforbrug eller energieffektivitet for computere omkring hver 18. måned. Så, hvad alle disse tendenser og ændringer peger mod og afslører, er fremtiden for computere.

    Computerens fremtid

    Vi er kommet til et tidspunkt i historien, hvor vi er nødt til at omdefinere databehandling, da de tendenser og love, der blev forudsagt for flere årtier siden, ikke længere er gældende. Også, efterhånden som computing skubber mod nano- og kvanteskalaen, er der åbenlyse fysiske begrænsninger og udfordringer, der skal overvindes. Måske det mest bemærkelsesværdige forsøg på supercomputing, kvanteberegning, har den åbenlyse udfordring at virkelig udnytte kvantesammenfiltring til parallel beregning, det vil sige at udføre beregninger før kvantedekohærens. På trods af udfordringerne ved kvanteberegning er der dog sket store fremskridt i de sidste par årtier. Man kan finde modeller af den traditionelle John von Neumann computerarkitektur anvendt til kvanteberegning. Men der er et andet ikke så velkendt område af (super)databehandling, kaldet neuromorfisk databehandling, der ikke følger den traditionelle von Neumann-arkitektur. 

    Neuromorphic computing blev forestillet af Caltech-professor Carver Mead tilbage i hans banebrydende papir i 1990. Grundlæggende er principperne for neuromorphic computing baseret på teoretiserede biologiske handlingsprincipper, ligesom dem, der menes at blive brugt af den menneskelige hjerne i beregninger. En kortfattet skelnen mellem neuromorf computerteori versus klassisk von Neumann computerteori blev opsummeret i en artikel af Don Monroe i Association for Computing Machinery tidsskrift. Udsagnet lyder således: "I den traditionelle von Neumann-arkitektur opererer en kraftig logisk kerne (eller flere parallelt) sekventielt på data hentet fra hukommelsen. I modsætning hertil fordeler 'neuromorf' databehandling både beregning og hukommelse blandt et enormt antal relativt primitive 'neuroner', der hver kommunikerer med hundreder eller tusinder af andre neuroner gennem 'synapser'."  

    Andre nøgletræk ved neuromorfisk databehandling omfatter fejlintolerance, som har til formål at modellere den menneskelige hjernes evne til at miste neuroner og stadig være i stand til at fungere. Analogt, i traditionel databehandling påvirker tabet af en transistor korrekt funktion. En anden forudset og målrettet fordel ved neuromorfisk databehandling er, at der ikke er behov for at blive programmeret; dette sidste mål er igen at modellere den menneskelige hjernes evne til at lære, reagere og tilpasse sig signaler. Således er neuromorphic computing i øjeblikket den bedste kandidat til maskinlæring og kunstig intelligens opgaver. 

    Fremskridt af neuromorfisk supercomputing

    Resten af ​​denne artikel vil dykke ned i fremskridt inden for neuromorfisk supercomputing. Specifikt for nylig offentliggjort forskning om Arxiv fra Alexander Tait et. al. fra Princeton University viser, at en silicium-baseret fotonisk neural netværksmodel overgår en konventionel computertilgang med næsten 2000 gange. Denne neuromorfe fotoniske computerplatform kunne føre til ultrahurtig informationsbehandling. 

    The Tait et. al. papir berettiget Neuromorf siliciumfotonik starter med at beskrive fordele og ulemper ved at bruge den fotoniske lysform af elektromagnetisk stråling til beregning. De indledende hovedpunkter i papiret er, at lys er blevet meget brugt til informationstransmission, men ikke til informationstransformation, dvs. digital optisk databehandling. Tilsvarende er der grundlæggende fysiske udfordringer for kvantecomputere ved digital optisk databehandling. Artiklen går derefter ind på detaljerne i en tidligere foreslået neuromorf fotonisk computerplatform, Tait et. al. hold udgivet i 2014, med titlen Broadcast og vægt: Et integreret netværk til skalerbar fotonisk spidsbehandling. Deres nyere papir beskriver resultaterne af den første eksperimentelle demonstration af et integreret fotonisk neuralt netværk. 

    I "broadcast and weight"-computerarkitekturen tildeles "knuderne" en unik "bølgelængdebærer", der er "bølgelængdedelingsmultiplekset (WDM)" og derefter udsendt til andre "knudepunkter". "Knuderne" i denne arkitektur er beregnet til at simulere neuronadfærd i den menneskelige hjerne. Derefter behandles "WDM"-signaler via kontinuerlige filtre kaldet "mikroring (MRR) vægtbanker" og summeres derefter elektrisk til en målt total effektdetektionsværdi. Ikke-lineariteten af ​​denne sidste elektro-optiske transformation/beregning er netop den ikke-linearitet, der kræves for at efterligne neuronfunktionalitet, essentiel for beregning under neuromorfe principper. 

    I papiret diskuterer de, at disse eksperimentelt verificerede elektro-optiske transformationsdynamikker er matematisk identiske med en "2-knudekontinuerlig-tid tilbagevendende neuralt netværk" (CTRNN) model. Disse banebrydende resultater tyder på, at programmeringsværktøjer, der er blevet brugt til CTRNN-modeller, kunne anvendes på siliciumbaserede neuromorfe platforme. Denne opdagelse åbner vejen til at tilpasse CTRNN-metoden til neuromorf siliciumfotonik. I deres papir laver de netop sådan en modeltilpasning til deres "broadcast and weight"-arkitektur. Resultaterne viser, at CTRNN-modellen simuleret på deres 49-node arkitektur giver den neuromorfe computerarkitektur til at udkonkurrere klassiske computermodeller med 3 størrelsesordener.