Supercomputing-fremskritt: ved hjelp av nevromorfe optiske nettverk

Superdatabehandling: bruk av nevromorfe optiske nettverk
BILDEKREDITT:  

Supercomputing-fremskritt: ved hjelp av nevromorfe optiske nettverk

    • Forfatter Navn
      Jasmin Saini-planen
    • Forfatter Twitter Handle
      @Quantumrun

    Hele historien (bruk KUN "Lim inn fra Word"-knappen for å kopiere og lime inn tekst fra et Word-dokument på en sikker måte)

    I løpet av de siste tiårene har den en gang velkjente og nøyaktige trenden, Moores lov, spådd av Gordon Moore fra IBM i 1965, nå sakte blitt et nedlagt mål på dataytelse. Moores lov spådde at omtrent hvert annet år ville antall transistorer i en integrert krets dobles, at det ville være flere transistorer i samme mengde plass, noe som førte til økt beregning og dermed datamaskinytelse. I april 2005, i et intervju, uttalte Gordon Moore selv at projeksjonen hans sannsynligvis ikke lenger ville være bærekraftig: "Når det gjelder størrelsen [av transistorer] kan du se at vi nærmer oss størrelsen på atomer som er en grunnleggende barriere, men det vil ta to eller tre generasjoner før vi kommer så langt – men det er så langt ut som vi noen gang har kunnet se. Vi har ytterligere 10 til 20 år før vi når en grunnleggende grense.»   

    Selv om Moores lov er dømt til å treffe en blindvei, ser andre indikatorer for databehandling en økning i anvendelighet. Med teknologien vi bruker i hverdagen, kan vi alle se trendene med at datamaskiner blir mindre og mindre, men også at enhetsbatterier varer lenger og lenger. Den siste trenden med batterier kalles Koomeys lov, oppkalt etter Stanford University-professor Jonathan Koomey. Koomeys lov forutsier at "... ved en fast databelastning vil mengden batteri du trenger falle med en faktor på to hvert og et halvt år." Derfor dobles elektronisk strømforbruk eller energieffektivitet for datamaskiner omtrent hver 18. måned. Så det alle disse trendene og endringene peker mot og avslører er fremtiden til databehandling.

    Fremtiden for databehandling

    Vi har kommet til en tid i historien hvor vi må redefinere databehandling ettersom trendene og lovene som ble forutsagt for flere tiår siden ikke lenger er gjeldende. Når databehandling presser seg mot nano- og kvanteskalaen, er det åpenbare fysiske begrensninger og utfordringer som må overvinnes. Det kanskje mest bemerkelsesverdige forsøket på superdatabehandling, kvanteberegning, har den åpenbare utfordringen med å virkelig utnytte kvantesammenfiltring for parallell beregning, det vil si å utføre beregninger før kvantedekoherens. Til tross for utfordringene med kvanteberegning har det imidlertid vært mye fremgang de siste tiårene. Man kan finne modeller av den tradisjonelle John von Neumann-dataarkitekturen brukt på kvanteberegning. Men det er et annet ikke så kjent område for (super)databehandling, kalt nevromorfisk databehandling som ikke følger den tradisjonelle von Neumann-arkitekturen. 

    Nevromorf databehandling ble forestilt av Caltech-professor Carver Mead tilbake i sin banebrytende artikkel i 1990. Prinsippene for nevromorf databehandling er i bunn og grunn basert på teoretiserte biologiske handlingsprinsipper, som de som antas å bli brukt av den menneskelige hjernen i beregninger. Et kortfattet skille mellom nevromorf databehandlingsteori versus klassisk von Neumann databehandlingsteori ble oppsummert i en artikkel av Don Monroe i Forening for datamaskiner tidsskrift. Utsagnet lyder slik: «I den tradisjonelle von Neumann-arkitekturen opererer en kraftig logisk kjerne (eller flere parallelt) sekvensielt på data hentet fra minnet. I motsetning til dette distribuerer ‘nevromorf’ databehandling både beregning og minne blant et enormt antall relativt primitive ‘nevroner’, som hver kommuniserer med hundrevis eller tusenvis av andre nevroner gjennom ‘synapser’.»  

    Andre nøkkeltrekk ved nevromorfisk databehandling inkluderer feilintoleranse, som tar sikte på å modellere den menneskelige hjernens evne til å miste nevroner og fortsatt være i stand til å fungere. Analogt, i tradisjonell databehandling påvirker tap av en transistor riktig funksjon. En annen tenkt og målrettet fordel med nevromorfisk databehandling er at det ikke er nødvendig å programmeres; Dette siste målet er igjen å modellere den menneskelige hjernens evne til å lære, reagere og tilpasse seg signaler. Dermed er nevromorfisk databehandling for tiden den beste kandidaten for maskinlæring og kunstig intelligens-oppgaver. 

    Fremskritt av nevromorf superdatabehandling

    Resten av denne artikkelen vil fordype seg i fremskritt innen nevromorf superdatabehandling. Nærmere bestemt, nylig publisert forskning om Arxiv fra Alexander Tait et. al. fra Princeton University viser at en silisiumbasert fotonisk nevrale nettverksmodell overgår en konvensjonell databehandlingsmetode med nesten 2000 ganger. Denne nevromorfe fotoniske plattformen for databehandling kan føre til ultrarask informasjonsbehandling. 

    The Tait et. al. papir berettiget Nevromorf silisiumfotonikk starter med å beskrive fordeler og ulemper ved å bruke den fotoniske lysformen for elektromagnetisk stråling for databehandling. De første hovedpoengene i artikkelen er at lys har blitt mye brukt til informasjonsoverføring, men ikke for informasjonstransformasjon, dvs. digital optisk databehandling. På samme måte, med kvantedatabehandling, er det grunnleggende fysiske utfordringer for digital optisk databehandling. Artikkelen går deretter inn på detaljene i en tidligere foreslått nevromorf fotonisk databehandlingsplattform, Tait et. al. team publisert i 2014, med tittelen Kringkasting og vekt: Et integrert nettverk for skalerbar fotonisk spikebehandling. Deres nyere artikkel beskriver resultatene av den første eksperimentelle demonstrasjonen av et integrert fotonisk nevralt nettverk. 

    I "kringkastings- og vekt"-databehandlingsarkitekturen blir "nodene" tildelt en unik "bølgelengdebærer" som er "bølgelengdedelingsmultiplekset (WDM)" og deretter kringkastet til andre "noder". "Nodene" i denne arkitekturen er ment å simulere nevronadferd i den menneskelige hjernen. Deretter behandles "WDM"-signaler via filtre med kontinuerlig verdi kalt "mikroring (MRR) vektbanker" og summeres deretter elektrisk til en målt total effektdeteksjonsverdi. Ikke-lineariteten til denne siste elektro-optiske transformasjonen/beregningen er nettopp den ikke-lineariteten som kreves for å etterligne nevronfunksjonalitet, avgjørende for databehandling under nevromorfe prinsipper. 

    I artikkelen diskuterer de at disse eksperimentelt verifiserte elektro-optiske transformasjonsdynamikkene er matematisk identiske med en "2-node kontinuerlig tilbakevendende nevrale nettverk" (CTRNN) modell. Disse banebrytende resultatene tyder på at programmeringsverktøy som har blitt brukt for CTRNN-modeller kan brukes på silisiumbaserte nevromorfe plattformer. Denne oppdagelsen åpner veien for å tilpasse CTRNN-metodikk til nevromorf silisiumfotonikk. I papiret deres gjør de nettopp en slik modelltilpasning til "broadcast and weight"-arkitekturen deres. Resultatene viser at CTRNN-modellen simulert på deres 49-node-arkitektur gir den nevromorfe dataarkitekturen for å overgå klassiske datamodeller med 3 størrelsesordener.