Supercomputing framsteg: med hjälp av neuromorfa optiska nätverk

Supercomputing framsteg: med hjälp av neuromorfa optiska nätverk
BILDKREDIT:  

Supercomputing framsteg: med hjälp av neuromorfa optiska nätverk

    • Författare Namn
      Jasmin Saini Plan
    • Författare Twitter Handle
      @Quantumrun

    Hela berättelsen (använd ENDAST knappen "Klistra in från Word" för att säkert kopiera och klistra in text från ett Word-dokument)

    Under de senaste decennierna har den en gång välkända och korrekta trenden, Moores lag, som förutspåddes av Gordon Moore från IBM 1965, nu sakta blivit ett nedlagt mått på datorprestanda. Moores lag förutspådde att ungefär vartannat år skulle antalet transistorer i en integrerad krets fördubblas, att det skulle finnas fler transistorer i samma mängd utrymme, vilket skulle leda till ökad beräkning och därmed datorprestanda. I april 2005, i en intervju, sa Gordon Moore själv att hans projektion sannolikt inte längre skulle vara hållbar: "När det gäller storlek [på transistorer] kan du se att vi närmar oss storleken på atomer, vilket är en grundläggande barriär, men det kommer att dröja två eller tre generationer innan vi kommer så långt — men det är så långt ut som vi någonsin har kunnat se. Vi har ytterligare 10 till 20 år på oss innan vi når en grundläggande gräns."   

    Även om Moores lag är dömd att hamna i en återvändsgränd, ser andra indikatorer för datoranvändning en ökning av tillämpligheten. Med den teknik vi använder i våra dagliga liv kan vi alla se trenderna med datorer som blir mindre och mindre men också att enhetsbatterier håller längre och längre. Den senare trenden med batterier kallas Koomey's Law, uppkallad efter Stanford University professor Jonathan Koomey. Koomeys lag förutspår att "... vid en fast datorbelastning kommer mängden batteri du behöver att minska med en faktor två varje och ett halvt år." Därför fördubblas elektronisk strömförbrukning eller energieffektivitet för datorer ungefär var 18:e månad. Så vad alla dessa trender och förändringar pekar mot och avslöjar är framtiden för datoranvändning.

    Datorns framtid

    Vi har kommit till en tid i historien där vi måste omdefiniera datoranvändning eftersom de trender och lagar som förutspåddes för flera decennier sedan inte längre är tillämpliga. Dessutom, när datoranvändning skjuter mot nano- och kvantskalorna, finns det uppenbara fysiska begränsningar och utmaningar att övervinna. Det kanske mest anmärkningsvärda försöket med superdatorer, kvantberäkning, har den uppenbara utmaningen att verkligen utnyttja kvanttrassling för parallell beräkning, det vill säga att utföra beräkningar före kvantdekoherens. Men trots utmaningarna med kvantberäkning har det skett stora framsteg under de senaste decennierna. Man kan hitta modeller av den traditionella John von Neumann-datorarkitekturen som tillämpas på kvantberäkning. Men det finns en annan inte så välkänd sfär av (super)datorer, kallad neuromorphic computing som inte följer den traditionella von Neumann-arkitekturen. 

    Neuromorphic computing föreställdes av Caltech-professorn Carver Mead redan i hans framstående artikel 1990. Principerna för neuromorphic computing är i grunden baserade på teoretiserade biologiska handlingsprinciper, som de som tros användas av den mänskliga hjärnan i beräkningar. En kortfattad skillnad mellan neuromorf beräkningsteori kontra klassisk von Neumann beräkningsteori sammanfattades i en artikel av Don Monroe i Förening för datormaskiner tidning. Uttalandet lyder så här: "I den traditionella von Neumann-arkitekturen arbetar en kraftfull logisk kärna (eller flera parallellt) sekventiellt på data som hämtas från minnet. Däremot fördelar "neuromorf" beräkning både beräkning och minne mellan ett enormt antal relativt primitiva "neuroner", som var och en kommunicerar med hundratals eller tusentals andra neuroner genom "synapser."  

    Andra nyckelfunktioner i neuromorfisk datoranvändning inkluderar felintolerans, som syftar till att modellera den mänskliga hjärnans förmåga att förlora neuroner och fortfarande kunna fungera. Analogt, i traditionell beräkning påverkar förlusten av en transistor korrekt funktion. En annan tänkt och riktad fördel med neuromorfisk beräkning är att det inte finns något behov av att programmeras; detta sista syfte är återigen att modellera den mänskliga hjärnans förmåga att lära sig, reagera och anpassa sig till signaler. Således är neuromorfisk beräkning för närvarande den bästa kandidaten för maskininlärning och artificiell intelligens. 

    Framsteg av neuromorf superdatorer

    Resten av den här artikeln kommer att fördjupa sig i framstegen inom neuromorfisk superdator. Specifikt nyligen publicerad forskning om Arxiv från Alexander Tait et. al. från Princeton University visar att en kiselbaserad fotonisk neural nätverksmodell överträffar en konventionell datormetod med nästan 2000 gånger. Denna neuromorfa fotoniska plattform för datoranvändning kan leda till ultrasnabb informationsbehandling. 

    The Tait et. al. papper berättigad Neuromorf kiselfotonik börjar med att beskriva för- och nackdelarna med att använda den fotoniska ljusformen av elektromagnetisk strålning för beräkningar. De första huvudpunkterna i artikeln är att ljus har använts i stor utsträckning för informationsöverföring men inte för informationstransformation, dvs digital optisk datoranvändning. På samma sätt, för kvantberäkning, finns det grundläggande fysiska utmaningar för digital optisk beräkning. Uppsatsen går sedan in på detaljerna i en tidigare föreslagen neuromorf fotonisk beräkningsplattform, Tait et. al. team publicerat 2014, med titeln Sändning och vikt: Ett integrerat nätverk för skalbar fotonisk spikbehandling. Deras nyare artikel beskriver resultaten av den första experimentella demonstrationen av ett integrerat fotoniskt neuralt nätverk. 

    I "broadcast and weight"-beräkningsarkitekturen tilldelas "noderna" en unik "våglängdsbärare" som är "våglängdsdelningsmultiplexerad (WDM)" och sedan sänds till andra "noder". "Noderna" i denna arkitektur är avsedda att simulera neuronbeteende i den mänskliga hjärnan. Sedan bearbetas "WDM"-signaler via kontinuerligt värderade filter som kallas "microring (MRR) weight banks" och summeras sedan elektriskt till ett uppmätt totaleffektdetekteringsvärde. Icke-linjäriteten för denna sista elektrooptiska transformation/beräkning är just den icke-linjäritet som krävs för att efterlikna neuronfunktionalitet, väsentlig för beräkning enligt neuromorfa principer. 

    I artikeln diskuterar de att dessa experimentellt verifierade elektrooptiska transformationsdynamik är matematiskt identiska med en "2-nods kontinuerligt återkommande neuralt nätverk" (CTRNN) modell. Dessa banbrytande resultat tyder på att programmeringsverktyg som har använts för CTRNN-modeller skulle kunna tillämpas på kiselbaserade neuromorfa plattformar. Denna upptäckt öppnar vägen för att anpassa CTRNN-metodologin till neuromorf kiselfotonik. I sin tidning gör de just en sådan modellanpassning till sin "broadcast and weight"-arkitektur. Resultaten visar att CTRNN-modellen simulerad på deras 49-nodsarkitektur ger den neuromorfa beräkningsarkitekturen för att överträffa klassiska beräkningsmodeller med 3 storleksordningar.   

    Tags
    Kategori
    Ämnesfält