Supercomputing advancements: gamit ang neuromorphic optical network

Supercomputing advancements: gamit ang neuromorphic optical network
CREDIT NG LARAWAN:  

Supercomputing advancements: gamit ang neuromorphic optical network

    • Author Pangalan
      Plano ni Jasmin Saini
    • May-akda Twitter Handle
      @Quantumrun

    Buong kwento (gamitin LANG ang button na 'I-paste Mula sa Salita' upang ligtas na kopyahin at i-paste ang teksto mula sa isang Word doc)

    Sa nakalipas na ilang dekada, ang dating kilalang-kilala at tumpak na kalakaran, ang Moore's Law, na hinulaang ni Gordon Moore ng IBM noong 1965, ay unti-unti na ngayong nagiging isang defunct measure ng computing performance. Inihula ng Batas ni Moore na halos bawat dalawang taon ang bilang ng mga transistor sa isang integrated circuit ay magdodoble, na magkakaroon ng higit pang mga transistor sa parehong dami ng espasyo, na humahantong sa pagtaas ng pagkalkula at sa gayon ang pagganap ng computer. Noong Abril 2005, sa isang panayam, mismong si Gordon Moore ay nagsabi na ang kanyang projection ay malamang na hindi na mapapanatili: "Sa mga tuntunin ng laki [ng mga transistor] makikita mo na tayo ay lumalapit sa laki ng mga atomo na isang pangunahing hadlang, ngunit ito ay magiging dalawa o tatlong henerasyon bago tayo makarating sa ganoong kalayuan—ngunit napakalayo nito gaya ng nakikita natin. Mayroon pa tayong 10 hanggang 20 taon bago natin maabot ang pangunahing limitasyon.”   

    Bagama't ang batas ni Moore ay nakatakdang matamaan ang ilang dead-end, ang iba pang mga indicator ng computing ay nakakakita ng pagtaas ng applicability. Sa teknolohiyang ginagamit natin sa ating pang-araw-araw na buhay, makikita nating lahat ang mga uso ng mga computer na lumiliit at lumiliit ngunit pati na rin ang mga baterya ng device ay mas tumatagal at mas matagal. Ang huling trend na may mga baterya ay tinatawag na Koomey's Law, na pinangalanan sa propesor ng Stanford University na si Jonathan Koomey. Ang batas ni Koomey ay hinuhulaan na "... sa isang nakapirming pag-load sa pag-compute, ang halaga ng baterya na kailangan mo ay bababa ng dalawang kadahilanan bawat taon at kalahati." Samakatuwid, ang pagkonsumo ng elektronikong kuryente o kahusayan ng enerhiya ng mga computer ay dumoble halos bawat 18 buwan. Kaya, kung ano ang itinuturo at inilalahad ng lahat ng mga uso at pagbabagong ito ay ang kinabukasan ng pag-compute.

    Ang kinabukasan ng computing

    Dumating tayo sa isang panahon sa kasaysayan kung saan kailangan nating muling tukuyin ang pag-compute dahil ang mga uso at batas na hinulaang ilang dekada na ang nakalipas ay hindi na naaangkop. Gayundin, habang ang computing ay tumutulak patungo sa nano at quantum scale, may mga halatang pisikal na limitasyon at hamon na lampasan. Marahil ang pinaka-kapansin-pansing pagtatangka sa supercomputing, quantum computing, ay may malinaw na hamon ng tunay na paggamit ng quantum entanglement para sa parallel computation, iyon ay, ang pagsasagawa ng mga computations bago ang quantum decoherence. Gayunpaman, sa kabila ng mga hamon ng quantum computing nagkaroon ng maraming pag-unlad sa nakalipas na ilang dekada. Makakahanap ng mga modelo ng tradisyonal na John von Neumann na arkitektura ng computer na inilapat sa quantum computing. Ngunit may isa pang hindi gaanong kilalang larangan ng (super) computing, na tinatawag na neuromorphic computing na hindi sumusunod sa tradisyonal na arkitektura ng von Neumann. 

    Ang neuromorphic computing ay naisip ng propesor ng Caltech na si Carver Mead sa kanyang seminal paper noong 1990. Sa pangkalahatan, ang mga prinsipyo ng neuromorphic computing ay nakabatay sa theorized biological na mga prinsipyo ng pagkilos, tulad ng mga naisip na ginagamit ng utak ng tao sa pagtutuos. Ang isang maikling pagkakaiba sa pagitan ng neuromorphic computing theory kumpara sa klasikal na von Neumann computing theory ay buod sa isang artikulo ni Don Monroe sa Association para sa compute Makinarya Talaarawan. Ang pahayag ay ganito: "Sa tradisyonal na arkitektura ng von Neumann, isang malakas na lohika na core (o ilang kahanay) ay gumagana nang sunud-sunod sa data na kinuha mula sa memorya. Sa kabaligtaran, ang 'neuromorphic' computing ay namamahagi ng parehong computation at memory sa napakalaking bilang ng mga relatibong primitive na 'neuron,' bawat isa ay nakikipag-ugnayan sa daan-daan o libu-libong iba pang mga neuron sa pamamagitan ng 'synapses.'  

    Ang iba pang mga pangunahing tampok ng neuromorphic computing ay kinabibilangan ng fault intolerance, na naglalayong i-modelo ang kakayahan ng utak ng tao na mawalan ng mga neuron at magagawa pa ring gumana. Analogously, sa tradisyonal na pag-compute ang pagkawala ng isang transistor ay nakakaapekto sa wastong paggana. Ang isa pang naisip at naglalayong bentahe ng neuromorphic computing ay hindi na kailangang i-program; ang huling layunin na ito ay muling imodelo ang kakayahan ng utak ng tao na matuto, tumugon at umangkop sa mga signal. Kaya, ang neuromorphic computing ay kasalukuyang pinakamahusay na kandidato para sa machine learning at mga gawaing artificial intelligence. 

    Mga pagsulong ng neuromorphic supercomputing

    Ang natitirang bahagi ng artikulong ito ay susuriin ang mga pagsulong ng neuromorphic supercomputing. Sa partikular, kamakailang nai-publish na pananaliksik sa Arxiv mula kay Alexander Tait et. al. mula sa Princeton University ay nagpapakita na ang isang modelo ng photonic neural network na nakabatay sa silikon ay higit na gumaganap sa isang maginoo na diskarte sa pag-compute ng halos 2000 beses. Ang neuromorphic photonic platform ng computing na ito ay maaaring humantong sa napakabilis na pagproseso ng impormasyon. 

    Ang Tait et. al. papel na pinamagatang Neuromorphic Silicon Photonics nagsisimula sa paglalarawan ng mga kalamangan at kahinaan ng paggamit ng photonic light form ng electromagnetic radiation para sa computing. Ang mga unang pangunahing punto ng papel ay ang ilaw ay malawakang ginagamit para sa paghahatid ng impormasyon ngunit hindi para sa pagbabago ng impormasyon, ibig sabihin, digital optical computing. Katulad nito, sa quantum computing, may mga pangunahing pisikal na hamon sa digital optical computing. Ang papel ay napupunta sa mga detalye ng isang naunang iminungkahing neuromorphic photonic computing platform ang Tait et. al. koponan na inilathala noong 2014, na pinamagatang Broadcast at timbang: Isang pinagsamang network para sa scalable photonic spike processing. Inilalarawan ng kanilang mas bagong papel ang mga resulta ng unang eksperimentong pagpapakita ng isang pinagsama-samang photonic neural network. 

    Sa "broadcast at weight" computing architecture, ang "nodes" ay itinalaga ng isang natatanging "wavelength carrier" na "wavelength division multiplexed (WDM)" at pagkatapos ay i-broadcast sa iba pang "node". Ang mga "node" sa arkitektura na ito ay sinadya upang gayahin ang pag-uugali ng neuron sa utak ng tao. Pagkatapos, ang mga signal ng "WDM" ay pinoproseso sa pamamagitan ng mga filter na may tuloy-tuloy na halaga na tinatawag na "microring (MRR) weight banks" at pagkatapos ay isasama sa elektrikal na paraan sa isang nasusukat na kabuuang halaga ng power detection. Ang non-linearity ng huling electro-optic transformation/computation na ito ay tiyak ang non-linearity na kinakailangan para gayahin ang functionality ng neuron, na mahalaga sa pag-compute sa ilalim ng neuromorphic na mga prinsipyo. 

    Sa papel, tinalakay nila na ang mga eksperimental na na-verify na electro-optic transformation dynamics ay mathematically identical sa isang "2-node continuous-time recurrent neural network" (CTRNN) na modelo. Iminumungkahi ng mga pangunguna na resultang ito na ang mga tool sa programming na ginamit para sa mga modelo ng CTRNN ay maaaring mailapat sa mga platform na neuromorphic na nakabatay sa silicon. Ang pagtuklas na ito ay nagbubukas ng landas sa pag-angkop ng pamamaraan ng CTRNN sa neuromorphic silicon photonics. Sa kanilang papel, ginagawa lang nila ang gayong modelong adaption sa kanilang "broadcast at weight" na arkitektura. Ang mga resulta ay nagpapakita na ang modelo ng CTRNN na na-simulate sa kanilang 49-node na arkitektura ay nagbubunga ng neuromorphic computing na arkitektura upang malampasan ang mga klasikal na modelo ng computing sa pamamagitan ng 3 order ng magnitude.   

    Mga tag
    kategorya
    Mga tag
    Patlang ng paksa