Avanzamenti nel supercalcolo: utilizzo di reti ottiche neuromorfe

Avanzamenti nel supercalcolo: utilizzo di reti ottiche neuromorfe
CREDITO IMMAGINE:  

Avanzamenti nel supercalcolo: utilizzo di reti ottiche neuromorfe

    • Nome dell'autore
      Piano Jasmin Saini
    • Autore Twitter Handle
      @Quantumrun

    Storia completa (usa SOLO il pulsante "Incolla da Word" per copiare e incollare in modo sicuro il testo da un documento di Word)

    Negli ultimi decenni, la tendenza un tempo ben nota e accurata, la Legge di Moore, prevista da Gordon Moore dell'IBM nel 1965, sta lentamente diventando una misura defunta delle prestazioni di calcolo. La legge di Moore prevedeva che circa ogni due anni il numero di transistor in un circuito integrato sarebbe raddoppiato, che ci sarebbero stati più transistor nella stessa quantità di spazio, portando a un aumento del calcolo e quindi delle prestazioni del computer. Nell'aprile 2005, in un'intervista, lo stesso Gordon Moore dichiarò che la sua proiezione probabilmente non sarebbe più stata sostenibile: “In termini di dimensioni [dei transistor] potete vedere che ci stiamo avvicinando alla dimensione degli atomi che è una barriera fondamentale, ma ci vorranno due o tre generazioni prima di arrivare a tanto, ma è quanto di più lontano siamo mai riusciti a vedere. Abbiamo altri 10 o 20 anni prima di raggiungere un limite fondamentale”.   

    Sebbene la legge di Moore sia destinata a raggiungere un vicolo cieco, altri indicatori dell'informatica stanno vedendo un aumento dell'applicabilità. Con la tecnologia che usiamo nella nostra vita quotidiana, tutti possiamo vedere le tendenze dei computer che diventano sempre più piccoli, ma anche che le batterie dei dispositivi durano sempre più a lungo. Quest'ultima tendenza con le batterie è chiamata Legge di Koomey, dal nome del professore della Stanford University Jonathan Koomey. La legge di Koomey prevede che "... con un carico di calcolo fisso, la quantità di batteria necessaria diminuirà di un fattore due ogni anno e mezzo". Pertanto, il consumo di energia elettronica o l'efficienza energetica dei computer raddoppia circa ogni 18 mesi. Quindi, ciò che tutte queste tendenze e cambiamenti indicano e rivelano è il futuro dell'informatica.

    Il futuro dell'informatica

    Siamo giunti a un momento storico in cui dobbiamo ridefinire l'informatica poiché le tendenze e le leggi previste diversi decenni fa non sono più applicabili. Inoltre, mentre l'informatica spinge verso le scale nano e quantistiche, ci sono ovvie limitazioni fisiche e sfide da superare. Forse il tentativo più notevole di supercalcolo, il calcolo quantistico, ha l'ovvia sfida di sfruttare veramente l'entanglement quantistico per il calcolo parallelo, ovvero eseguire calcoli prima della decoerenza quantistica. Tuttavia, nonostante le sfide del calcolo quantistico, negli ultimi decenni sono stati compiuti molti progressi. Si possono trovare modelli della tradizionale architettura informatica di John von Neumann applicata al calcolo quantistico. Ma c'è un altro regno non così noto del (super)calcolo, chiamato calcolo neuromorfico che non segue la tradizionale architettura di von Neumann. 

    Il calcolo neuromorfico è stato immaginato dal professore del Caltech Carver Mead nel suo articolo fondamentale nel 1990. Fondamentalmente, i principi del calcolo neuromorfico si basano su principi di azione biologici teorizzati, come quelli che si pensa siano utilizzati dal cervello umano nel calcolo. Una succinta distinzione tra la teoria del calcolo neuromorfico e la classica teoria del calcolo di von Neumann è stata riassunta in un articolo di Don Monroe nel Association for Computing Machinery rivista. L'affermazione è la seguente: “Nella tradizionale architettura di von Neumann, un potente nucleo logico (o diversi in parallelo) opera in sequenza sui dati recuperati dalla memoria. Al contrario, il calcolo "neuromorfico" distribuisce sia il calcolo che la memoria tra un numero enorme di "neuroni" relativamente primitivi, ognuno dei quali comunica con centinaia o migliaia di altri neuroni attraverso le "sinapsi".  

    Altre caratteristiche chiave del calcolo neuromorfico includono l'intolleranza ai guasti, che mira a modellare la capacità del cervello umano di perdere neuroni ed essere ancora in grado di funzionare. Analogamente, nell'informatica tradizionale la perdita di un transistor influisce sul corretto funzionamento. Un altro vantaggio previsto e mirato del calcolo neuromorfico è che non è necessario essere programmati; quest'ultimo obiettivo è di nuovo modellare la capacità del cervello umano di apprendere, rispondere e adattarsi ai segnali. Pertanto, il calcolo neuromorfico è attualmente il miglior candidato per compiti di apprendimento automatico e intelligenza artificiale. 

    Progressi del supercalcolo neuromorfico

    Il resto di questo articolo approfondirà i progressi del supercalcolo neuromorfico. Nello specifico, una ricerca recentemente pubblicata sull'Arxiv di Alexander Tait et. al. della Princeton University mostra che un modello di rete neurale fotonica basato sul silicio supera di quasi 2000 volte un approccio informatico convenzionale. Questa piattaforma di elaborazione fotonica neuromorfica potrebbe portare a un'elaborazione ultraveloce delle informazioni. 

    Il Tait et. al. carta intitolata Fotonica del silicio neuromorfo inizia descrivendo i pro ei contro dell'utilizzo della forma di luce fotonica della radiazione elettromagnetica per l'informatica. I punti principali iniziali del documento sono che la luce è stata ampiamente utilizzata per la trasmissione delle informazioni, ma non per la trasformazione delle informazioni, vale a dire il calcolo ottico digitale. Allo stesso modo, per il calcolo quantistico, ci sono sfide fisiche fondamentali per il calcolo ottico digitale. Il documento entra quindi nei dettagli di una piattaforma di calcolo fotonico neuromorfico proposta in precedenza, la Tait et. al. team pubblicato nel 2014, dal titolo Broadcast e peso: una rete integrata per l'elaborazione scalabile dei picchi fotonici. Il loro articolo più recente descrive i risultati della prima dimostrazione sperimentale di una rete neurale fotonica integrata. 

    Nell'architettura informatica "broadcast and weight", ai "nodi" viene assegnata una "portante di lunghezza d'onda" univoca che è "wavelength division multiplexed (WDM)" e quindi trasmessa ad altri "nodi". I "nodi" in questa architettura hanno lo scopo di simulare il comportamento dei neuroni nel cervello umano. Quindi i segnali "WDM" vengono elaborati tramite filtri a valore continuo chiamati "banchi di peso microring (MRR)" e quindi sommati elettricamente in un valore di rilevamento della potenza totale misurato. La non linearità di quest'ultima trasformazione/computazione elettro-ottica è precisamente la non linearità richiesta per imitare la funzionalità dei neuroni, essenziale per l'informatica secondo i principi neuromorfici. 

    Nel documento, discutono che queste dinamiche di trasformazione elettro-ottica verificate sperimentalmente sono matematicamente identiche a un modello di "rete neurale ricorrente a tempo continuo a 2 nodi" (CTRNN). Questi risultati pionieristici suggeriscono che gli strumenti di programmazione utilizzati per i modelli CTRNN potrebbero essere applicati a piattaforme neuromorfiche basate sul silicio. Questa scoperta apre la strada all'adattamento della metodologia CTRNN alla fotonica del silicio neuromorfo. Nel loro documento, fanno proprio un tale adattamento del modello sulla loro architettura di "trasmissione e peso". I risultati mostrano che il modello CTRNN simulato sulla loro architettura a 49 nodi produce l'architettura di calcolo neuromorfico per superare i modelli di calcolo classici di 3 ordini di grandezza.   

    CRONOLOGIA FUTURA