Avances da supercomputación: uso de redes ópticas neuromórficas

Avances en supercomputación: uso de redes ópticas neuromórficas
CRÉDITO DA IMAXE:  

Avances da supercomputación: uso de redes ópticas neuromórficas

    • Nome do Autor
      Plan Jasmin Saini
    • Autor Twitter Handle
      @Quantumrun

    Historia completa (utilice SÓ o botón "Pegar desde Word" para copiar e pegar texto dun documento de Word con seguridade)

    Nas últimas décadas, a tendencia antes coñecida e precisa, a Lei de Moore, predita por Gordon Moore de IBM en 1965, estase convertendo lentamente nunha medida desaparecida do rendemento informático. A lei de Moore predixo que aproximadamente cada dous anos o número de transistores nun circuíto integrado duplicaríase, que habería máis transistores na mesma cantidade de espazo, o que levaría a un maior cálculo e, polo tanto, o rendemento da computadora. En abril de 2005, nunha entrevista, o propio Gordon Moore afirmou que a súa proxección probablemente xa non sería sostible: “En termos de tamaño [dos transistores] podes ver que nos estamos achegando ao tamaño dos átomos, que é unha barreira fundamental, pero Haberá dúas ou tres xeracións antes de que cheguemos tan lonxe, pero iso está tan lonxe como nunca puidemos ver. Temos outros 10 ou 20 anos para chegar a un límite fundamental".   

    Aínda que a lei de Moore está condenada a chegar a algún camiño sen saída, outros indicadores da computación están a ver un aumento da aplicabilidade. Coa tecnoloxía que usamos na nosa vida diaria, todos podemos ver as tendencias dos ordenadores cada vez máis pequenos, pero tamén que as baterías dos dispositivos duran máis e máis tempo. Esta última tendencia coas baterías denomínase Lei de Koomey, que recibe o nome do profesor da Universidade de Stanford Jonathan Koomey. A lei de Koomey prevé que "... cunha carga informática fixa, a cantidade de batería que necesitas reducirase por dous cada ano e medio". Polo tanto, o consumo de enerxía electrónica ou a eficiencia enerxética dos ordenadores duplícase aproximadamente cada 18 meses. Entón, o que apuntan e revelan todas estas tendencias e cambios é o futuro da informática.

    O futuro da informática

    Chegamos a un momento da historia no que temos que redefinir a informática xa que as tendencias e leis predidas hai varias décadas xa non son aplicables. Ademais, a medida que a informática avanza cara ás escalas nano e cuántica, hai obvias limitacións físicas e desafíos por superar. Quizais o intento máis notable de supercomputación, a computación cuántica, ten o obvio desafío de aproveitar realmente o enredo cuántico para a computación paralela, é dicir, realizar cálculos antes da decoherencia cuántica. Non obstante, a pesar dos retos da computación cuántica houbo moito progreso nas últimas décadas. Pódense atopar modelos da arquitectura informática tradicional de John von Neumann aplicada á computación cuántica. Pero hai outro ámbito non tan coñecido da (super)computación, denominado computación neuromórfica que non segue a arquitectura tradicional de von Neumann. 

    A computación neuromórfica foi ideada polo profesor de Caltech Carver Mead no seu artigo fundamental en 1990.  Fundamentalmente, os principios da computación neuromórfica baséanse en principios biolóxicos de acción teorizados, como os que se pensa que son utilizados polo cerebro humano na computación. Unha distinción sucinta entre a teoría da computación neuromórfica versus a teoría da computación clásica de von Neumann foi resumida nun artigo de Don Monroe no Asociación de maquinaria informática xornal. A afirmación dise así: "Na arquitectura tradicional de von Neumann, un núcleo lóxico poderoso (ou varios en paralelo) opera secuencialmente sobre os datos obtidos da memoria. Pola contra, a computación "neuromorfa" distribúe tanto a computación como a memoria entre un enorme número de "neuronas" relativamente primitivas, cada unha comunicándose con centos ou miles de outras neuronas mediante "sinapses".  

    Outras características clave da computación neuromórfica inclúen a intolerancia ás fallas, que ten como obxectivo modelar a capacidade do cerebro humano para perder neuronas e seguir funcionando. De xeito análogo, na informática tradicional a perda dun transistor afecta ao bo funcionamento. Outra vantaxe prevista e dirixida da computación neuromórfica é que non hai necesidade de ser programado; este último obxectivo volve modelar a capacidade do cerebro humano para aprender, responder e adaptarse aos sinais. Así, a computación neuromórfica é actualmente o mellor candidato para tarefas de aprendizaxe automática e intelixencia artificial. 

    Avances da supercomputación neuromórfica

    O resto deste artigo afondará nos avances da supercomputación neuromórfica. En concreto, a investigación publicada recentemente sobre o Arxiv de Alexander Tait et. al. da Universidade de Princeton mostra que un modelo de rede neuronal fotónica baseado en silicio supera en case 2000 veces un enfoque informático convencional. Esta plataforma fotónica neuromórfica da computación podería levar a un procesamento de información ultrarrápido. 

    Os Tait et. al. papel titulado Fotónica do silicio neuromórfico comeza describindo os pros e os contras de usar a forma de luz fotónica da radiación electromagnética para a computación. Os principais puntos iniciais do traballo son que a luz utilizouse amplamente para a transmisión de información aínda que non para a transformación da información, é dicir, a computación óptica dixital. Do mesmo xeito, para a computación cuántica, existen desafíos físicos fundamentais para a computación óptica dixital. A continuación, o traballo entra nos detalles dunha plataforma de computación fotónica neuromórfica proposta anteriormente, Tait et. al. equipo publicado en 2014, titulado Difusión e peso: unha rede integrada para o procesamento escalable de picos fotónicos. O seu artigo máis recente describe os resultados da primeira demostración experimental dunha rede neuronal fotónica integrada. 

    Na arquitectura de computación de "difusión e peso", aos "nodos" asígnaselles unha "portadora de lonxitude de onda" única que é "multiplexado por división de lonxitude de onda (WDM)" e despois difundido a outros "nodos". Os "nodos" desta arquitectura están destinados a simular o comportamento das neuronas no cerebro humano. A continuación, os sinais "WDM" son procesados ​​a través de filtros de valores continuos chamados "bancos de peso microring (MRR)" e, a continuación, súmanse eléctricamente nun valor de detección de potencia total medido. A non linealidade desta última transformación/cómputo electro-óptico é precisamente a non linealidade necesaria para imitar a funcionalidade das neuronas, esencial para a computación baixo principios neuromórficos. 

    No documento, discuten que estas dinámicas de transformación electro-óptica verificadas experimentalmente son matematicamente idénticas a un modelo de "rede neuronal recorrente en tempo continuo de 2 nodos" (CTRNN). Estes resultados pioneiros suxiren que as ferramentas de programación que se utilizaron para modelos CTRNN poderían aplicarse a plataformas neuromórficas baseadas en silicio. Este descubrimento abre o camiño para adaptar a metodoloxía CTRNN á fotónica do silicio neuromórfico. No seu artigo, fan unha adaptación de modelo á súa arquitectura de "difusión e peso". Os resultados mostran que o modelo CTRNN simulado na súa arquitectura de 49 nodos proporciona a arquitectura de computación neuromórfica para superar os modelos de computación clásicos en 3 ordes de magnitude.   

    etiquetas
    categoría
    Campo temático