Avances en supercomputación: uso de redes ópticas neuromórficas

Avances en supercomputación: uso de redes ópticas neuromórficas
CREDITO DE IMAGEN:  

Avances en supercomputación: uso de redes ópticas neuromórficas

    • Nombre del autor
      Plan Jasmín Saini
    • Identificador de Twitter del autor
      @Quantumrun

    Historia completa (ÚNICAMENTE use el botón 'Pegar desde Word' para copiar y pegar texto de forma segura desde un documento de Word)

    En las últimas décadas, la alguna vez conocida y precisa tendencia, la Ley de Moore, predicha por Gordon Moore de IBM en 1965, se está convirtiendo lentamente en una medida extinta del rendimiento informático. La Ley de Moore predijo que aproximadamente cada dos años el número de transistores en un circuito integrado se duplicaría, que habría más transistores en la misma cantidad de espacio, lo que conduciría a un aumento de la computación y, por tanto, del rendimiento de la computadora. En abril de 2005, en una entrevista, el propio Gordon Moore afirmó que su proyección probablemente ya no sería sostenible: “En términos de tamaño [de los transistores] se puede ver que nos estamos acercando al tamaño de los átomos, lo cual es una barrera fundamental, pero Pasarán dos o tres generaciones antes de que lleguemos tan lejos, pero eso es lo más lejos que jamás hemos podido ver. Nos quedan otros 10 o 20 años antes de alcanzar un límite fundamental”.   

    Aunque la ley de Moore está condenada a llegar a un callejón sin salida, otros indicadores de la informática están experimentando un aumento en su aplicabilidad. Con la tecnología que utilizamos en nuestra vida diaria, todos podemos ver la tendencia de que las computadoras sean cada vez más pequeñas, pero también que las baterías de los dispositivos duran cada vez más. Esta última tendencia con las baterías se denomina Ley de Koomey, que lleva el nombre del profesor de la Universidad de Stanford, Jonathan Koomey. La ley de Koomey predice que "... con una carga informática fija, la cantidad de batería necesaria se reducirá a dos veces cada año y medio". Por lo tanto, el consumo de energía electrónica o la eficiencia energética de las computadoras se duplica aproximadamente cada 18 meses. Entonces, lo que todas estas tendencias y cambios apuntan y revelan es el futuro de la informática.

    El futuro de la computación

    Hemos llegado a un momento de la historia en el que tenemos que redefinir la informática, ya que las tendencias y leyes predichas hace varias décadas ya no son aplicables. Además, a medida que la informática avanza hacia las escalas nano y cuántica, existen limitaciones físicas obvias y desafíos que superar. Quizás el intento más notable de supercomputación, la computación cuántica, tiene el desafío obvio de aprovechar verdaderamente el entrelazamiento cuántico para la computación paralela, es decir, realizar cálculos antes de la decoherencia cuántica. Sin embargo, a pesar de los desafíos de la computación cuántica, ha habido muchos avances en las últimas décadas. Se pueden encontrar modelos de la arquitectura informática tradicional de John von Neumann aplicada a la computación cuántica. Pero hay otro ámbito no tan conocido de la (super)computación, denominado computación neuromórfica que no sigue la arquitectura tradicional de von Neumann. 

    La computación neuromórfica fue imaginada por el profesor de Caltech Carver Mead en su artículo fundamental de 1990. Fundamentalmente, los principios de la computación neuromórfica se basan en principios de acción biológicos teorizados, como los que se cree que utiliza el cerebro humano en la computación. Una distinción sucinta entre la teoría de la computación neuromórfica y la teoría de la computación clásica de von Neumann se resumió en un artículo de Don Monroe en Association for Computing Machinery diario. La declaración dice así: “En la arquitectura tradicional de von Neumann, un potente núcleo lógico (o varios en paralelo) opera secuencialmente con datos obtenidos de la memoria. Por el contrario, la computación “neuromórfica” distribuye tanto la computación como la memoria entre una enorme cantidad de “neuronas” relativamente primitivas, cada una de las cuales se comunica con cientos o miles de otras neuronas a través de “sinapsis”.  

    Otras características clave de la computación neuromórfica incluyen la intolerancia a fallas, cuyo objetivo es modelar la capacidad del cerebro humano para perder neuronas y aún así poder funcionar. De manera análoga, en la informática tradicional la pérdida de un transistor afecta al correcto funcionamiento. Otra ventaja prevista y buscada de la computación neuromórfica es que no es necesario estar programado; Este último objetivo es nuevamente modelar la capacidad del cerebro humano para aprender, responder y adaptarse a las señales. Así, la computación neuromórfica es actualmente la mejor candidata para tareas de aprendizaje automático e inteligencia artificial. 

    Avances de la supercomputación neuromórfica

    El resto de este artículo profundizará en los avances de la supercomputación neuromórfica. Específicamente, una investigación publicada recientemente sobre Arxiv por Alexander Tait et. Alabama. de la Universidad de Princeton muestra que un modelo de red neuronal fotónica basado en silicio supera a un enfoque informático convencional en casi 2000 veces. Esta plataforma informática fotónica neuromórfica podría conducir a un procesamiento de información ultrarrápido. 

    El Tait et. Alabama. documento titulado Fotónica de silicio neuromórfica Comienza describiendo los pros y los contras de utilizar la forma de luz fotónica de radiación electromagnética para la informática. Los puntos principales iniciales del artículo son que la luz se ha utilizado ampliamente para la transmisión de información, pero no para la transformación de la información, es decir, la computación óptica digital. De manera similar, en el caso de la computación cuántica, existen desafíos físicos fundamentales para la computación óptica digital. Luego, el artículo detalla los detalles de una plataforma de computación fotónica neuromórfica propuesta anteriormente, Tait et. Alabama. equipo publicado en 2014, titulado Difusión y peso: una red integrada para el procesamiento escalable de picos fotónicos. Su artículo más reciente describe los resultados de la primera demostración experimental de una red neuronal fotónica integrada. 

    En la arquitectura informática de “difusión y peso”, a los “nodos” se les asigna una “portadora de longitud de onda” única que se “multiplexa por división de longitud de onda (WDM)” y luego se transmite a otros “nodos”. Los "nodos" de esta arquitectura están destinados a simular el comportamiento de las neuronas en el cerebro humano. Luego, las señales "WDM" se procesan a través de filtros de valor continuo llamados "bancos de peso de microanillo (MRR)" y luego se suman eléctricamente en un valor de detección de potencia total medido. La no linealidad de esta última transformación/cálculo electroóptico es precisamente la no linealidad requerida para imitar la funcionalidad de las neuronas, esencial para la computación bajo principios neuromórficos. 

    En el artículo, discuten que estas dinámicas de transformación electroóptica verificadas experimentalmente son matemáticamente idénticas a un modelo de "red neuronal recurrente de tiempo continuo de 2 nodos" (CTRNN). Estos resultados pioneros sugieren que las herramientas de programación que se han utilizado para los modelos CTRNN podrían aplicarse a plataformas neuromórficas basadas en silicio. Este descubrimiento abre el camino para adaptar la metodología CTRNN a la fotónica de silicio neuromórfica. En su artículo, hacen precisamente esa adaptación del modelo a su arquitectura de “difusión y peso”. Los resultados muestran que el modelo CTRNN simulado en su arquitectura de 49 nodos produce una arquitectura informática neuromórfica que supera a los modelos informáticos clásicos en 3 órdenes de magnitud.   

    Etiquetas
    Categoría
    Etiquetas
    campo de tema