Avancées en superinformatique : utilisation de réseaux optiques neuromorphiques

Avancées en superinformatique : utilisation de réseaux optiques neuromorphiques
CRÉDIT D'IMAGE:  

Avancées en superinformatique : utilisation de réseaux optiques neuromorphiques

    • Nom de l'auteur
      Plan Jasmin Saini
    • Nom Twitter de l'auteur
      @Quantumrun

    Histoire complète (utilisez UNIQUEMENT le bouton "Coller à partir de Word" pour copier et coller en toute sécurité du texte à partir d'un document Word)

    Au cours des dernières décennies, la tendance autrefois bien connue et précise, la loi de Moore, prédite par Gordon Moore d'IBM en 1965, devient lentement une mesure obsolète des performances informatiques. La loi de Moore prévoyait que tous les deux ans environ, le nombre de transistors dans un circuit intégré doublerait, qu'il y aurait plus de transistors dans le même espace, ce qui entraînerait une augmentation des calculs et donc des performances informatiques. En avril 2005, dans une interview, Gordon Moore lui-même déclarait que sa projection ne serait probablement plus soutenable : « En termes de taille [des transistors], vous pouvez voir que nous nous rapprochons de la taille des atomes qui est une barrière fondamentale, mais elle il faudra deux ou trois générations avant d'en arriver là, mais c'est aussi loin que nous ayons jamais pu voir. Nous avons encore 10 à 20 ans avant d'atteindre une limite fondamentale.   

    Bien que la loi de Moore soit vouée à une impasse, d'autres indicateurs de l'informatique voient leur applicabilité augmenter. Avec la technologie que nous utilisons dans notre vie quotidienne, nous pouvons tous constater que les ordinateurs deviennent de plus en plus petits, mais aussi que les batteries des appareils durent de plus en plus longtemps. Cette dernière tendance avec les batteries est appelée loi de Koomey, du nom de Jonathan Koomey, professeur à l'Université de Stanford. La loi de Koomey prédit que "… à une charge de calcul fixe, la quantité de batterie dont vous avez besoin diminuera d'un facteur deux tous les ans et demi". Par conséquent, la consommation d'énergie électronique ou l'efficacité énergétique des ordinateurs double environ tous les 18 mois. Donc, ce que toutes ces tendances et ces changements pointent et révèlent, c'est l'avenir de l'informatique.

    L'avenir de l'informatique

    Nous sommes arrivés à un moment de l'histoire où nous devons redéfinir l'informatique car les tendances et les lois prédites il y a plusieurs décennies ne sont plus applicables. De plus, alors que l'informatique pousse vers les échelles nano et quantique, il y a des limites physiques évidentes et des défis à surmonter. Peut-être la tentative la plus notable de supercalcul, l'informatique quantique, a le défi évident d'exploiter véritablement l'intrication quantique pour le calcul parallèle, c'est-à-dire d'effectuer des calculs avant la décohérence quantique. Cependant, malgré les défis de l'informatique quantique, il y a eu beaucoup de progrès au cours des dernières décennies. On peut trouver des modèles de l'architecture informatique traditionnelle de John von Neumann appliquée à l'informatique quantique. Mais il existe un autre domaine moins connu de (super)informatique, appelé informatique neuromorphique, qui ne suit pas l'architecture traditionnelle de von Neumann. 

    L'informatique neuromorphique a été envisagée par le professeur Caltech Carver Mead dans son article fondateur en 1990. Fondamentalement, les principes de l'informatique neuromorphique sont basés sur des principes d'action biologiques théorisés, comme ceux que l'on pense être utilisés par le cerveau humain dans le calcul. Une distinction succincte entre la théorie informatique neuromorphique et la théorie informatique classique de von Neumann a été résumée dans un article de Don Monroe dans le Association for Computing Machinery journal. La déclaration est la suivante : « Dans l'architecture traditionnelle de von Neumann, un noyau logique puissant (ou plusieurs en parallèle) fonctionne séquentiellement sur les données extraites de la mémoire. En revanche, l'informatique «neuromorphe» distribue à la fois le calcul et la mémoire entre un nombre énorme de «neurones» relativement primitifs, chacun communiquant avec des centaines ou des milliers d'autres neurones par le biais de «synapses».  

    Parmi les autres caractéristiques clés de l'informatique neuromorphique, citons l'intolérance aux pannes, qui vise à modéliser la capacité du cerveau humain à perdre des neurones tout en continuant à fonctionner. De manière analogue, dans l'informatique traditionnelle, la perte d'un transistor affecte le bon fonctionnement. Un autre avantage envisagé et visé de l'informatique neuromorphique est qu'il n'y a pas besoin d'être programmé; ce dernier objectif modélise à nouveau la capacité du cerveau humain à apprendre, à répondre et à s'adapter aux signaux. Ainsi, l'informatique neuromorphique est actuellement le meilleur candidat pour les tâches d'apprentissage automatique et d'intelligence artificielle. 

    Avancées du supercalcul neuromorphique

    Le reste de cet article se penchera sur les avancées du supercalcul neuromorphique. Plus précisément, des recherches récemment publiées sur l'Arxiv d'Alexander Tait et. Al. de l'Université de Princeton montre qu'un modèle de réseau de neurones photoniques à base de silicium surpasse de près de 2000 fois une approche informatique conventionnelle. Cette plate-forme informatique photonique neuromorphique pourrait conduire à un traitement ultra-rapide de l'information. 

    Les Tait et. Al. papier intitulé Photonique neuromorphique sur silicium commence par décrire les avantages et les inconvénients de l'utilisation de la forme lumineuse photonique du rayonnement électromagnétique pour l'informatique. Les principaux points initiaux de l'article sont que la lumière a été largement utilisée pour la transmission de l'information mais pas pour la transformation de l'information, c'est-à-dire l'informatique optique numérique. De même, pour l'informatique quantique, l'informatique optique numérique présente des défis physiques fondamentaux. L'article entre ensuite dans les détails d'une plate-forme informatique photonique neuromorphique proposée antérieurement, Tait et. Al. équipe publié en 2014, intitulé Diffusion et pondération : un réseau intégré pour le traitement évolutif des pics photoniques. Leur article le plus récent décrit les résultats de la première démonstration expérimentale d'un réseau neuronal photonique intégré. 

    Dans l'architecture informatique "diffusion et pondération", les "nœuds" se voient attribuer une "porteuse de longueur d'onde" unique qui est "multiplexée par répartition en longueur d'onde (WDM)" puis diffusée vers d'autres "nœuds". Les « nœuds » de cette architecture sont destinés à simuler le comportement des neurones dans le cerveau humain. Ensuite, les signaux "WDM" sont traités via des filtres à valeur continue appelés "banques de poids microring (MRR)" puis additionnés électriquement en une valeur de détection de puissance totale mesurée. La non-linéarité de cette dernière transformation/calcul électro-optique est précisément la non-linéarité requise pour imiter la fonctionnalité des neurones, essentielle au calcul selon les principes neuromorphiques. 

    Dans l'article, ils discutent du fait que ces dynamiques de transformation électro-optique vérifiées expérimentalement sont mathématiquement identiques à un modèle de « réseau neuronal récurrent en temps continu à 2 nœuds » (CTRNN). Ces résultats pionniers suggèrent que les outils de programmation qui ont été utilisés pour les modèles CTRNN pourraient être appliqués aux plateformes neuromorphiques à base de silicium. Cette découverte ouvre la voie à l'adaptation de la méthodologie CTRNN à la photonique neuromorphique sur silicium. Dans leur article, ils font justement une telle adaptation de modèle sur leur architecture «diffusion et pondération». Les résultats montrent que le modèle CTRNN simulé sur leur architecture à 49 nœuds donne l'architecture informatique neuromorphique pour surpasser les modèles informatiques classiques de 3 ordres de grandeur.