슈퍼컴퓨팅의 발전: 뉴로모픽 광 네트워크 사용

슈퍼컴퓨팅 발전: 뉴로모픽 광 네트워크 사용
이미지 크레딧:  

슈퍼컴퓨팅의 발전: 뉴로모픽 광 네트워크 사용

    • 저자 이름
      자스민 사이니 플랜
    • 작성자 트위터 핸들
      @퀀텀런

    전체 이야기(Word 문서에서 텍스트를 안전하게 복사하여 붙여넣으려면 'Word에서 붙여넣기' 버튼만 사용)

    지난 수십 년 동안, 1965년 IBM의 고든 무어(Gordon Moore)가 예측한 무어의 법칙(Moore's Law)은 한때 잘 알려져 있었고 정확한 추세였지만 이제는 서서히 컴퓨팅 성능을 측정하는 척도가 되어가고 있습니다. 무어의 법칙은 집적 회로의 트랜지스터 수가 약 2005년마다 두 배로 늘어나고, 같은 공간에 더 많은 트랜지스터가 있게 되어 계산이 향상되어 컴퓨터 성능이 향상될 것이라고 예측했습니다. 10년 20월 인터뷰에서 Gordon Moore는 자신의 예측이 더 이상 지속 가능하지 않을 것이라고 말했습니다. “[트랜지스터의] 크기 측면에서 우리는 근본적인 장벽인 원자 크기에 접근하고 있음을 알 수 있습니다. 우리가 거기까지 도달하려면 XNUMX~XNUMX세대가 걸릴 것입니다. 하지만 그것은 우리가 지금까지 볼 수 있었던 것 중 가장 먼 이야기입니다. 근본적인 한계에 도달하려면 앞으로 XNUMX~XNUMX년이 더 필요하다”고 말했다.   

    무어의 법칙은 어느 정도 막다른 골목에 부딪힐 운명이지만, 컴퓨팅의 다른 지표에서는 적용 가능성이 높아지고 있습니다. 우리가 일상생활에서 사용하는 기술을 통해 우리 모두는 컴퓨터가 점점 작아지는 추세를 볼 수 있지만 장치 배터리는 점점 더 오래 지속됩니다. 배터리에 대한 후자의 경향은 스탠포드 대학의 조나단 쿠미(Jonathan Koomey) 교수의 이름을 딴 쿠미의 법칙(Koomey's Law)이라고 불립니다. Koomey의 법칙은 "... 고정된 컴퓨팅 부하에서 필요한 배터리 양은 18년 반마다 XNUMX배씩 감소할 것"이라고 예측합니다. 따라서 컴퓨터의 전자 전력 소비 또는 에너지 효율성은 약 XNUMX개월마다 두 배로 증가합니다. 따라서 이러한 모든 추세와 변화가 가리키고 드러나는 것은 컴퓨팅의 미래입니다.

    컴퓨팅의 미래

    우리는 수십 년 전에 예측된 추세와 법칙이 더 이상 적용되지 않음에 따라 컴퓨팅을 재정의해야 하는 역사상 시대에 이르렀습니다. 또한 컴퓨팅이 나노 및 양자 규모로 발전함에 따라 극복해야 할 명백한 물리적 한계와 과제가 있습니다. 아마도 슈퍼컴퓨팅에서 가장 주목할만한 시도인 양자 컴퓨팅은 병렬 계산을 위해 양자 얽힘을 실제로 활용하는 것, 즉 양자 결맞음 이전에 계산을 수행하는 명백한 과제를 안고 있습니다. 그러나 양자 컴퓨팅의 어려움에도 불구하고 지난 수십 년 동안 많은 진전이 있었습니다. 양자 컴퓨팅에 적용된 전통적인 John von Neumann 컴퓨터 아키텍처의 모델을 찾을 수 있습니다. 그러나 잘 알려지지 않은 또 다른 (슈퍼)컴퓨팅 영역이 있는데, 이를 뉴로모픽 컴퓨팅이라고 하며 전통적인 폰 노이만 아키텍처를 따르지 않습니다. 

    뉴로모픽 컴퓨팅은 Caltech 교수인 Carver Mead가 1990년에 발표한 논문에서 구상한 것입니다. 기본적으로 뉴로모픽 컴퓨팅의 원리는 인간의 두뇌가 계산에 활용한다고 생각되는 것과 같은 이론화된 생물학적 행동 원리를 기반으로 합니다. 뉴로모픽 컴퓨팅 이론과 고전적인 폰 노이만 컴퓨팅 이론 사이의 간결한 차이점은 Don Monroe의 기사에 요약되어 있습니다. 컴퓨터 기계 연합 신문. 설명은 다음과 같습니다. “전통적인 폰 노이만 아키텍처에서는 강력한 로직 코어(또는 병렬로 연결된 여러 개)가 메모리에서 가져온 데이터에 대해 순차적으로 작동합니다. 대조적으로, '뉴로모픽' 컴퓨팅은 상대적으로 원시적인 수많은 '뉴런'에 계산과 메모리를 모두 분배하며, 각각은 '시냅스'를 통해 수백 또는 수천 개의 다른 뉴런과 통신합니다."  

    뉴로모픽 컴퓨팅의 다른 주요 특징으로는 내결함성(fault intolerance)이 있는데, 이는 뉴런을 잃어도 여전히 기능할 수 있는 인간 두뇌의 능력을 모델링하는 것을 목표로 합니다. 마찬가지로, 전통적인 컴퓨팅에서는 트랜지스터 하나가 손실되면 적절한 기능에 영향을 미칩니다. 뉴로모픽 컴퓨팅의 또 다른 구상되고 목표된 이점은 프로그래밍할 필요가 없다는 것입니다. 이 마지막 목표는 인간 두뇌의 학습, 반응 및 신호 적응 능력을 다시 모델링하는 것입니다. 따라서 뉴로모픽 컴퓨팅은 현재 기계 학습 및 인공 지능 작업에 가장 적합한 후보입니다. 

    뉴로모픽 슈퍼컴퓨팅의 발전

    이 기사의 나머지 부분에서는 뉴로모픽 슈퍼컴퓨팅의 발전을 살펴보겠습니다. 특히 최근 Alexander Tait et.의 Arxiv에 대한 연구 결과가 발표되었습니다. 알. Princeton University의 연구진은 실리콘 기반 광자 신경망 모델이 기존 컴퓨팅 접근 방식보다 거의 2000배 더 뛰어난 성능을 보여줍니다. 이 뉴로모픽 광자 컴퓨팅 플랫폼은 초고속 정보 처리로 이어질 수 있습니다. 

    Tait et. 알. 제목의 논문 뉴로모픽 실리콘 포토닉스 컴퓨팅을 위해 광자 형태의 전자기 방사선을 사용하는 것의 장단점을 설명하는 것으로 시작합니다. 논문의 초기 요점은 빛이 정보 전송에 널리 사용되었지만 정보 변환, 즉 디지털 광 컴퓨팅에는 사용되지 않았다는 것입니다. 마찬가지로 양자 컴퓨팅에도 디지털 광학 컴퓨팅에는 근본적인 물리적 과제가 있습니다. 그런 다음 논문에서는 이전에 제안된 뉴로모픽 광자 컴퓨팅 플랫폼인 Tait et.의 세부 사항을 설명합니다. 알. 2014년에 출판된 팀 브로드캐스트 및 중량: 확장 가능한 포토닉 스파이크 처리를 위한 통합 네트워크. 그들의 최신 논문은 통합 광자 신경망의 첫 번째 실험 시연 결과를 설명합니다. 

    "방송 및 가중치" 컴퓨팅 아키텍처에서 "노드"에는 "WDM(파장 분할 다중화)"인 고유한 "파장 반송파"가 할당된 다음 다른 "노드"로 방송됩니다. 이 아키텍처의 "노드"는 인간 두뇌의 뉴런 동작을 시뮬레이션하기 위한 것입니다. 그런 다음 "WDM" 신호는 "마이크로링(MRR) 웨이트 뱅크"라고 하는 연속 값 필터를 통해 처리된 다음 측정된 총 전력 감지 값으로 전기적으로 합산됩니다. 이 마지막 전기 광학 변환/계산의 비선형성은 정확히 뉴로모픽 원리에 따른 컴퓨팅에 필수적인 뉴런 기능을 모방하는 데 필요한 비선형성입니다. 

    논문에서 그들은 실험적으로 검증된 이러한 전기 광학 변환 역학이 "2노드 연속 시간 순환 신경망"(CTRNN) 모델과 수학적으로 동일하다고 논의합니다. 이러한 선구적인 결과는 CTRNN 모델에 사용된 프로그래밍 도구가 실리콘 기반 뉴로모픽 플랫폼에 적용될 수 있음을 시사합니다. 이 발견은 CTRNN 방법론을 뉴로모픽 실리콘 포토닉스에 적용하는 길을 열어줍니다. 그들의 논문에서 그들은 "방송 및 가중치" 아키텍처에 이러한 모델 적용을 수행합니다. 결과는 49노드 아키텍처에 시뮬레이션된 CTRNN 모델이 뉴로모픽 컴퓨팅 아키텍처를 생성하여 기존 컴퓨팅 모델보다 3배 더 뛰어난 성능을 발휘한다는 것을 보여줍니다.   

    태그
    태그
    주제 필드