Postęp w superkomputerach: wykorzystanie neuromorficznych sieci optycznych

Postęp w superkomputerach: wykorzystanie neuromorficznych sieci optycznych
KREDYT WZROKU:  

Postęp w superkomputerach: wykorzystanie neuromorficznych sieci optycznych

    • Autor Nazwa
      Plan Jasmin Saini
    • Autor Twitter Uchwyt
      !

    Pełna historia (użyj TYLKO przycisku „Wklej z programu Word”, aby bezpiecznie skopiować i wkleić tekst z dokumentu programu Word)

    W ciągu ostatnich kilku dekad, niegdyś dobrze znany i dokładny trend, Prawo Moore'a, przewidziane przez Gordona Moore'a z IBM w 1965 roku, powoli staje się nieaktualną miarą wydajności komputerów. Prawo Moore'a przewidywało, że mniej więcej co dwa lata liczba tranzystorów w układzie scalonym podwaja się, że na tej samej przestrzeni będzie więcej tranzystorów, co prowadzi do zwiększenia mocy obliczeniowej, a tym samym wydajności komputera. W wywiadzie udzielonym w kwietniu 2005 roku sam Gordon Moore stwierdził, że jego prognoza prawdopodobnie nie będzie już trwała: upłyną dwa lub trzy pokolenia, zanim zajdziemy tak daleko – ale to jest tak daleko, jak kiedykolwiek byliśmy w stanie zobaczyć. Mamy kolejne 10 do 20 lat, zanim osiągniemy fundamentalny limit”.   

    Chociaż prawo Moore'a jest skazane na utknięcie w ślepej uliczce, inne wskaźniki informatyki odnotowują wzrost zastosowania. Dzięki technologii, z której korzystamy w naszym codziennym życiu, wszyscy możemy zauważyć, że komputery stają się coraz mniejsze, ale także, że baterie urządzeń działają coraz dłużej. Ten ostatni trend związany z bateriami nazywany jest prawem Koomeya, nazwany na cześć profesora Uniwersytetu Stanforda, Jonathana Koomeya. Prawo Koomeya przewiduje, że „… przy stałym obciążeniu komputera ilość potrzebnej baterii będzie spadać dwukrotnie co półtora roku”. Dlatego elektroniczne zużycie energii lub efektywność energetyczna komputerów podwaja się co około 18 miesięcy. Tak więc wszystkie te trendy i zmiany wskazują i ujawniają przyszłość informatyki.

    Przyszłość komputerów

    Doszliśmy do momentu w historii, w którym musimy na nowo zdefiniować informatykę, ponieważ trendy i prawa przewidywane kilkadziesiąt lat temu nie mają już zastosowania. Ponadto, w miarę jak informatyka zbliża się do skali nano i kwantowej, pojawiają się oczywiste fizyczne ograniczenia i wyzwania do pokonania. Być może najbardziej godna uwagi próba superkomputerów, obliczenia kwantowe, ma oczywiste wyzwanie polegające na prawdziwym wykorzystaniu splątania kwantowego do obliczeń równoległych, to znaczy wykonywania obliczeń przed dekoherencją kwantową. Jednak pomimo wyzwań związanych z komputerami kwantowymi w ciągu ostatnich kilku dekad poczyniono znaczne postępy. Można znaleźć modele tradycyjnej architektury komputerów Johna von Neumanna stosowane w obliczeniach kwantowych. Istnieje jednak inna, mniej znana dziedzina (super)komputerów, nazywana komputerami neuromorficznymi, która nie jest zgodna z tradycyjną architekturą von Neumanna. 

    Obliczenia neuromorficzne zostały wymyślone przez profesora Caltech Carvera Meada w jego przełomowym artykule z 1990 roku. Zasadniczo zasady obliczeń neuromorficznych opierają się na teoretycznych biologicznych zasadach działania, takich jak te, które uważa się za wykorzystywane przez ludzki mózg w obliczeniach. Zwięzłe rozróżnienie między teorią obliczeń neuromorficznych a klasyczną teorią obliczeń von Neumanna zostało podsumowane w artykule Don Monroe w Stowarzyszenie Maszyn Komputerowych dziennik. Stwierdzenie brzmi następująco: „W tradycyjnej architekturze von Neumanna potężny rdzeń logiczny (lub kilka równolegle) działa sekwencyjnie na danych pobranych z pamięci. W przeciwieństwie do tego „neuromorficzne” obliczenia rozdzielają zarówno obliczenia, jak i pamięć między ogromną liczbę stosunkowo prymitywnych „neuronów”, z których każdy komunikuje się z setkami lub tysiącami innych neuronów poprzez „synapsy”.  

    Inne kluczowe cechy obliczeń neuromorficznych obejmują nietolerancję błędów, która ma na celu modelowanie zdolności ludzkiego mózgu do utraty neuronów i nadal zdolnego do funkcjonowania. Analogicznie w tradycyjnych komputerach utrata jednego tranzystora wpływa na prawidłowe działanie. Inną przewidywaną i celową zaletą obliczeń neuromorficznych jest to, że nie trzeba ich programować; tym ostatnim celem jest ponowne modelowanie zdolności ludzkiego mózgu do uczenia się, reagowania i dostosowywania się do sygnałów. Dlatego obliczenia neuromorficzne są obecnie najlepszym kandydatem do zadań związanych z uczeniem maszynowym i sztuczną inteligencją. 

    Postępy superkomputerów neuromorficznych

    W dalszej części tego artykułu zagłębimy się w rozwój superkomputerów neuromorficznych. W szczególności niedawno opublikowane badania na temat Arxiv z Alexander Tait et. glin. z Princeton University pokazuje, że oparty na krzemie fotoniczny model sieci neuronowej przewyższa konwencjonalne podejście obliczeniowe prawie 2000-krotnie. Ta neuromorficzna fotoniczna platforma obliczeniowa może prowadzić do ultraszybkiego przetwarzania informacji. 

    Tait et. glin. papier pt Neuromorficzna fotonika krzemowa zaczyna od opisu zalet i wad wykorzystania fotonicznej formy promieniowania elektromagnetycznego do obliczeń. Początkowe główne punkty artykułu są takie, że światło było szeroko stosowane do przesyłania informacji, ale nie do ich przetwarzania, tj. cyfrowych obliczeń optycznych. Podobnie jak w przypadku komputerów kwantowych, cyfrowe obliczenia optyczne wiążą się z fundamentalnymi fizycznymi wyzwaniami. Następnie artykuł przechodzi do szczegółów wcześniej proponowanej neuromorficznej fotonicznej platformy obliczeniowej Tait et. glin. zespół opublikowany w 2014 roku pt Transmisja i waga: zintegrowana sieć do skalowalnego przetwarzania impulsów fotonicznych. Ich nowszy artykuł opisuje wyniki pierwszej eksperymentalnej demonstracji zintegrowanej fotonicznej sieci neuronowej. 

    W architekturze obliczeniowej „rozgłaszania i wagi” „węzłom” przypisywana jest unikalna „nośna długości fali”, która jest „multipleksowana z podziałem długości fali (WDM)”, a następnie transmitowana do innych „węzłów”. „Węzły” w tej architekturze mają symulować zachowanie neuronów w ludzkim mózgu. Następnie sygnały „WDM” są przetwarzane przez filtry o wartościach ciągłych zwane „bankami wagowymi mikropierścieniowymi (MRR)”, a następnie sumowane elektrycznie do zmierzonej całkowitej wartości wykrywanej mocy. Nieliniowość tej ostatniej transformacji/obliczeń elektrooptycznych jest właśnie nieliniowością wymaganą do naśladowania funkcjonalności neuronów, niezbędną do obliczeń zgodnie z zasadami neuromorficznymi. 

    W artykule omawiają, że ta zweryfikowana eksperymentalnie dynamika transformacji elektrooptycznej jest matematycznie identyczna z modelem „2-węzłowej ciągłej rekurencyjnej sieci neuronowej” (CTRNN). Te pionierskie wyniki sugerują, że narzędzia programistyczne, które były wykorzystywane w modelach CTRNN, można zastosować w platformach neuromorficznych opartych na krzemie. To odkrycie otwiera drogę do adaptacji metodologii CTRNN do neuromorficznej fotoniki krzemowej. W swoim artykule dokonują właśnie takiej adaptacji modelu do swojej architektury „transmisyjnej i wagowej”. Wyniki pokazują, że model CTRNN symulowany na ich 49-węzłowej architekturze daje neuromorficzną architekturę obliczeniową, która przewyższa klasyczne modele obliczeniowe o 3 rzędy wielkości.   

    Tagi
    Kategoria
    Tagi
    Pole tematu

    PRZYSZŁY CZAS