پیشرفت های ابررایانه: با استفاده از شبکه های نوری نورومورفیک
پیشرفت های ابررایانه: با استفاده از شبکه های نوری نورومورفیک
در چند دهه اخیر، روند زمانی شناخته شده و دقیق، قانون مور، که توسط گوردون مور از IBM در سال 1965 پیش بینی شد، اکنون به آرامی به معیاری از بین رفته برای عملکرد محاسباتی تبدیل شده است. قانون مور پیشبینی میکرد که تقریباً هر دو سال یک بار تعداد ترانزیستورها در یک مدار مجتمع دو برابر میشود و ترانزیستورهای بیشتری در همان مقدار فضا وجود خواهند داشت که منجر به افزایش محاسبات و در نتیجه عملکرد رایانه میشود. در آوریل 2005، خود گوردون مور در مصاحبهای اظهار داشت که پیشبینیاش احتمالاً دیگر پایدار نخواهد بود: «از نظر اندازه [ترانزیستورها] میتوانید ببینید که ما به اندازه اتمها نزدیک میشویم که یک مانع اساسی است، اما دو یا سه نسل قبل از رسیدن به این حد خواهد بود - اما آنقدر دور است که ما تا به حال توانسته ایم ببینیم. 10 تا 20 سال دیگر فرصت داریم تا به یک حد اساسی برسیم.»
اگرچه قانون مور محکوم به بنبست است، اما سایر شاخصهای محاسباتی شاهد افزایش کاربردپذیری هستند. با فناوریای که در زندگی روزمره خود استفاده میکنیم، همه ما میتوانیم شاهد کوچکتر شدن و کوچکتر شدن رایانهها باشیم، اما همچنین باتریهای دستگاهها بیشتر و بیشتر عمر میکنند. گرایش اخیر در باتریها، قانون کومی نامیده میشود که به نام جاناتان کومی، استاد دانشگاه استنفورد، نامگذاری شده است. قانون کومی پیش بینی می کند که "... در یک بار محاسباتی ثابت، مقدار باتری مورد نیاز شما هر سال و نیم دو برابر کاهش می یابد." بنابراین مصرف برق الکترونیکی یا بازده انرژی کامپیوترها حدودا هر 18 ماه دو برابر می شود. بنابراین، آنچه که همه این روندها و تغییرات به آن اشاره می کنند و آشکار می کنند، آینده محاسبات است.
آینده محاسبات
ما به زمانی در تاریخ رسیدهایم که مجبوریم محاسبات را دوباره تعریف کنیم زیرا روندها و قوانین پیشبینیشده چندین دهه پیش دیگر قابل اجرا نیستند. همچنین، همانطور که محاسبات به سمت مقیاسهای نانو و کوانتومی پیش میرود، محدودیتها و چالشهای فیزیکی آشکاری وجود دارد. شاید برجستهترین تلاش در ابر محاسبات، محاسبات کوانتومی، چالش آشکار مهار درهم تنیدگی کوانتومی برای محاسبات موازی، یعنی انجام محاسبات قبل از ناهمدوسی کوانتومی را داشته باشد. با این حال، با وجود چالشهای محاسبات کوانتومی، در چند دهه گذشته پیشرفتهای زیادی صورت گرفته است. می توان مدل هایی از معماری سنتی کامپیوتر جان فون نویمان را یافت که در محاسبات کوانتومی به کار رفته است. اما یک قلمرو نه چندان شناخته شده دیگر از محاسبات (فوق العاده) وجود دارد که محاسبات نورومورفیک نامیده می شود که از معماری سنتی فون نویمان پیروی نمی کند.
محاسبات نورومورفیک توسط پروفسور کلتک کارور مید در مقاله اصلی خود در سال 1990 پیش بینی شد. اساساً، اصول محاسبات نورومورفیک بر اساس اصول بیولوژیکی تئوری شده عمل است، مانند آنهایی که تصور می شود مغز انسان در محاسبات از آنها استفاده می کند. تمایز مختصر بین نظریه محاسبات نورومورفیک در مقابل نظریه محاسبات کلاسیک فون نویمان در مقالهای توسط دان مونرو خلاصه شد. انجمن رایانه ماشین آلات مجله. این بیانیه به این صورت است: «در معماری سنتی فون نویمان، یک هسته منطقی قدرتمند (یا چندین هسته به صورت موازی) به طور متوالی بر روی دادههای واکشی شده از حافظه عمل میکند. در مقابل، محاسبات «نورومورفیک» هم محاسبات و هم حافظه را بین تعداد زیادی از «نورونهای» نسبتاً ابتدایی توزیع میکند که هر کدام از طریق «سیناپس» با صدها یا هزاران نورون دیگر ارتباط برقرار میکنند.»
دیگر ویژگیهای کلیدی محاسبات نورومورفیک شامل عدم تحمل خطا است که هدف آن مدلسازی توانایی مغز انسان برای از دست دادن نورونها و همچنان قادر به عملکرد است. به طور مشابه، در محاسبات سنتی از دست دادن یک ترانزیستور بر عملکرد صحیح تأثیر می گذارد. یکی دیگر از مزیت های پیش بینی شده و هدفمند محاسبات نورومورفیک این است که نیازی به برنامه ریزی نیست. این آخرین هدف دوباره مدل سازی توانایی مغز انسان برای یادگیری، پاسخ و انطباق با سیگنال ها است. بنابراین، محاسبات نورومورفیک در حال حاضر بهترین نامزد برای یادگیری ماشین و وظایف هوش مصنوعی است.
پیشرفت های ابر محاسباتی نورومورفیک
بقیه این مقاله به پیشرفتهای ابررایانهی نورومورفیک میپردازد. به طور خاص، اخیراً تحقیقاتی در مورد Arxiv از الکساندر تایت و همکاران منتشر شده است. al. از دانشگاه پرینستون نشان می دهد که یک مدل شبکه عصبی فوتونیک مبتنی بر سیلیکون تقریباً 2000 برابر از روش محاسباتی معمولی بهتر عمل می کند. این پلت فرم نورومورفیک فوتونیک محاسباتی می تواند به پردازش اطلاعات فوق سریع منجر شود.
Tait et. al. مقاله با عنوان فوتونیک سیلیکون نورومورفیک شروع به تشریح مزایا و معایب استفاده از فرم نور فوتونیک تابش الکترومغناطیسی برای محاسبات می کند. نکات اصلی اولیه مقاله این است که نور به طور گسترده برای انتقال اطلاعات استفاده شده است، اما نه برای تبدیل اطلاعات، یعنی محاسبات نوری دیجیتال. به طور مشابه، برای محاسبات کوانتومی، چالشهای فیزیکی اساسی برای محاسبات نوری دیجیتال وجود دارد. این مقاله سپس به جزئیات یک پلت فرم محاسباتی فوتونیک نورومورفیک پیشنهادی قبلی به نام Tait et میپردازد. al. تیم منتشر شده در سال 2014، با عنوان پخش و وزن: یک شبکه یکپارچه برای پردازش سنبله فوتونی مقیاس پذیر. مقاله جدیدتر آنها نتایج اولین نمایش تجربی یک شبکه عصبی فوتونیک یکپارچه را توصیف می کند.
در معماری محاسباتی "پخش و وزن"، به "گره ها" یک "حامل طول موج" منحصر به فرد اختصاص داده می شود که "تقسیم طول موج چندگانه (WDM)" است و سپس به "گره های" دیگر پخش می شود. "گره ها" در این معماری به منظور شبیه سازی رفتار نورون ها در مغز انسان هستند. سپس سیگنالهای «WDM» از طریق فیلترهای با ارزش پیوسته به نام «بانکهای وزن میکرورینگ (MRR)» پردازش میشوند و سپس به صورت الکتریکی در یک مقدار تشخیص توان کل اندازهگیری شده جمع میشوند. غیر خطی بودن این آخرین تبدیل/محاسبه الکترواپتیک دقیقاً غیرخطی بودن مورد نیاز برای تقلید از عملکرد نورون است که برای محاسبات تحت اصول نورومورفیک ضروری است.
در این مقاله، آنها بحث میکنند که این دینامیکهای تبدیل الکترواپتیک تأیید شده از نظر ریاضی با مدل «شبکه عصبی بازگشتی پیوسته ۲ گرهای» (CTRNN) یکسان هستند. این نتایج پیشگام نشان میدهد که ابزارهای برنامهنویسی که برای مدلهای CTRNN استفاده شدهاند، میتوانند برای پلتفرمهای نورومورفیک مبتنی بر سیلیکون اعمال شوند. این کشف مسیر را برای انطباق روش CTRNN با فوتونیک سیلیکون نورومورفیک باز می کند. در مقاله خود، آنها دقیقاً چنین مدلی را با معماری "پخش و وزن" خود تطبیق می دهند. نتایج نشان میدهد که مدل CTRNN شبیهسازیشده بر روی معماری 2 گرهای آنها، معماری محاسباتی نورومورفیک را برای عملکرد بهتر از مدلهای محاسباتی کلاسیک با 49 مرتبه بزرگی به ارمغان میآورد.