پیشرفت های ابررایانه: با استفاده از شبکه های نوری نورومورفیک

پیشرفت‌های ابررایانه: استفاده از شبکه‌های نوری نورومورفیک
اعتبار تصویر:  

پیشرفت های ابررایانه: با استفاده از شبکه های نوری نورومورفیک

    • نام نویسنده
      طرح یاسمین ساینی
    • نویسنده توییتر هندل
      @Quantumrun

    داستان کامل (فقط از دکمه «جای‌گذاری از ورد» برای کپی و جای‌گذاری ایمن متن از یک سند Word استفاده کنید)

    در چند دهه اخیر، روند زمانی شناخته شده و دقیق، قانون مور، که توسط گوردون مور از IBM در سال 1965 پیش بینی شد، اکنون به آرامی به معیاری از بین رفته برای عملکرد محاسباتی تبدیل شده است. قانون مور پیش‌بینی می‌کرد که تقریباً هر دو سال یک بار تعداد ترانزیستورها در یک مدار مجتمع دو برابر می‌شود و ترانزیستورهای بیشتری در همان مقدار فضا وجود خواهند داشت که منجر به افزایش محاسبات و در نتیجه عملکرد رایانه می‌شود. در آوریل 2005، خود گوردون مور در مصاحبه‌ای اظهار داشت که پیش‌بینی‌اش احتمالاً دیگر پایدار نخواهد بود: «از نظر اندازه [ترانزیستورها] می‌توانید ببینید که ما به اندازه اتم‌ها نزدیک می‌شویم که یک مانع اساسی است، اما دو یا سه نسل قبل از رسیدن به این حد خواهد بود - اما آنقدر دور است که ما تا به حال توانسته ایم ببینیم. 10 تا 20 سال دیگر فرصت داریم تا به یک حد اساسی برسیم.»   

    اگرچه قانون مور محکوم به بن‌بست است، اما سایر شاخص‌های محاسباتی شاهد افزایش کاربردپذیری هستند. با فناوری‌ای که در زندگی روزمره خود استفاده می‌کنیم، همه ما می‌توانیم شاهد کوچک‌تر شدن و کوچک‌تر شدن رایانه‌ها باشیم، اما همچنین باتری‌های دستگاه‌ها بیشتر و بیشتر عمر می‌کنند. گرایش اخیر در باتری‌ها، قانون کومی نامیده می‌شود که به نام جاناتان کومی، استاد دانشگاه استنفورد، نامگذاری شده است. قانون کومی پیش بینی می کند که "... در یک بار محاسباتی ثابت، مقدار باتری مورد نیاز شما هر سال و نیم دو برابر کاهش می یابد." بنابراین مصرف برق الکترونیکی یا بازده انرژی کامپیوترها حدودا هر 18 ماه دو برابر می شود. بنابراین، آنچه که همه این روندها و تغییرات به آن اشاره می کنند و آشکار می کنند، آینده محاسبات است.

    آینده محاسبات

    ما به زمانی در تاریخ رسیده‌ایم که مجبوریم محاسبات را دوباره تعریف کنیم زیرا روندها و قوانین پیش‌بینی‌شده چندین دهه پیش دیگر قابل اجرا نیستند. همچنین، همانطور که محاسبات به سمت مقیاس‌های نانو و کوانتومی پیش می‌رود، محدودیت‌ها و چالش‌های فیزیکی آشکاری وجود دارد. شاید برجسته‌ترین تلاش در ابر محاسبات، محاسبات کوانتومی، چالش آشکار مهار درهم تنیدگی کوانتومی برای محاسبات موازی، یعنی انجام محاسبات قبل از ناهمدوسی کوانتومی را داشته باشد. با این حال، با وجود چالش‌های محاسبات کوانتومی، در چند دهه گذشته پیشرفت‌های زیادی صورت گرفته است. می توان مدل هایی از معماری سنتی کامپیوتر جان فون نویمان را یافت که در محاسبات کوانتومی به کار رفته است. اما یک قلمرو نه چندان شناخته شده دیگر از محاسبات (فوق العاده) وجود دارد که محاسبات نورومورفیک نامیده می شود که از معماری سنتی فون نویمان پیروی نمی کند. 

    محاسبات نورومورفیک توسط پروفسور کلتک کارور مید در مقاله اصلی خود در سال 1990 پیش بینی شد. اساساً، اصول محاسبات نورومورفیک بر اساس اصول بیولوژیکی تئوری شده عمل است، مانند آنهایی که تصور می شود مغز انسان در محاسبات از آنها استفاده می کند. تمایز مختصر بین نظریه محاسبات نورومورفیک در مقابل نظریه محاسبات کلاسیک فون نویمان در مقاله‌ای توسط دان مونرو خلاصه شد. انجمن رایانه ماشین آلات مجله. این بیانیه به این صورت است: «در معماری سنتی فون نویمان، یک هسته منطقی قدرتمند (یا چندین هسته به صورت موازی) به طور متوالی بر روی داده‌های واکشی شده از حافظه عمل می‌کند. در مقابل، محاسبات «نورومورفیک» هم محاسبات و هم حافظه را بین تعداد زیادی از «نورون‌های» نسبتاً ابتدایی توزیع می‌کند که هر کدام از طریق «سیناپس» با صدها یا هزاران نورون دیگر ارتباط برقرار می‌کنند.»  

    دیگر ویژگی‌های کلیدی محاسبات نورومورفیک شامل عدم تحمل خطا است که هدف آن مدل‌سازی توانایی مغز انسان برای از دست دادن نورون‌ها و همچنان قادر به عملکرد است. به طور مشابه، در محاسبات سنتی از دست دادن یک ترانزیستور بر عملکرد صحیح تأثیر می گذارد. یکی دیگر از مزیت های پیش بینی شده و هدفمند محاسبات نورومورفیک این است که نیازی به برنامه ریزی نیست. این آخرین هدف دوباره مدل سازی توانایی مغز انسان برای یادگیری، پاسخ و انطباق با سیگنال ها است. بنابراین، محاسبات نورومورفیک در حال حاضر بهترین نامزد برای یادگیری ماشین و وظایف هوش مصنوعی است. 

    پیشرفت های ابر محاسباتی نورومورفیک

    بقیه این مقاله به پیشرفت‌های ابررایانه‌ی نورومورفیک می‌پردازد. به طور خاص، اخیراً تحقیقاتی در مورد Arxiv از الکساندر تایت و همکاران منتشر شده است. al. از دانشگاه پرینستون نشان می دهد که یک مدل شبکه عصبی فوتونیک مبتنی بر سیلیکون تقریباً 2000 برابر از روش محاسباتی معمولی بهتر عمل می کند. این پلت فرم نورومورفیک فوتونیک محاسباتی می تواند به پردازش اطلاعات فوق سریع منجر شود. 

    Tait et. al. مقاله با عنوان فوتونیک سیلیکون نورومورفیک شروع به تشریح مزایا و معایب استفاده از فرم نور فوتونیک تابش الکترومغناطیسی برای محاسبات می کند. نکات اصلی اولیه مقاله این است که نور به طور گسترده برای انتقال اطلاعات استفاده شده است، اما نه برای تبدیل اطلاعات، یعنی محاسبات نوری دیجیتال. به طور مشابه، برای محاسبات کوانتومی، چالش‌های فیزیکی اساسی برای محاسبات نوری دیجیتال وجود دارد. این مقاله سپس به جزئیات یک پلت فرم محاسباتی فوتونیک نورومورفیک پیشنهادی قبلی به نام Tait et می‌پردازد. al. تیم منتشر شده در سال 2014، با عنوان پخش و وزن: یک شبکه یکپارچه برای پردازش سنبله فوتونی مقیاس پذیر. مقاله جدیدتر آنها نتایج اولین نمایش تجربی یک شبکه عصبی فوتونیک یکپارچه را توصیف می کند. 

    در معماری محاسباتی "پخش و وزن"، به "گره ها" یک "حامل طول موج" منحصر به فرد اختصاص داده می شود که "تقسیم طول موج چندگانه (WDM)" است و سپس به "گره های" دیگر پخش می شود. "گره ها" در این معماری به منظور شبیه سازی رفتار نورون ها در مغز انسان هستند. سپس سیگنال‌های «WDM» از طریق فیلترهای با ارزش پیوسته به نام «بانک‌های وزن میکرورینگ (MRR)» پردازش می‌شوند و سپس به صورت الکتریکی در یک مقدار تشخیص توان کل اندازه‌گیری شده جمع می‌شوند. غیر خطی بودن این آخرین تبدیل/محاسبه الکترواپتیک دقیقاً غیرخطی بودن مورد نیاز برای تقلید از عملکرد نورون است که برای محاسبات تحت اصول نورومورفیک ضروری است. 

    در این مقاله، آن‌ها بحث می‌کنند که این دینامیک‌های تبدیل الکترواپتیک تأیید شده از نظر ریاضی با مدل «شبکه عصبی بازگشتی پیوسته ۲ گره‌ای» (CTRNN) یکسان هستند. این نتایج پیشگام نشان می‌دهد که ابزارهای برنامه‌نویسی که برای مدل‌های CTRNN استفاده شده‌اند، می‌توانند برای پلتفرم‌های نورومورفیک مبتنی بر سیلیکون اعمال شوند. این کشف مسیر را برای انطباق روش CTRNN با فوتونیک سیلیکون نورومورفیک باز می کند. در مقاله خود، آنها دقیقاً چنین مدلی را با معماری "پخش و وزن" خود تطبیق می دهند. نتایج نشان می‌دهد که مدل CTRNN شبیه‌سازی‌شده بر روی معماری 2 گره‌ای آن‌ها، معماری محاسباتی نورومورفیک را برای عملکرد بهتر از مدل‌های محاسباتی کلاسیک با 49 مرتبه بزرگی به ارمغان می‌آورد.   

    گزينه ها
    دسته بندی
    گزينه ها
    زمینه موضوع

    جدول زمانی آینده