در این قسمت فصل نهم از بخش بندی مورد نظر یعنی شبکه عصبی بازگشتی و حافظه دار (Recurrent Neural Networks and Memory based Networks) را به صورت کامل بررسی خواهیم کرد.

در این قسمت ، یک شبکه ی بازگشتی را آموزش می دهیم و همچنین نحوه ی افزودن مرتبه های بیشتر حافظه را هم بررسی خواهیم کرد.

بحث را با تعریف ورودی تاخیر یافته شروع خواهیم کرد و کاربردهای استفاده از ورودی تاخیر یافته را معرفی خواهیم کرد. پس از آن کاربرد و نحوه ی استفاده از خروجی های تاخیر یافته (حالت بازگشتی) را به صورت کامل بررسی می کنیم و در نهایت به محدودیت آن و راه حل آن که استفاده از بلوک LSTM است،اشاره می کنیم. همچنین نحوه ی استفاده از شبکه های بازگشتی دو طرفه را بررسی خواهیم کرد.

مهمترین مطالب و موضوعاتی که در این مجموعه بیان شده را بطور مختصر در زیر مشاهده می نمایید:

۱– شبکه عصبی پیشرو با سیگنال ورودی تاخیر یافته

۲- تعریف شبکه عصبی بازگشتی

۳- انواع پسخورد در شبکه عصبی بازگشتی

۴- شبکه عصبی المن

۵- شبکه عصبی جردن

۶- شبکه عصبی المن جردن

۷- شبکه عصبی بازگشتی با حافظه بالاتر

۸- شبکه های عصبی بازگشتی دو طرفه

۹- مشکل شبکه های عصبی معمولی

۱۰- معرفی Long Short Term Memory

۱۱- Long Short Term Memory دو طرفه

 

همجنین اسلایدهای هر بخش درون فایل آن قرار داده شده تا کاربران بتوانند خودشان به صورت دقیق تر فرمول ها را بررسی نمایند.

تذکر:

قسمت های قبلی این مجموعه آموزشی را می توانید از اینجا مشاهده نمایید

 

کلید واژه:

, bidirection long short term memory, bidirection LSTM, Bidirection recurrent neural network, Bidirection RNN, BRNN, delayed input, long short term memory, LSTM, recurrent neural network, RNN, بلاکLSTM, شبکه عصبی بازگشتی, شبکه عصبی بازگشتی دو طرفه