با سلام

در این قسمت روش های بهبود شبکه عصبی را معرفی می کنیم. چنانچه از تولباکس های نوشته شده استفاده نمایید مشاهده خواهید کرد که از بسیاری پارامترهای مختلف استفاده می شود که نقش آن ها بهبود الگوریتم یادگیری و سرعت بخشیدن به آن است. همچنین بسیاری از روش ها تلاش می کنند که از بیش برازش جلوگیری نمایند.

از آنجایی که امروزه کم تر کد صفر نوشته می شود و با توجه به زمان اجرای آموزش شبکه عصبی ، در این بخش تعدادی از این پارامترها و روش ها را معرفی می کنیم تا دوستان زمانی که از تولباکس های شبکه عصبی در متلب استفاده می کنند راحت تر بتوانند از امکانات خوب آن ها بهره مند شوند.

مهمترین مطالب و موضوعاتی که در این مجموعه بیان شده را بطور مختصر در زیر مشاهده می نمایید:

۱- عبارت ممنتم

۲- یادگیری عاطفی

۳- Resilient Back propagation rule

۴- نرخ آموزش تطبیقی

۵- یافتن نرخ آموزش بعدی

۶- Shuffling (بر زدن)

۷- پیش آموزش

۸- الزام بر اجرای موازی (multi thread) و مشکلات آن

۹- الزام بر اجرا بر روی GPU و مشکلات آن

در این جلسه کدی گذاشته نشده، زیرا که بیش تر هدف آماده سازی دوستان جهت استفاده از تولباک ها بوده! تولباکس های جدید تمام این امکانات را فراهم می آورند اما دانستن آن ها می تواند در تصمیم گیری موثر باشد.

مشاهده بخش هایی از این ویدئو آموزشی از اینجا…

تذکر:

قسمت های قبلی این مجموعه آموزشی را می توانید از اینجا مشاهده نمایید

کلید واژه:

ممنتم,ممان,اینرسی,momentum,یادگیری عاطفی,آموزش عاطفی,emotional learning,adaptive learning rate,Resilient Back propagation rule,قانون Resilient Back propagation,نرخ آموزش تطبیقی,یافتن نرخ آموزش,Shuffling,بر زدن در آموزش شبکه,pretraining,پیش آموزش,multi thread,اجرای چند نخی,اجرا روی گرافیک,اجرا روی GPU، شبکه عصبی