برای دیدن دوره های ما کلیک کنید...

Sparse autoencoder

معماری و هوش مصنوعی

رمزگذار خودکار پراکنده(Sparse autoencoder):

رمزگذار خودکار پراکنده یکی از انواع شبکه‌های عصبی مصنوعی رمزگذار خودکار است که بر اساس اصل یادگیری ماشینی بدون نظارت کار می‌کنند. رمزگذارهای خودکار نوعی شبکه عمیق هستند که می توانند برای کاهش ابعاد  و بازسازی یک مدل از طریق انتشار پس زمینه استفاده شوند.

رمزگذارهای خودکار به دنبال استفاده از مواردی مانند انتخاب ویژگی و استخراج ویژگی برای ترویج کدگذاری داده کارآمدتر هستند. رمزگذارهای خودکار اغلب از تکنیکی به نام پس انتشار برای تغییر ورودی های وزنی استفاده می کنند تا به کاهش ابعاد دست یابند که به نوعی ورودی را برای نتایج مربوطه کاهش می دهد. رمزگذار خودکار پراکنده، نوعی است که تعداد کمی از گره های عصبی فعال همزمان دارد.

Sparse autoencoder ها بدنبال استخراج ویژگی های پراکنده (sparse features) از داده خام هستند. پراکندگی نمودها میتواند یا از طریق جریمه (penalizing) بایاس های واحد پنهان  , (hidden unit biases)  و یا مستقیما با جریمه (penalizing) خروجی مقادیر واحد پنهان بدست بیایند. بازنمودهای پراکنده (sparse representations) دارای چندین فایده احتمالی اند  که عبارتند از :

  • استفاده از نمودهای با ابعاد زیاد باعث افزایش احتمال انکه دسته های متفاوت به راحتی همانند نظریه موجود در SVM , قابل جداشدن از هم باشند میشود.
  • نمودهای پراکنده (sparse representations) برای ما تفسیر ساده ای از داده ورودی پیچیده را در قالب تعدادی بخش فراهم میکنند.
  • دید بیولوژیکی از نمودهای پراکنده در نواحی دیداری ابتدایی استفاده میکند.

 

گونه بسیار مشهوری از sparse autoencoder یک مدل ۹ لایه ای بصورت محلی متصل با pooling و نرمال سازی contrast است . این مدل به سیستم اجازه میدهد تا یک صورت یاب را بدون نیاز به برچسب زنی تصاویر بصورت “حاوی صورت و بدون صورت ” آموزش دهد. ویژگی یاب (feature detector) حاصل ,  برای translation , scaling و چرخش خارج از plane (out-of-plane rotation) بسیار قدرتمند است.

در جدول زیر , لیستی شامل گونه های معروف autoencoder به همراه خلاصه ای از خصائص و فواید آنها آمده است.

روش

ویژگی ها

نکات مثبت

Sparse Autoencoder

Adds a sparsity penalty to force the representation to be sparse

۱٫ Make the categories to be more separable

۲٫ Make the complex data more meaningful

۳٫ In line with biological vision system

Denoising Autoencoder

Recovers the correct input from a corrupted version

More robust to noise

Contractive Autoencoder

Adds an analytic contractive penalty to the reconstruction error

function

Better captures the local directions of variation dictated by the data

Convolutional autoencoder

Shares weights among all locations in the input, preserving spatial

locality

Utilizes the 2D image structure

 

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *