دانلود با لینک مستقیم و پر سرعت .
لینک پرداخت و دانلود *پایین مطلب*
فرمت فایل:Word (قابل ویرایش و آماده پرینت)
تعداد صفحه17
1) چکیده:
در این تمرین روش های استخراج ویژگی و روش های خطی و غیر خطی دسته بندی را مورد مطالعه قرار میدهیم. در ابتدا روش های مختلف استخراج ویژگی که از آن جمله PCA، LDA، روش قاب بندی و چند روش دیگر هستند را و سپس برای ویژگی های استخراج شده از روش های دسته بندی خطی بیزین و SVM خطی و سپس روش های غیرخطی RBF ، MLP و همچنین SVM غیرخطی برای دسته بندی استفاده شده است. بسته به روش شناسایی بکار گرفته شده، معمولا ویژگی های متفاوتی از دنباله نقاط استخراج می شود. در اکثر روش های موجود استخراج ویژگی، ویژگی ها از روی مختصات نقاط نمونه برداری شده ورودی استخراج می شوند. از مجموعه ی ویژگی های استخراج شده معمولاً تعدادی مفید تر و موثرترند. ما برای تشخیص و انتخاب ویژگی های تاثیرگذارتر از یک الگوریتم ژنتیک استفاده کرده ایم. اما پس از استخراج و انتخاب ویژگی ها نوبت به دسته بندی می رسد. در ابتدا از چند دسته بند خطی استفاده کرده ایم. به راحتی میتوان نشان داد که ناحیههای تصمیمگیری یک ماشین خطی محدودند و این محدودیت انعطافپذیری و دقت دستهبند را کاهش میدهد. مسایل بسیاری وجود دارد که توابع جداساز خطی برای داشتن حداقل خطا در آنها کافی نیستند. علاوه بر این مرزهای تصمیمگیری که کلاسها را از یکدیگر تفکیک میکنند ممکن است همیشه خطی نباشند و پیچیدگی مرزها گاهی اوقات نیاز به استفاده از سطحهای کاملاً غیر خطی را دارند. بنابراین در ادامه ی کار از چند دسته بند غیرخطی نیز استفاده نمودیم. در استفاده از شبکههای عصبی چندلایه، شکل غیر خطی بودن از مجموعهی آموزش فرا گرفته میشود. در روشهای RBF و SVM غیرخطی مشکل اصلی انتخاب توابع هسته غیر خطی مناسب است.
2) مقدمه
اولین الگوریتم دستهبندی در سال 1936 توسط Fisher ارایه شد و معیارهای آن برای بهینه بودن، کم کردن خطای دستهبندی کنندههای الگوهای آموزشی بود. بسیاری از استراتژیهای موجود نیز از همین روش پیروی میکنند. در سادهترین شکل ممکن، دسته بندهای خطی میتوانند دو دستهی متفاوت را تفکیک کنند. با توجه به این موضوع مسالهای را جداییپذیر خطی مینامند که با یک ابرصفحه بتوان محدودهی تصمیم را به دو گروه تقسیمبندی کرد. در عمل میتوان دسته بندهای خطیای را طراحی کرد که بیش از دو گروه را از هم تفکیک کنند. این عمل را با تنظیم محدودههای تصمیم متعدد و آزمونهای چندگانه بر اساس شرایط موجود میتوان انجام داد. ما در این مساله یک دسته بندی با 26 کلاس را داریم.
در روش بیزین احتمال شرطی تعلق بررسی میشود. به این ترتیب که الگوی مورد نظر به دستهای تخصیص داده میشود که احتمال شرطی تعلق بردار مشخصهی الگو به آن دسته ازتمام دستههای دیگر بیشتر باشد. روش بیزین به طور کلی می تواند برای کارایی بسیار مطلوب بهینه شوند. این روش مزایای دیگری نیز دارد که استفادهی از آن را توجیه میکند. این روش میتواند با چند فرض ساده در مورد دادهها کاملاً به شکل روشهای سادهی خطی عمل کند، به علاوه این کار میتواند به گونهای انجام شود که در پایان، مدل قطعی بدون هیچ گونه رجوع به آمار به دست آید. در روش بیزین مشکل کار تعریف احتمالات شرطی مورد نظر قاعدهی بیز است.
یک محقق روسی به نام Vladimir Vapnik در سال 1965 گام مهمی در طراحی دستهبندها برداشت [1] و نظریهی آماری یادگیری را بصورت مستحکمتری بنا نهاد و ماشین بردار پشتیبان را ارایه کرد. ماشینهای بردار پشتیبان در دو حالت جداییپذیر و جداییناپذیر برای دستهبندی الگوهای یک مسالهی چندکلاسه از چند مرز جداکنندهی خطی یا ابرصفحه استفاده میکنند و در واقع حاصلضرب داخلی بردار ورودی با هر یک از بردارهای پشتیبان در فضای d بعدی ورودی محاسبه میشود. Vapnik نشان داد که میتوان بردار ورودی را با یک تبدیل غیرخطی به یک فضای با بعد زیاد انتقال داد و در آن فضا حاصلضرب داخلی را بدست آورد که با این شرایط هستهی مفیدی را خواهیم داشت.
روش RBF یک دستهبندی و تقریبساز تابعی الگوست و شامل دو لایه میباشد که نرونهای خروجی ترکیبی خطی از توابع پایهای را به وجود میآورند که توسط نرونهای لایهی پنهان محاسبه شدهاند. زمانی که ورودی در ناحیهی تعیین شدهی کوچک از فضای ورودی قرار گیرد، توابع اساسی(غیر خطی) در لایهی پنهان، پاسخ غیر صفری به محرک ورودی میدهند. همچنین این مدل به عنوان یک شبکهی دریافتکنندهی ناحیهای شناخته شده است. ما در روش RBF از معمولترین تابع هستهی غیر خطی یعنی سیگموئید استفاده کردهایم.
به طور کلی شبکههای پرسپترون چندلایه شامل چندین پرسپترون ساده هستند که به طور ساختار سلسلهمراتبی، یک شکل پیشخورد با یک و یا چند لایهی میانی (لایههای پنهان) بین لایههای ورودی و خروجی را شکل میدهد. تعداد لایهی پنهان و تعداد نرونهای هر لایه ثابت نیستند. هر لایه ممکن است از نرونهای مختلفی تشکیل شده باشد که این موضوع به کار آنها بستگی دارد. الگوریتمهای آموزشی متفاوتی در روش چند لایه استفاده میشوند.
3) روشهای به کار رفته در این گزارش
در این قسمت روشهای استخراج ویژگی، روشهای انتخاب ویژگی ها جهت بهینه کردن آنها و کم کردن ابعاد مساله با کاهش تعداد آنها و روشهای دستهبندی (خطی و غیرخطی) به کار رفته بررسی شدهاند.
3-1) روشهای استخراج ویژگی
در این قسمت انواع روشهای استخراج ویژگی ها ذکر شده است. ذکر این نکته لازم است که برخی الگوریتم های استخراج برای انتخاب ویژگی های موثر نیز استفاده می شوند ازجمله ی آنها PCA و LDA هستند. اما در این گزارش ما برای بهینه کردن ویژگی ها و کم کردن تعداد آنها و یا به عبارت دیگر برای کاهش ابعاد (Curse of Dimensionality) از الگوریتم ژنتیک استفاده نموده ایم.
3-1-1) روش PCA خطی
روشهای استخراج ویژگی یک زیرفضای مناسب m بعدی در فضای اصلی ویژگی ها از d بعد را تعیین می کنند(m<=d). تبدیل خطی مثل PCA، آنالیز فاکتور، LDA و تعقیب تصویر بطور گسترده در شناسایی الگو برای استخراج ویژگی ها و کاهش ابعاد استفاده شده اند. بهترین استخراج کننده ی ویژگی شناخته شدهPCA یا توسعه یافته ی Karhunen-loeve است که m بردار مشخصه بزرگتر را از ماتریس کوواریانس d×d از n الگوی d بعدی محاسبه می کند. تبدیل خطی به شکل Y=XH تعریف شده است که X ماتریس الگوی n×d داده شده و Y از ماتریس الگوی n×m مشتق شده است . H ماتریس d×m از تبدیل خطی است که ستون های آن بردارهای مشخصه هستند. قبل از اینکه PCA از ویژگی های پرمعنی تر استفاده کند (بردار ویژگی های با بزرگترین مقدار ویژه)، بطور کاملاً موثر داده ها را با یک زیرفضای خطی با استفاده از معیار خطای میانگین مربعات تخمین می زند. سایر روش ها مانندتعقیب تصویر و ICA برای توزیع های غیرگاوسی تا وقتی که به مشخصه ی مرتبه ی دوم داده ها مربوط نباشد مناسب ترند. ICA با موفقیت برای جداسازی منابع دیده نشده استفاده شده است. استخراج ترکیب خطی ویژگی ها منابع نابسته را تعریف می کند. این جداسازی در صورتی امکان پذیر است که حداکثر یکی از منابع دارای توزیع گاوسی باشد.