دانلود پایان نامه درمورد ماشین بردار پشتیبان و روش حداقل مربعات

در نهایت تابع f(X) به صورت زیر در میآید:
Widget not in any sidebars

(‏446)
بنابراین توابع کرنل هم کار نگاشت و هم کار ضرب داخلی بین توابع ویژگی را با هم انجام میدهند. تابع ارزش (-insensitive) استفاده شده در رگرسیون ماشین بردار پشتیبان یک پارامتر جدید را اضافه میکند که به طور قابل توجهی روی مدل و قابلیت پیشبینیاش اثر میگذارد. به جای استفاده از تابع (-insensitive) در رگرسیونگیری بردار بشتیبان، از توابع ارزش دیگری میتوان استفاده کرد. مانند توابع لاپلاس، درجه دو و هابر که در شکل (4-13) نشان داده شده است.
شکل (4- 13-a) تابع درجه دو، شکل (4- 13-b) تابع لاپلاس، شکل (4- 13-c) هابر و شکل (4- 13-c) همان -insensitive است.
برای تابع ارزش درجه دو، شکل بهینهسازی به صورت زیر در میآید:
(‏447)
(‏448)
حل این مسأله هم با روش بهینهسازی درجه دوم انجام میشود.
شکل ‏413: کلیه توابع ارزش مورد استفاده در مدل ماشین بردار پشتیبان، که به ترتیب عبارتند از: (a) تابع درجه دو (b) تابع لاپلاس (c) تابع هابر و (d) تابع حساسیت
برای یادگیری نحوه استفاده از توابع کرنل مجموعهای از دادهها را که یک بعدی هستند، به صورت جدول (4-2) در نظر میگیریم.
جدول ‏42: : مثالی از دادهها برای رگرسیونگیری آنها به وسیله SVR
در شکل (4-14) دو مدل از رگرسیون بردار پشتیبان نشان داده شده است که اولی از کرنل چند جملهای از درجه 10 به دست آمده و دومی با کرنل اسپلاین محاسبه شده است. کرنل چند جمله ای یک سری نوسان را در دو انتهای منحنی ایجاد کرده است ، همچنین دیده می شود که کرنل اسپلاین هم یک مدل نامناسب برای دادهها است. کرنل RBF هم نمیتواند یک حل قابل قبول برای رگرسیونگیری دادهها پیشنهاد دهد (رگرسیون دادهها برای کرنلRBF نشان داده نشده است).
شکل ‏414: مدلهای SVR برای دادههای جدول (4-2) ، با 0.1= : (a) کرنل چند جملهای از درجه 10 ; (b) کرنل spline.
تابع کرنل بی اسپلاین از درجه یک که در شکل (4-15-a) نشان داده شده است، با پارامترهای C=100 و =0.1 یک مدل عالی از رگرسیون ماشین بردار پشتیبان با یک لوله رگرسیون که به دقت جزئیات دادههای ورودی را دنبال میکند، را پیشنهاد میکند. حال از این کرنل استفاده میکنیم تا ببینیم با مقادیر مختلف C و ، لوله رگرسیون چه تغییراتی میکند.
با مقدار C=100 و افزایش دادن مقدار به 3/0، رگرسیونی را به دست میدهد که حساسیت کمتری نسبت به دادههای ورودی دارند (شکل 4-15-b) و سه ناحیهای را که دارای دادههای با مقادیر y تقریباً ثابت هستند، را به خوبی مدل نمیکند. این وضعیت به دلیل بزرگتر شدن قطر لوله رگرسیون است و الگوهای داخل لوله اثری روی مدل SVR ندارند (دارای خطای صفر هستند).
شکل ‏415: مدلهای SVR با تابع هسته B spline از درجه 1 برای مجموعه دادههای جدول (4-2) با C=100: (a)0.1= ; (b) 0.3=
با بیشتر کردن مقدار و رساندن آن به مقدار 5/0، شکل مدل SVR شباهت کمتری نسبت به چیدمان دادههای ورودی خواهد داشت. در این حالت لوله رگرسیون با بردارهای پشتیبان کمتری تعریف میشود ولی بیانگر شکل کلی منحنی نیستند. پس برای ما معلوم شد که پارامتر باید برای هر مسأله به خصوصی تنظیم شود چون تغییرات کوچک در این پارامتر اثرات قابل توجهی روی مدل رگرسیون دارد. حال با ثابت نگه داشتن مقدار 0.1= ، تغییرات C و اثر آن را روی مدل رگرسیون بررسی میکنیم. مرجع ما در این جا مدل SVR شکل (4-15-a) است که برای C=100 به دست آمده است. با کاهش مقدار C=10 ماشین به طور دقیق نمیتواند دادههای دو قلّه که مقادیر بالایی دارند، مدل کند (شکل 4-16-b). با کمتر کردن پارامتر ظرفیت C به مقدار 1 (شکل 4-17-a) و سپس به 1/0 (شکل 4-17-b)، ماشین ما در مدل کردن دادههای دو قلّه ناتوانتر میماند.
شکل ‏416: مدلهای SVR با تابع هسته B spline از درجه 1، برای مجموعه دادههای جدول (4-2): (a) 0.5= و C=100 ; (b) 0.1= و C=10
شکل ‏417: مدلهای SVR با تابع هسته B spline از درجه 1 برای مجموعه دادههای جدول (4-2): (a) 10= و C=1 ; (b) 0.1= و C=0.1
حداقل مربعات ماشین بردار پشتیبان
روش حداقل مربعات ماشین بردار پشتیبان با فرمولبندی دوباره مسأله بهینهسازی به صورت ذیل نوشته میشود:
(‏449)
که پارامتر تنظیم بوده و بین کمینهسازی خطای برازش و یکنواختی منحنی برازش، توازن ایجاد میکند و نیز خطای مربوط به داده iام است. تابع لاگرانژ این مسأله بهینهسازی را میتوان به صورت ذیل نوشت:
(‏450)
با مشتقگیری از تابع لاگرانژ نسبت به، b، e و و جایگذاری مقادیر به دست آمده برای و e در تابع لاگرانژ، مسأله بهینهسازی به سیستمی از معادلات خطی تبدیل میشود (رابطه 4-51).
(‏451)