منبع پایان نامه ارشد با موضوع بهبود عملکرد و جستجوی محلی

که در آن یک بردار تصادفی در بازهی [0,1] میباشد و از یک توزیع یکنواخت به دست میآید. در اینجا x*بهترین موقعیت سراسری جاری است که بعد از مقایسهی تمامی موقعیتهای به دست آمده توسط n خفاش تعیین میشود. در الگوریتم خفاش، بلندی صدا و نرخ ارسال پالس نیز بایستی در طول تکرارها به روزرسانی شوند. بلندی صدا با نزدیک شدن خفاش به طعمه، کاهش مییابد و زمانی که خفاش طعمه را بیابد، مقدار A صفر میشود. در مقابل، نرخ ارسال پالس با یافتن طعمه مقدار ماکزیمم به خود گرفته و یک میشود.
Ait+1 = α Ait
Widget not in any sidebars

rit+ 1= ri0 [1- exp( γt )] (3-9)
که در آن α وγ ثابت هستند. در حقیقت α مشابه با فاکتور سرد شدن در الگوریتم SA میباشد. برای هر مقدار 0< α <1 و γ>0 زمانی که t به سمت بی نهایت میل کند، Ait به صفر و rit به مقدار ri0 میل میکند به عبارتی :
Ait →0, rit → ri0 as t→0
در ابتدا هر خفاش مقادیر متفاوتی از بلندی صدا و نرخ ارسال پالس دارد. این پارامترها در ابتدا به صورت تصادفی انتخاب میشود. سپس مقدار آنها به روزرسانی میشود.
برای بخش جستجوی محلی، وقتی یک راه حل از بین بهترین راهحلهای موجود انتخاب شد، موقعیت جدید برای هر خفاش بهطور محلی توسط پیادهروی تصادفی به صورت زیر تعیین میشود:
(3-10) xnew = xold+εAt
که در آن ε یک عدد تصادفی در بازهی[-1,1] است و At میانگین بلندی صدای تمامی خفاشها در این زمان است[48]،[49].
3-3-7- راه حل‌های پیشنهادی برای بهبود عملکرد الگوریتم خفاش
3-3-7-1‌- انتخاب جمعیت اولیه براساس قاعده‌ی تولید عدد متضاد
جهت افزایش نرخ و سرعت همگرایی به جواب، باید برای هر کدام از اعضای جمعیت اولیه تقریب مناسبی زده شود. تولید عدد متضاد از جمله راهکارهایی است که به این منظور استفاده میشود.
اگر Xi یک بردار تصادفی در فضای جستجو باشد بردار متضاد آن به صورت زیر ساخته می‌شوند:
(3-11)
متغیرهای باید در محدوده‌ی تغییرات xi,j یعنی باشند. حال اگر دارای تابع هدف بهتری نسبت به باشد جایگزین آن می‌شود.
3-3-7-2- استراتژی جهش خود تطبیق
همانگونه که پیشتر ذکر شد مشکل اصلی الگوریتم BA گیر کردن در بهینه‌های محلی است. برای حل این مشکل و فرار از بهینه‌های محلی روش جدیدی مبتنی بر دو قانون جهش استفاده شده است. در هر تکرار، هر عضو جمعیت فقط می‌تواند از یکی از این جهش‌ها برای بهبود وضعیت خود استفاده کند. برای انتخاب نوع جهش، برای هر عضو از اعضای جمعیت یک عدد تصادفی تولید میشود. با توجه به مقدار Si یکی از دو نوع جهش برای عضو مورد نظر انتحاب میشود.
روش جهش اول:
در این روش در هر تکرار kپس از محاسبه میانگین جوابها و اختلاف آن با بهترین جواب، طبق رابطه زیر موقعیت جدید بهدست میآید:
(3-12)
به ترتیب خفاش با بهترین موقعیت از نظر تابع هدف و میانگین موقعیت خفاش‌ها در تکرار جاری می‌باشد. نیز ضریب یادگیری است که با توجه به رابطه‌ی یکی از دو مقدار یک یا دو را اختیار می‌کند. این روش علاوه بر افزایش سرعت همگرایی ،از همگرایی زودرس جلوگیری میکند.
روش جهش دوم:
روش دوم به منظور جلوگیری از افتادن در بهینه‌های محلی و ایجاد سکون در جمعیت از تئوری موج ضربه‌ای کوچک (Wavelet) کمک میگیرد. تابع موج ضربه‌ای مورلت (شکل 3-7) به عنوان تابع موج ضربه‌ای مادر به کار می‌رود که فرمول آن به فرم زیر است:
(3-13)