در این تحقیق یک مدل بهبودیافته از الگوریتم کپک مخاطی(slime mould algorithm) با استفاده از یادگیری مبتنی بر مخالفت(opposition-based learning) برای حل مسائل بهینهسازی پیوسته پیشنهاد شده است. استفاده از یادگیری مبتنی بر مخالفت(OBL) تلاشی برای تقویت مرحله اکتشاف در الگوریتم کپک مخاطی(SMA) است. فایل شبیهسازی این تحقیق فقط برای توابع پیوسته بررسی شده است. آزمایشهای شبیهسازی در محیط متلب 2018 برروی 23 تابع استاندارد IEEE CEC 2014 انجام شده است. نتایج نشان داد که مدل بهبودیافته در مقایسه با الگوریتم کپک مخاطی و بهینهسازی اجتماع ذرات بهتر عمل کرده است.
در این تحقیق، یک مدل بهبودیافته از الگوریتم بهینهسازی کرکس آفریقایی(African vulture optimization algorithm) توسط یادگیری مبتنی بر مخالفت(Opposition-based Learning) برای حل مسائل بهینهسازی پیوسته پیشنهاد شده است. هدف از این تحقیق نحوه ترکیب الگوریتمها برای حل مسائل مختلف است. استفاده از یادگیری مبتنی بر مخالفت(OBL) تلاشی برای تقویت مرحله اکتشاف در الگوریتم بهینهسازی کرکس آفریقایی(AVOA) است. فایل شبیهسازی این تحقیق فقط برای توابع پیوسته بررسی شده است. آزمایشهای شبیهسازی در محیط متلب 2018 برروی 23 تابع استاندارد IEEE CEC انجام شده است. نتایج با الگوریتم بهینهسازی کرکس آفریقایی و الگوریتم بهینهسازی اجتماع ذرات(PSO) مقایسه شده است.
در این تحقیق، یک مدل ترکیبی با استفاده از الگوریتم بهینهسازی آکویلا(Aquila Optimizer) و الگوریتم بهینهسازی کرکس آفریقایی(African Vultures Optimization) برای حل مسائل بهینهسازی پیوسته پیشنهاد شده است. مرحله اکتشاف(exploration) الگوریتم بهینهسازی آکویلا و مرحله بهرهبرداری(exploitation) از الگوریتم بهینهسازی کرکس آفریقایی ترکیب میشوند تا جستجوی عاملها تقویت شود. لذا کاستیها الگوریتم بهینهسازی کرکس آفریقایی توسط الگوریتم بهینهسازی آکویلا برطرف میشود. سپس، یادگیری مبتنی بر مخالفت برای افزایش تنوع جمعیت و کمک به فرار مدل ترکیبی از بهینه محلی طراحی شده است. آزمایشهای شبیهسازی در محیط متلب 2018 برروی 23 تابع استاندارد IEEE CEC2019 انجام شده است. نتایج با الگوریتم بهینهسازی آکویلا و الگوریتم بهینهسازی کرکس آفریقایی مقایسه شده است.
در این تحقیق، یک مدل ترکیبی با استفاده از الگوریتم بهینهسازی آکویلا(Aquila Optimizer) و بهینهسازی خرگوش مصنوعی(Artificial Rabbits Optimization) مبتنی بر یادگیری مخالفت آشوبناک برای حل مسائل بهینهسازی پیوسته پیشنهاد شده است. مرحله اکتشاف(exploration) سراسری الگوریتم بهینهسازی آکویلا با مرحله بهرهبرداری(exploitation) محلی بهینهسازی خرگوش مصنوعی ترکیب میشود تا قابلیتهای جستجو تقویت شود. برروی مدل ترکیبی، ده مدل مختلف از نگاشت آشوب تست شده است. آزمایشهای شبیهسازی در محیط متلب 2018 برروی 23 تابع استاندارد IEEE CEC2019 انجام شده است. نتایج با الگوریتم بهینهسازی آکویلا و الگوریتم بهینهسازی خرگوش مصنوعی مقایسه شده است.