Please use this identifier to cite or link to this item: https://hdl.handle.net/20.500.13091/1982
Title: AN OPERANT CONDITIONING APPROACH FOR LARGE SCALE SOCIAL OPTIMIZATION ALGORITHMS
Other Titles: Büyük Ölçekli Sosyal Optimizasyon Algoritmaları İçin Edimsel Koşullandırma Yaklaşımı
Authors: Çeltek, Seyit Alperen
Durdu, Akif
Keywords: Operant Conditioning
Large Scale Optimization
Operant Conditioning Approach
Swarm Optimization Algorithm
Social Learning Based Optimization
Edimsel Koşullandırma
Büyük Ölçekli Optimizasyon
Edimsel Koşullandırma Yaklaşımı
Sürü Optimizasyon Algoritması
Sosyal Öğrenme
Issue Date: 2020
Publisher: Konya Technical University
Abstract: The changes that positive or negative results cause in an individual's behavior are called Operant Conditioning. This paper introduces an operant conditioning approach (OCA) for large scale swarm optimization models. The proposed approach has been applied to social learning particle swarm optimization (SL-PSO), a variant of the PSO algorithm. In SL-PSO, the swarm particles are sorted according to the objective function and all particles are updated with learning from the others. In this study, each particle's learning rate is determined by the mathematical functions that are inspired by the operant conditioning. The proposed approach adjusts the learning rate for each particle. By using the learning rate, a particle close to the optimum solution is aimed to learn less. Thanks to the learning rate, a particle is prevented from being affected by particles close to the optimum point and particles far from the optimum point at the same rate. The proposed OCA-SL-PSO is compared with SL- PSO and pure PSO on CEC 13 functions. Also, the proposed OCA-SL-PSO is tested for large-scale optimization (100-D, 500-D, and 1000-D) benchmark functions. This paper has a novel contribution which is the usage of OCA on Social Optimization Algorithms. The results clearly indicate that the OCA is increasing the results of large-scale SL-PSO.
Olumlu veya olumsuz sonuçların bir bireyin davranışında neden olduğu değişikliklere Edimsel Koşullandırma denir. Bu makale, büyük ölçekli sürü optimizasyon modelleri için bir edimsel koşullandırma yaklaşımı (OCA) sunar. Önerilen yaklaşım, PSO algoritmasının bir varyantı olan sosyal öğrenme parçacık sürüsü optimizasyonuna (SL-PSO) uygulanmıştır. SL-PSO'da sürü parçacıkları amaç işlevine göre sıralanır ve tüm parçacıklar diğerlerinden öğrenilerek güncellenir. Bu çalışmada, her parçacığın öğrenme hızı, edimsel koşullanmadan esinlenen matematiksel fonksiyonlar tarafından belirlenir. Önerilen yaklaşım, her parçacık için öğrenme oranını ayarlar. Öğrenme oranını kullanarak, optimum çözüme yakın bir parçacığın daha az öğrenmesi amaçlanmaktır. Öğrenme oranı sayesinde bir parçacığın çözüme yakın partikül ile çözüme uzak partiküllerden aynı oranda etkilenmesinin önüne geçilmektedir. Önerilen OCA-SL-PSO, CEC 13 işlevlerinde SL-PSO ve saf PSO ile karşılaştırılır. Ayrıca, önerilen OCA-SL-PSO, büyük ölçekli optimizasyon (100-D, 500-D ve 1000-D) karşılaştırma işlevleri için test edilmiştir. Bu yazının, Sosyal Optimizasyon Algoritmalarında OCA'nın kullanımı olan yeni bir katkısı vardır. Sonuçlar açıkça OCA'nın büyük ölçekli SL-PSO sonuçlarını artırdığını göstermektedir.
Description: DergiPark: 821958
konjes
URI: https://doi.org/10.36306/konjes.821958
https://dergipark.org.tr/tr/pub/konjes/issue/58996/821958
https://dergipark.org.tr/tr/download/article-file/1382544
https://hdl.handle.net/20.500.13091/1982
ISSN: 2667-8055
Appears in Collections:Konya Mühendislik Bilimleri Dergisi
Mühendislik ve Doğa Bilimleri Fakültesi Koleksiyonu
TR Dizin İndeksli Yayınlar Koleksiyonu / TR Dizin Indexed Publications Collections

Files in This Item:
File SizeFormat 
10.36306-konjes.821958-1382544.pdf631.03 kBAdobe PDFView/Open
Show full item record

CORE Recommender

Page view(s)

52
checked on Jan 30, 2023

Download(s)

16
checked on Jan 30, 2023

Google ScholarTM

Check

Altmetric


Items in GCRIS Repository are protected by copyright, with all rights reserved, unless otherwise indicated.