Bilgisayar ve Bilişim Fakültesi Koleksiyonu
Permanent URI for this collectionhttps://hdl.handle.net/20.500.13091/10834
Browse
Browsing Bilgisayar ve Bilişim Fakültesi Koleksiyonu by WoS Q "N/A"
Now showing 1 - 20 of 87
- Results Per Page
- Sort Options
Doctoral Thesis 3d Lidar Nokta Bulutu İşlemede Sınır Gözetimli Voksel Tabanlı Bir Segmentasyon Yöntemi Geliştirilmesi(Konya Teknik Üniversitesi, 2020) Sağlam, Ali; Baykan, Nurdanİç ve dış mekânlarda bulunan yapı ve nesneler Lidar (ışık algılayan ve mesafe ölçen) sistemler ile taranarak nokta bulutu halinde, üç boyutlu (3D) ve renkli olarak dijital ortamlara aktarılabilmektedir. Lidar taramasıyla elde edilen, yapı ve nesneler hakkında detaylı bilgi sağlayan bu 3D nokta bulutu verisinin elemanları olan noktalar, organize edilmiş bir veri yapısı içerisinde konumlandırılmamış olarak düzensiz bir şekilde gelmektedir. Günümüzde Lidar teknolojisindeki gelişmeler, nokta bulutu verilerinin kalitesini artırmasının (daha az konum hatası ve daha yüksek çözünürlüklü olarak) yanında, çok yüksek miktarlarda düzensiz veri yığınını da getirmiştir. Çok yüksek boyuttaki bir veriden benzer özellikteki ve konumsal yakınlığı olan verileri gruplayarak, işlenecek veri sayısını düşürmekle birlikte veriden daha anlamlı bilgiler çıkarılmasını da sağlayan işleme segmentasyon denilmektedir. Segmentasyon, 3D nokta bulutu işlemeyi de kapsayan bilgisayarlı görme alanında büyük miktarda veri ile uğraşmayı gerektiren uygulamalar için oldukça yüksek bir öneme sahiptir. Segmentasyon işleminin de karmaşık veriler üzerinde istenilen özelliklerde ve sürede sonuç vermesi, bilgisayarlı görme alanında ayrı bir uğraş konusu olmuştur. Tez çalışmasında, 3D nokta bulutu işlemede, uygulamanın başarısını önemli oranda etkileyen segmentasyon işleminin daha başarılı ve hızlı bir şekilde yapılabilmesi için yeni bir voksel tabanlı segmentasyon yöntemi geliştirilmiştir. Geliştirilen yöntem, yüzeylerdeki lokal nokta gruplarının oluşturdukları düzlemsel yapıların eğim açıları ve ağırlık merkezleri gibi basit geometrik özelliklerini kullanarak segmentasyon işlemini gerçekleştirebilmiştir. Tez kapsamında, literatürde kullanılan veri setlerinin özellikleri dikkate alınarak, benzer şekilde bir adet iç ve iki adet dış mekânsal ortam, bir karasal Lidar sistemi ile taranarak üç farklı 3D nokta bulutu verisi temin edilmiştir. Elde edilen ham nokta verileri, oluşturulan veri setinin kullanım amacına göre indirgeme, kırpma ve gürültü giderme gibi ön işlemlerden geçirildikten sonra, segmentasyon referans segmentleri de hazırlanarak üç adet veri seti oluşturulmuştur. Tez kapsamında hazırlanan veri setlerine ek olarak, literatürden de iki adet daha segmentasyon veri seti temin edilmiş ve böylece toplam beş adet veri seti segmentasyon karşılaştırmasında kullanılmıştır. Veri setlerinin temin edilmesinin ardından, yöntemlerin nicel değerler üzerinden karşılaştırması aşamasına kadar olan geliştirme ve iyileştirme aşamaları iki ayrı koldan eş zamanlı olarak ilerlemiştir. Bunlardan birisi sekiz dallı ağaç (octree) organizasyonu ile veriyi vokselleme tekniğinin, düzlem özelliği göstermeyen vokseller için yeniden düzlem uydurma ön işleminin ve geliştirilen segmentasyon yönteminin kodlanması aşamalarıdır. Diğeri ise karşılaştırma için literatürde başarı göstermiş segmentasyon yöntemlerinin belirlenmesi, bunların temin edilmesi veya yeniden kodlanması ve nicel karşılaştırma için doğruluk ve F1 skor değerleri hesaplama yöntemlerinin kodlanması aşamalarıdır. Bütün bu geliştirme, iyileştirme ve kodlama aşamaları tamamlandıktan sonra uygulanan yöntemlerin tez kapsamında kullanılan veri setleri üzerindeki segmentasyon çıktılarının doğruluk ve F1 skor sonuçları alınarak, başarı ve çalışma süresi açısından karşılaştırma analizleri yapılmıştır. Geliştirilen yöntem, 0.81 ortalama doğruluk değeri ve 0.69 ortalama F1 skor değeri ile literatürde bulunan ve benzer şekilde noktaların geometrik özelliklerini kullanarak segmentasyon yapan diğer yöntemlere göre segmentasyon başarısı ve hız açısından üstünlük elde etmiştir. Tez kapsamında ayrıca, nokta bulutundaki noktaların renk değerlerinin farklılıkları da belirli etki oranlarında segmentasyona dâhil edilmiş ve renk kalitesi yüksek iç mekân verisinde başarı arttırılmıştır. Tez kapsamında daha sonra, geliştirilen yöntemin farklı parametre değerleri ile literatürden alınan yüksek miktarda noktadan oluşan bir iç mekân anlamsal segmentasyon (semantic segmentation) veri seti (S3DIS) üzerindeki ham nokta bulutu sınıflandırmasında ara işlem olarak kullanımı da incelenmiştir. Sınıflandırma işlemi için, öncelikle geliştirilen yöntemle segmentasyon yapılarak veri segmentlere ayrılmış ve her segmentten bir özellik vektörü çıkarılmıştır. Daha sonra da, bu özellik vektörleri kullanılarak sınıflandırma yapılmıştır. Segmentasyon tabanlı sınıflandırma işlemi, Destek Vektör Makinesi (DVM) ve Rastgele Orman (RO) olarak iki farklı sınıflandırıcı ile ayrı ayrı uygulanmıştır. Sınıflandırma işlemlerinin sonuçları da noktaların sınıf etiketlerinin doğruluk ve F1 skor değerleri üzerinden karşılaştırılmıştır. Karşılaştırma sonuçlarına göre, ham nokta bulutundaki noktaların sınıflandırma başarıları DVM için 0.76 doğruluk ve 0.48 F1 skor iken RO için 0.83 doğruluk ve 0.70 F1 skor olmuştur. Sonuçlara bakıldığında kullanılan veri ve özellik setlerine göre RO sınıflandırıcısı DVM sınıflandırıcısından daha iyi sonuç vermiştir.Conference Object An Application of Tree Seed Algorithm for Optimization of 50 and 100 Dimensional Numerical Functions(Institute of Electrical and Electronics Engineers Inc., 2021) Güngör, İmral; Emiroğlu, Bülent Gürsel; Uymaz, S.A.; Kıran, Mustafa ServetThe Tree-Seed Algorithm is an optimization algorithm created by observing the process of growing and becoming a new tree, the seeds scattering around trees in natural life. In this study, TSA is applied to optimize high-dimensional functions. In previous studies, the performance of the tree seed algorithm applied for the optimization of low-dimensional functions has been proven. Thus, in addition to running the algorithm on 30-dimensional functions before, it has also been applied to solve 50-and 100-dimensional numerical functions. This improvement, called the tree seed algorithm, is based on the use of more solution update mechanisms instead of one mechanism. In the experiments, CEC2015 benchmarking functions are used and the developed tree seed algorithm is compared with the base state of TSA, artificial bee colony, particle swarm optimization and some variants of the differential evolution algorithm. Experimental results are obtained as mean, max, min solutions and standard deviation of 30 different runs. As a result, it is observed by the studies that the developed algorithm gives successful results. © 2021 IEEE.Master Thesis Arazi Toplulaştırma Çalışmasında Çok Amaçlı Optimizasyon Tabanlı Dağıtım(Konya Teknik Üniversitesi, 2020) Ortaçay, Zeynep; Uğuz, HarunGerçek hayatta karşılaştığımız problemlerin bir çoğu optimizasyon gerektiren problemlerdir. Bu problemlerin bazıları tek bir hedefe bazıları ise birden fazla hedefe sahiptirler. Tek hedefe sahip problemler tek amaçlı optimizasyon algoritmaları denilen yöntemlerle çözülürler fakat birden fazla hedefi olan problemler bu yöntemlerle çözülmesi zordur. Bu problemler için çok amaçlı optimizasyon algoritmaları olarak adlandırılan yöntemler kullanılmaktadır. Arazi Toplulaştırma (AT) çalışmaları küçük ve dağınık olarak bulunan parsellerin büyük ve bir arada verilmesini amaçlayan bir çalışmadır. AT çalışmasının adımlarından olan Dağıtım aşamasında birden fazla kriter olmasından dolayı çok amaçlı optimizasyon problemi olarak tanımlanır. Bu problemin çözümü için PESA-II, NSGA-II ve Önerilen Hibrit NSGA-II algoritmaları kullanılmıştır. Elde edilen sonuçlar literatürdeki sonuçlar ile karşılaştırılmıştır. Elde edilen sonuçlara göre çok amaçlı optimizasyon algoritmalarının başarılı değerler elde ettiği görülmüştürArticle Automatic Localization of Cephalometric Landmarks Using Convolutional Neural Networks(2021) Nourdine Mogham Njikam Mohamed; Uzbaş, BetülExperts have brought forward interesting and effective methods to address critical medical analysis problems. One of these fields of research is cephalometric analysis. During the analysis of tooth and the skeletal relationships of the human skull, cephalometric analysis plays an important role as it facilitates the interpretation of bone, tooth, and soft tissue structures of the patient. It is used during oral, craniofacial, and maxillofacial surgery and during treatments in orthodontic and orthopedic departments. The automatic localization of cephalometric landmarks reduces possible human errors and is time saving. To performed automatic localization of cephalometric landmarks, a deep learning model has been proposed inspired by the U-Net model. 19 cephalometric landmarks that are generally manually determined by experts are automatically obtained using this model. The cephalometric X-ray image dataset created under the context of IEEE 2015 International Symposium on Biomedical Imaging (ISBI 2015) is used and data augmentation is applied to it for this experiment. A Success Detection Rate SDR of 74% was achieved in the range of 2 mm, 81.4% in the range of 2.5mm, 86.3% in the range of 3mm, and 92.2% in the range of 4mm.Article Aydınlatma Özniteliği Kullanılarak Evrişimsel Sinir Ağı Modelleri İle Meyve Sınıflandırma(2020) Büyükarıkan, Birkan; Ülker, ErkanAydınlatma, nesnelerin olduğu gibi görünmesini sağlayan doğal veya yapay kaynaklardır. Özellikle görüntü işleme uygulamalarında yakalanan görüntüdeki nesne bilgisinin eksiksiz ve doğru şekilde alınabilmesi için aydınlatmanın kullanılması bir gerekliliktir. Ancak aydınlatma kaynağının tür, parlaklık ve konumunun değişimi; nesnenin görüntüsü, rengi, gölgesi veya boyutunun da değişmesine ve nesnenin farklı olarak algılanmasına sebep olmaktadır. Bu sebeple görüntülerin ayırt edilmesinde güçlü bir yapay zeka tekniğinin kullanılması, sınıfların ayırt edilmesini kolaylaştıracaktır. Bir yapay zeka yöntemi olan Evrişimsel Sinir Ağları (ESA), otomatik olarak özellikleri çıkarabilen ve ağ eğitilirken öğrenme sağlandığı için bariz özellikleri kolaylıkla belirleyen bir algoritmadır. Çalışmada ALOI-COL veriseti kullanılmıştır. ALOI-COL, 12 farklı renk sıcaklığıyla elde edilmiş 1000 sınıftan oluşan bir verisetidir. ALOI-COL verisetindeki 29 sınıftan oluşan meyve görüntüleri, ESA mimarilerinden AlexNet, VGG16 ve VGG19 kullanılarak sınıflandırılmıştır. Verisetindeki görüntüler, görüntü işleme teknikleriyle zenginleştirilmiş ve her sınıftan 51 adet görüntü elde edilmiştir. Çalışma; %80-20 ve %60-40 eğitim-test olmak üzere iki yapıda incelenmiştir. 50 devir çalıştırılması sonucunda test verileri, AlexNet (%80-20) ve VGG16 (%60-40) mimarilerinde %100, VGG19 (%80-20) mimarisinde ise %86.49 doğrulukla sınıflandırılmıştır.Master Thesis Bilgisayarlı Tomografi Görüntülerinde Derin Öğrenme Tabanlı Çoklu Organ Segmentasyonu(Konya Teknik Üniversitesi, 2022) Kayhan, Beyza; Uymaz, Sait AliGelişen teknoloji ile birlikte sağlık alanındaki en önemli gelişmeler tıbbi görüntüleme teknikleri sayesinde gerçekleştirilmektedir. Vücudumuzun iç yapısının tıbbi görüntüleme teknikleri aracılığıyla detaylı olarak görüntülenmesi sonucu organların durumu hakkında bilgi edinilmektedir. Elde edilen bu görüntüler radyologlar tarafından değerlendirilir ve yorumlanır. Tıbbi görüntü analizinde öncelikli olarak organların ve dokuların tanınması hastalık teşhisi ve tedavi planlamasının ilk aşamasıdır. Fakat tıbbi görüntüler üzerinden organların tanınması oldukça zor ve zaman alıcı bir işlemdir. Bu çalışmada radyologlara yardımcı olması için karın bölgesine ait bilgisayarlı tomografi görüntüleri üzerinde birden fazla organın segmentasyonunu sağlayan bilgisayar destekli otomatik tanı sistemi gerçekleştirilmiştir. Derin Öğrenme modellerinin diğer bilgisayarlı görü alanlarında olduğu gibi segmentasyon alanında da yüksek başarı elde etmesi nedeniyle otomatik çoklu organ segmentasyon işleminde derin öğrenme yöntemi olan tam evrişimli bir sinir ağı kullanılmıştır. Bu çalışmada Vanderbilt Üniversitesinin çoklu organ segmentasyon yarışması (MICCAI 2015 Multi-Atlas Abdomen Labeling Challenge) için sağladığı veri seti kullanılmıştır. Veri setindeki dosyalar NIfTI formatında 3 boyutlu karın tomografi görüntüleridir. Bu görüntülerden HSV renk uzayında görüntü elde edilerek farklı renk uzaylarının birleştiren iki aşamalı 3D U-Net modelinin kullanıldığı füzyon bir yaklaşım önerilmiştir. Önerilen modelin değerlendirilmesi için Dice benzerlik katsayısı kullanılmıştır ve test işlemi sonucunda en yüksek Dice skorunun elde edildiği organ karaciğer ve en düşük skorun elde edildiği organ sol böbrek üstü bezi olarak bulunmuştur. Tüm organların ortalama doğruluk skoruna bakıldığında radyologlara yardımcı olması için gerçekleştirilen otomatik segmentasyon sisteminin başarılı ve umut verici olduğu görülmüştür.Conference Object Binary African Vultures Optimization Algorithm for Z-Shaped Transfer Functions(2023) Baş, EmineMetaheuristic algorithms are of great importance in solving binary optimization problems. African Vulture Optimization algorithm (AVO) is a swarm intelligence-based heuristic algorithm created by imitating the life forms of African vultures. In this study, the AVO, which has been proposed in recent years, is restructured to solve binary optimization problems. Thus, Binary AVO (BAVO) has been proposed. Four different z-shaped transfer functions are chosen to convert the continuous search space to binary search space. Variations for BAVO are defined according to the transfer function used (BAVO1, BAVO2, BAVO3, and BAVO4). The success of these variations was tested in thirteen classic test functions containing unimodal and multimodal functions. Three different dimensions were determined in the study (5, 10, and 20). Each test function was run ten times independently and the average, standard deviation, best, and worst values were obtained. According to the results obtained, the most successful of these variations has been identified. According to the results, the BAVO4 variant at higher dimensions achieved better results. The success of BAVO with z-shaped transfer functions was demonstrated for the first time in this study.Conference Object Binary Fox Optimization Algorithm Based U-Shaped Transfer Functions for Knapsack Problems(2023) Baş, EmineThis paper examines a new optimization algorithm called Fox optimizer (FOX), which mimics the foraging behavior of foxes while hunting in nature. When the literature is examined, it is seen that there is no version of FOX that solves binary optimization problems. In this study, continuous search space is converted to binary search space by U-shaped transfer functions and BinFOX is proposed. There are four U-shaped transfer functions in the literature. Based on these transfer functions, four BinFOX variants are derived (BinFOX1, BinFOX2, BinFOX3, and BinFOX4). With BinFOX variants, 25 well-known 0-1knapsack problems in the literature have been solved and their success has been demonstrated. The best, worst, mean, standard deviation, time, and gap values of each variant were calculated. According to the results, the most successful BinFOX variant was determined. The success of BinFOX with U-shaped transfer functions was demonstrated for the first time in this study.Conference Object Business Strategy and Market-Based Performance(2023) Baş, EmineMarket orientation, which is one of the most remarkable orientations; It is the whole of organizational activities aimed at understanding and satisfying the general demands and needs of customers and providing unique customer value. However, in a rapidly changing competitive environment, there is a need for competitive tactics that will strengthen the market orientation and directly contribute to performance, rather than focusing only on market orientation. In this context, the relationships between the components of market orientation, differentiation strategy and firm performance are of great importance.Conference Object Büyük Veri ve Hadoop(2022) Baş, EmineGünümüzde teknolojinin yaygın bir şekilde kullanılmasıyla artan bir very (büyük veri) oluşmuştur. Büyük veri, geleneksel veri işleme uygulamalarının üstesinden gelemeyeceği kadar büyük veya karmaşık veri setlerini analiz etme ve bu veri setlerinden sistematik olarak bilgi elde etmeyi sağlayacak yöntemler arayan bilişim bilimleri sahasıdır. Bir diğer deyişle Big Data, çoğunluğu yapılandırılmamış olan ve sonu gelmez bir şekilde birikmeye devam eden, geleneksel ilişki bazlı veri tabanı teknikleri yardımıyla çözülemeyecek kadar yapısallıktan uzak, çok çok büyük, çok ham ve üstel bir şekilde büyümekte olan veri setleridir. Büyük very çeşitlilik, hız ve hacim olmak üzere üç ana bileşeni ile karakterize edilen geleneksel veri analizinden devrim niteliğinde bir adım gerektirir. Bu verinin şekli itibariyle klasik yöntemlerle işlenmesi zordur. Çeşitlilik (Variety), büyük verileri gerçekten büyük hale getirir. Verinin hacmi veya boyutu (Volume) artık terabayt ve petabayttan daha büyüktür. Hız (Velocity) sadece büyük veri için değil, tüm süreçler için gereklidir. Zaman sınırlı süreçler için, değerini en üst düzeye çıkarmak için kuruluşa akarken büyük veri kullanılmalıdır. Verilerin büyük ölçeği ve yükselişi, geleneksel depolama ve analiz tekniklerini geride bırakır. Araştırmacılar bu verinin kolay bir şekilde işlenmesi için bir arayış içine girmiştir. Büyük veri, MapReduce gibi mimarileri destekleyen yepyeni bir endüstri yaratmıştır. Hadoop bu büyük verinin sınıflandırılması ve işlenmesi konusunda çıkmış bir yazılımdır. Hadoop JAVA programlama dili ile geliştirilmiş popüler, açık kaynaklı bir Apache projesidir. Üretilme amacı ise büyük verilerin daha hızlı işlenmesidir. Temel olarak yazılımı dağıtık dosya sistemi olarak tanımlayabiliriz. Bu dağıtık dosya sistemi HDFS yani Hadoop Distributed File System olarak adlandırılır. Hadoop bileşenleri şunlardır: HDFS, MapReduce, HBase, Pig, Hive ve ZooKeeper dir. Bu bildiride büyük veri ve hadoop konusunda bir araştırma sunulmuştur.Conference Object Category Prediction of Turkish Poems Using Artificial Intelligence and Natural Language Processing Methods With Mlp and Svm Algorithms(2023) Korkmaz, Sedat; Yönet, EmrePeople are able to communicate with each other through language. The languages that people use are called natural languages. Natural languages such as English, Turkish, French, etc. are used for communication. Similarly, people can communicate with machines, and for this purpose, natural languages can be made understandable by machines by subjecting them to a series of processes. For this purpose, it is necessary to analyze the canonical structures of natural languages and make them understandable. This process is basically carried out on four levels of analysis: Lexical Analysis, Syntactic Analysis, Semantic Analysis, and Discourse Analysis. Natural Language Processing (NLP) is a branch of artificial intelligence that deals with the processing of natural language input in the form of speech and text. The use of NLP is prevalent in a variety of fields, such as intelligent virtual assistants, search engines, social media monitoring platforms, automatic translation systems, text summarization systems, and text categorization systems. This study presents a model for predicting the categories of Turkish poems using natural language processing and machine learning methods. The project code was written in Python using the Anaconda development environment. The Zemberek library was used to perform various operations on Turkish texts. The dataset used consisted of 4198 poems taken from a website and categorized into 21 categories. During the data preprocessing stage, the texts were converted to lower case, punctuation marks, spaces, and stop-words were removed and root extraction was performed. The Term Frequency-Inverse Document Frequency (TF-IDF) method was used for text representation and evaluated the success rates of models created using Support Vector Machine (SVM) and Multilayer Perceptron (MLP) classifiers. The findings indicated that the SVM classifier outperformed the MLP classifier.Book Part Citation - Scopus: 15Chaos Theory in Metaheuristics(Elsevier, 2023) Türkoğlu, B.; Uymaz, S.A.; Kaya, E.Metaheuristic optimization is the technique of finding the most suitable solution among the possible solutions for a particular problem. We encounter many problems in the real world, such as timetabling, path planning, packing, traveling salesman, trajectory optimization, and engineering design problems. The two main problems faced by all metaheuristic algorithms are being stuck in local optima and early convergence. To overcome these problems and achieve better performance, chaos theory is included in the metaheuristic optimization. The chaotic maps are employed to balance the exploration and exploitation efficiently and improve the performance of algorithms in terms of both local optima avoidance and convergence speed. The literature shows that chaotic maps can significantly boost the performance of metaheuristic optimization algorithms. In this chapter, chaos theory and chaotic maps are briefly explained. The use of chaotic maps in metaheuristic is presented, and an enhanced version of GSA with chaotic maps is shown as an application. © 2023 Elsevier Inc. All rights reserved.Conference Object Chest X-Ray Image Denoising Based on Convolutional Denoising Autoencoder(2019) Ibrahim, Mohammed; Uymaz, Sait AliNowadays, medical imaging plays important role in medical settings to obtain high resolution images for the human body. The medical imaging techniques usually suffer from many types of noises such as gaussian, salt and pepper and speckle noises. So, getting a high-resolution body image is so difficult. The accurate medical images is necessary for diagnosis of many diseases. In this paper, medical imaging denoising technique based on convolutional denoising autoencoder is proposed. The NIH chest X-Ray dataset has been used for the training and testing of the proposed model. The model consists of 10 layers to learn the representation of the noise in the image and then reconstruct a new image without the noise. The model performance evaluated by using mean squared error and peak signal to noise ratio. For the training purpose we added gaussian noise to the dataset. The total number of images used is 25,000 splitted into training set 22,500 images and testing set 2500 images. The model achieved excellent results on the testing set with 0.01 mean squared error.Article Classification of Invoice Images by Using Convolutional Neural Networks [article](2022) Arslan, Ömer; Uymaz, Sait AliAbstract ? Today, as the companies grow, the number of personnel working within the company and the number of supplier companies that the company works with are also increasing. In parallel with this increase, the amount of expenditure made on behalf of the company increases, and more invoi- ces are created. Since the in-voices must be kept for legal reasons, physical invoices are transferred to the digital environment. Since large companies have large numbers of invoices, labor demand is higher in digitalizing invoices. In addition, as the number of invoices to be transferred to digital media increases, the number of possible errors during entry becomes more. This paper aims to automate the transfer of invoices to the digital environment. In this study, invoices be-longing to four different templates were used. Invoice images taken from a bank system were used for the first time in this study, and the original invoice dataset was prepared. Furthermore, two more datasets were obtained by applying preprocessing methods (Zero-Padding, Brightness Augmentation) on the original dataset. The Invoice classification system developed using Convolutional Neural Networks (CNN) archite- ctures named LeNet-5, VGG-19, and MobileNetV2 was trained on three different data sets. Data preprocessing techniques such as correcting the curvature and aspect ratio of the invoices and image augmentation with variable brightness ratio were applied to create the data sets. The datasets created with preprocessing techniques have increased the classification success of the proposed models. With this proposed model, invoice images were automatically classified according to their templates using CNN architectures. In experimental studies, a classification success rate of 99.83% was achieved in training performed on the data set produced by the data augmentation method.Article Classification of Knee Osteoarthritis Severity by Transfer Learning From X-Ray Images(2024) Solak, Fatma ZehraKnee Osteoarthritis (KOA) is the most common type of arthritis and its severity is assessed with the Kellgren-Lawrence (KL) grading system based on evidence from both knee bones. Recent advancements point to an era where computer-assisted methods enhance KOA diagnostic efficiency. This study implemented binary and multiple classification processes based on X-ray images and deep learning algorithms for computer-aided KOA severity diagnosis. Pre-processing involved extracting the region of interest and contrast enhancement with CLAHE on the X-ray images from the included dataset. Using this dataset, 2, 3, 4, and 5 class classification processes were conducted with ResNet-50, Xception, VGG16, EfficientNetb0, and DenseNet201 transfer learning models. Each model was assessed with “rmsprop,” “sgdm,” and “adam” optimization algorithms. Study findings reveal that, the DenseNet201-rmsprop model achieved 87.7% accuracy, 87.2% F1-Score, and a 0.75 Cohen’s kappa value for 2-class classification. For 3-class classification, it achieved 85.6% accuracy, 82.4% F1-Score, and a 0.71 Cohen’s kappa value. For 4-class classification, the DenseNet201-rmsprop model provided 81.5% accuracy, 77.1% F1-Score, and a Cohen’s kappa value of 0.67. In the 5-class classification, the highest success was with the Xception-rmsprop model, with 67.8% accuracy, 68.8% F1-Score, and a 0.55 Cohen’s kappa value. The evaluation with varying class numbers and different transfer learning models highlights the proposed approach’s effectiveness. Results of the study underscore the study’s uniqueness and success in demonstrating how varying the number of classes, employing different transfer learning models and optimizers can provide clearer insights into KOA severity evaluation.Article Classification of Sleep Stages Using Psg Recording Signals(2020) Koca, Yasin; Özşen, Seral; Göğüş, Fatma Zehra; Tezel, Gülay; Küççüktürk, Serkan; Vatansev, HülyaAutomatic sleep staging is aimed within the scope of this paper. Sleep staging is a study by a sleep specialist. Since this process takes quite a long time and sleep is a method based on the knowledge and experience, it is inevitable for each person to show different results. For this, an automatic sleep staging method has been introduced. In the study, EEG (Electroencephalogram), EOG (Electrooculogram), EMG (Electromyogram) data recorded by PSG (Polysomnography) device for seven patients in Necmettin Erbakan University sleep laboratory were used. 81 different features were taken from the data in time and frequency environment. Also, PCA (Principal component analysis) and SFS (Sequential forward selection) feature selection methods were used. The classification success of the sleep phases in different machine learning methods was measured by using the received features. Linear D. (Linear Discriminant Analysis), Cubic SVM (Support vector machine), Weighted kNN (k nearest neighbor), Bagged Trees, ANN (Artificial neural network) were used as classifiers. System success was achieved with a 5 fold cross-validation method. Accuracy rates obtained were respectively 55.6%, 65.8%, 67%, 72.1%, and 69.1%.Article Çok Amaçlı Dağınık Arama Algoritmasının Zdt-dtlz Test Problemleri Üzerinde Uygulanması(2024) Haber, Zeynep; Uğuz, HarunDağınık arama algoritması, tek amaçlı optimizasyon problemlerinin çözümünde sıkça kullanılan bir yöntemdir. Ancak, çok amaçlı problemlerle başa çıkmak oldukça zorlu bir süreçtir. Bu makale, çok amaçlı optimizasyon problemleriyle başa çıkabilmek için \"Dağınık Arama Algoritması\" (DA) olarak adlandırılan yöntemin genişletilmesine yönelik bir öneri sunmaktadır. Önerilen yaklaşım, DA algoritmasına çok amaçlı optimizasyon algoritması olan Baskın Olmayan Sıralama Genetik Algoritması II (NSGA-II) yöntemindeki Yoğunluk Mesafesi (CD) ve Hızlı Bastırılmamış Sıralama kavramlarını ekleyerek hibrit çok amaçlı optimizasyon algoritması önermektedir. Bu önerilen algoritma, ZDT ve DTLZ test problemleri kullanılarak değerlendirilmiştir. Yapılan deneysel sonuçlar, önerilen Çok Amaçlı Dağınık Arama(ÇADA) algoritmasının 19 farklı çok amaçlı optimizasyon yöntemi ile karşılaştırıldığında, ZDT problemi için 2.40 IGD ortalama ile birinci sırada, DTLZ probleminde ise 0.0035 IGD ortalama değeri ile altıncı sırada yer aldığını göstermektedir. Bu sonuçlar, önerilen algoritmanın karşılaştırılabilir düzeyde başarılı bir performansa sahip olduğunu ortaya koymaktadır.Article Çok Amaçlı Mühendislik Tasarımı ve Kısıtlı Problemler için Hibrit Birçok Amaçlı Optimizasyon Algoritması(2021) Karakoyun, Murat; Kodaz, HalifeGerçek dünya problemlerine bakıldığında çoğunun birden fazla hedefi gerçekleştirmeye yönelik olduğu görülmektedir. Bu problemlerin çözümü için kullanılan birçok klasik yöntem mevcuttur. Klasik yöntemlerin çözüm geliştirme noktasında farklı sebeplerden dolayı eksik kalması araştırmacıları farklı yaklaşımlar geliştirmeye yöneltmiştir. Genellikle doğada sürü halinde yaşayan hayvanların veya farklı yaşam alanlarına sahip bitkilerin davranışlarından esinlenilerek geliştirilen doğa esinli algoritmalar bu yaklaşımlardan bir tanesi olmuştur. Bu çalışmada, tek amaçlı problemlerin çözümü için geliştirilmiş olan kurbağa sıçrama (SFLA) ve gri kurt optimizasyonu (GWO) algoritmaları hibrit bir şekilde kullanılarak çok amaçlı optimizasyon problemlerine uygulanmıştır. Önerilen algoritma bazı çok amaçlı mühendislik tasarımı ve çok amaçlı kısıtlı problemlerin üzerinde uygulanmıştır. Önerilen algoritmanın performansı NSGA-II, IBEA, MOCell ve PAES algoritmalarının performansı ile kıyaslanmıştır. Performans karşılaştırma metriği olarak HV, IGD, Spread ve Epsilon metrikleri kullanılmıştır. Performans analizi; elde edilen ortalama sonuçlar, Friedman sıralama testi ve Wilcoxon anlamlılık testi ile yapılmıştır. Deneysel sonuçlar, önerilen algoritmanın diğer algoritmalardan daha başarılı sonuçlar ürettiğini göstermiştir.Article A Comparative Application Regarding the Effects of Traveling Salesman Problem on Logistics Costs(2019) Dündar, Abdullah Oktay; Şahman, Mehmet Akif; Tekin, Mahmut; Kıran, Mustafa ServetThe necessity of transporting goods from production facilities to buyers requires every company to manage logistics. While the quantity of products ordered has been decreasing in recent years, the number of orders has been increasing. This situation leads to higher logistics costs and more attempts to control logistics costs by business managers. One way to decrease logistics costs is the optimization of traveled distances. The Traveling Salesman Problem (TSP) attempts to optimize travel distances by changing the order of the locations to be visited. By doing so, it reduces the logistics costs associated with travel distances. However, there are also some parameters of logistics costs that are not related to travel distances. This paper examines the effects of optimization results by TSP on logistics costs, using seven different methods to consider a real logistics problem, and comparing the results. Then it discusses the variation in logistics costs due to TSP.Conference Object Comparative Study on Automatic Speech Recognition(2018) Mahmood, A.; Kaya, ErsinSpeech is a tools used as a means of communication between society. Along with the developing technology, various methods have been proposed to enable people to communicate and interact with the machines. In this study, Mel Frequency Cepstral Coefficients and Pitch Feature were obtained from the data set consisting of ten classes with different speakers. The obtained features were compared with classification achievements using k-Nearest Neighbor (KNN), Decision Tree (DT) and Quadratic Discriminant Analysis (QDA) classifiers. Furthermore, sensitivity of classifiers used with different numbers of training data is presented.

