Otonom Sistemler için Sensör Füzyon ve Görsel Tabanlı Konumlandırma

dc.contributor.advisor Sungur, Cemi̇l
dc.contributor.author Yusefi, Abdullah
dc.date.accessioned 2024-06-01T08:58:44Z
dc.date.available 2024-06-01T08:58:44Z
dc.date.issued 2024
dc.description.abstract İnsanlar gibi kendi kararlarını veren ve görevlerini gerçekleştiren otonom mobil robot uygulamalarının ihtiyaç duyduğu bir özellik, insansı görevleri robotlara yaptırma gerekliliğidir. Otonom bir robot, bulunduğu ortamın geometrik yapısını anlamalı, kendini doğru bir şekilde konumlandırmalı ve bu bilgileri kullanarak belirlenen görev noktasına yönlendiren bir hareket yörüngesi oluşturmalıdır. Özellikle tek bir sensörün yetersiz olduğu durumlarda, farklı sensörlerin birleştirilmesiyle elde edilen sensör füzyonu, mobil robot konumlandırma çalışmalarında önemli bir rol oynamaktadır. Son yıllarda, işlemci hızındaki gelişmeler sayesinde, düşük maliyetli monoküler kameralar kullanılarak gerçekleştirilen Görsel Odometri (Visual Odometry (VO)) yöntemlerine daha fazla odaklanılmıştır. Ayrıca, kameralara ek olarak düşük maliyetli Atalet Ölçü Birimi (Inertial Measurement Unit (IMU)) sensörlerini içeren VIO çözümleri, konumlandırmaya katkı sağlamak amacıyla tercih edilmeye başlanmıştır. Geleneksel geometrik tabanlı çözümler genellikle karmaşık dünyayı doğru bir şekilde temsil etmekte zorlanır ve güvenilir sonuçlar elde etmekte zorluk yaşar. Bu nedenle, günümüzde Yapay Zeka tabanlı çözümler, farklı ortamlara ve kolay uyarlanabilme avantajları nedeniyle geleneksel çözümlerin yerini almaktadır. Bu tez çalışması, yukarıda belirtilen bilgiler ışığında, tek bir sensörün yetersiz olduğu durumlarda otonom araç geliştirmek için iki farklı uygulama önermektedir. İlk uygulama, iç ortamda hareket eden bir İHA'nın konumunu tahmin etmek amacıyla görsel ve IMU bilgilerine dayalı derin öğrenme tabanlı bir hibrit mimari sunmaktadır. İkinci uygulama ise ardışık kamera görüntülerini işleyerek otonom aracın konumunu başarılı bir şekilde tahmin eden yapay zeka tabanlı farklı bir VIO uygulamasını, farklı bir füzyon tekniğiyle gerçekleştirmektedir. Her iki uygulama da otonom aracın konumlandırması için yenilikçi yöntemler sunmaktadır. Bu yöntemler, önceki çalışmalara kıyasla üstün performans sergileme eğilimindedir. Ayrıca, gerçekleştirilen uygulamaların gerçek zamanlı sistemlerde çalışabilecek nitelikte olduğu belirlenmiştir. en_US
dc.description.abstract One of the essential features for autonomous mobile robot applications that make their own decisions and perform tasks like humans is the necessity of delegating humanoid tasks to robots. An autonomous robot should understand the geometric structure of its environment, accurately localize itself, and create a motion trajectory guiding it to the specified point using this information. Sensor fusion obtained by combining different sensors plays a significant role in mobile robot localization, especially in cases where a single sensor is insufficient. In recent years, advancements in processor speed have led to increased focus on Visual Odometry (VO) methods using low-cost monocular cameras. Additionally, Visual-Inertial Odometry (VIO) solutions, incorporating low-cost Inertial Measurement Unit (IMU) sensors alongside cameras, have been preferred to contribute to localization. Traditional geometric-based solutions often struggle to accurately represent complex environments and face difficulties in obtaining reliable results. Therefore, Artificial Intelligence-based solutions are increasingly replacing traditional methods due to their adaptability to different environments. In light of the information mentioned above, this thesis proposes two different applications for developing autonomous vehicles in cases where a single sensor is insufficient. The first application presents a deep learning-based hybrid architecture using visual and IMU information to predict the position of a UAV (Unmanned Aerial Vehicle) moving indoors. The second application implements an artificial intelligence-based VIO (Visual-Inertial Odometry) application successfully predicting the position of an autonomous vehicle by processing consecutive camera images, using a different fusion technique. Both applications offer innovative methods for the localization of autonomous vehicles, demonstrating a tendency to outperform previous studies. Furthermore, it has been determined that the implemented applications are capable of operating in real-time systems. en_US
dc.identifier.uri https://tez.yok.gov.tr/UlusalTezMerkezi/TezGoster?key=cr4SkWLaRMhkDRBjqthpsTQ8QoOWdNgiaBpGi0yicH04LseRBvwBzs34-etHY0NT
dc.identifier.uri https://hdl.handle.net/20.500.13091/5653
dc.language.iso tr en_US
dc.publisher Konya Teknik Üniversitesi en_US
dc.rights info:eu-repo/semantics/openAccess en_US
dc.subject Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol en_US
dc.subject Computer Engineering and Computer Science and Control en_US
dc.title Otonom Sistemler için Sensör Füzyon ve Görsel Tabanlı Konumlandırma en_US
dc.title.alternative Sensor Fusion and Visual-Based Localization for Autonomous Systems en_US
dc.type Doctoral Thesis en_US
dspace.entity.type Publication
gdc.author.institutional Yusefi, Abdullah
gdc.coar.access open access
gdc.coar.type text::thesis::doctoral thesis
gdc.description.department Entitüler, Lisansüstü Eğitim Enstitüsü, Bilgisayar Mühendisliği Ana Bilim Dalı en_US
gdc.description.endpage 117 en_US
gdc.description.publicationcategory Tez en_US
gdc.description.scopusquality N/A
gdc.description.startpage 1 en_US
gdc.description.wosquality N/A
gdc.identifier.yoktezid 857676 en_US
gdc.virtual.author Sungur, Cemil
relation.isAuthorOfPublication 5afbc8e5-34e4-41c7-9e7b-ee7412206e11
relation.isAuthorOfPublication.latestForDiscovery 5afbc8e5-34e4-41c7-9e7b-ee7412206e11
relation.isOrgUnitOfPublication e7436ffa-3f5f-43e9-9bc4-93f3d2989efb
relation.isOrgUnitOfPublication 734472cd-522b-46a9-b0bd-f92197eb0894
relation.isOrgUnitOfPublication 38239134-2638-4e9e-8ec2-877d1e166988
relation.isOrgUnitOfPublication.latestForDiscovery e7436ffa-3f5f-43e9-9bc4-93f3d2989efb

Files

Collections