МЕТОД ОДНОЧАСНОЇ ЛОКАЛІЗАЦІЇ ТА КАРТОГРАФУВАННЯ ДЛЯ ПОБУДОВИ 2,5D-КАРТИ НАВКОЛИШНЬОГО СЕРЕДОВИЩА ЗАСОБАМИ ROS
DOI:
https://doi.org/10.30837/ITSSI.2023.24.145Ключові слова:
SLAM; ROS; 2D LRF; RGB-D; 2,5D-карта висоти; методи одночасної локалізації та картографування; інтелектуальний робот; визначення місця розташування; моделювання та симуляціяАнотація
Метод SLAM (одночасної локалізації та картографування) на сьогодні є актуальною темою для досліджень і розвитку в галузі робототехніки та комп’ютерного зору. SLAM широко застосовується в різних сферах, зокрема автономної навігації інтелектуальних роботів. З допомогою цього методу розв’язуються проблеми в розширеній і віртуальній реальності, БПЛА та інших систем. За останні роки SLAM здобув значні досягнення завдяки поступовому розвитку його алгоритмів, використанню новітніх датчиків, а також покращенню обчислювальної потужності комп’ютерів. Предметом дослідження є сучасні методи одночасної локалізації та картографування в режимі реального часу. Мета роботи – моделювання розробленого алгоритму для побудови карт навколишнього середовища та визначення місця розташування й орієнтації інтелектуального робота в просторі в режимі реального часу за допомогою пакетів ROS. Завдання статті – демонстрація результатів поєднання методів SLAM та розроблення нових підходів до розв’язання проблем одночасної локалізації та картографування. Для досягнення поставлених завдань використано комбінацію методів лазерного сканування (2D LRF) та глибинного відтворення зображень (RGB-D) для одночасної локалізації та картографування інтелектуального робота та побудови 2,5D-карти середовища. Здобуті результати є обнадійливими та демонструють перспективність роботи об’єднаних методів SLAM, що застосовуються разом для забезпечення й очного виконання одночасної локалізації та картографування інтелектуальних роботів у режимі реального часу. Запропонований метод дає змогу враховувати висоти перешкод у побудові карти навколишнього середовища, витрачаючи менші обчислювальні потужності. У висновку такий підхід розширює технології, не замінюючи наявні робочі пропозиції, й уможливлює використання сучасних методів для всебічного виявлення та розпізнавання довкілля за допомогою ефективного локалізаційного та картографічного підходу, надаючи більш точні результати з використанням менших ресурсів.
Посилання
Список літератури
Nevliudov I., Novoselov S., Sychova O., Mospan D. Multithreaded Software Control of Industrial Manipulator Movement, IEEE 4th International Conference on Modern Electrical and Energy System (MEES). Kremenchuk, Ukraine. 2022. Р. 1–6. DOI: 10.1109/MEES58014.2022.10005675
Сухачов К. Сучасні методи одночасної локалізації і картографування в режимі реального часу. Автоматизація та комп’ютерно-інтегровані технології у виробництві та освіті: стан, досягнення, перспективи розвитку. Матеріали Всеукраїнської науково-практичної Інтернет-конференції. Черкаси, 2023. С. 77–79. URL: https://conference.ikto.net/
Nevliudov I., Novoselov S., Sychova O., Tesliuk S. Development of the Architecture of the Base Platform Agricultural Robot for Determining the Trajectory Using the Method of Visual Odometry. IEEE XVII-th International Conference on the Perspective Technologies and Methods in MEMS Design (MEMSTECH). Polyana (Zakarpattya). Ukraine. 2021. Р. 64–68. DOI: 10.1109/MEMSTECH53091.2021.9468008
Khan M. S. A. et al. Investigation of Widely Used SLAM Sensors Using Analytical Hierarchy Process. Journal of sensors. 2022. Vol. 2022. P. 1–15. DOI: https://doi.org/10.1155/2022/5428097
Jiang G. et al. A simultaneous localization and mapping (SLAM) framework for 2.5D map building based on low-cost lidar and vision fusion. Applied sciences. 2019. Vol. 9, № 10. 2105. DOI: https://doi.org/10.3390/app9102105
Rosas-Cervantes A. et al. Sensors Multi-Robot 2.5 D localization and mapping using a monte carlo algorithm on a multi-level surface. 208 MDPI Journals Awarded Impact Factor. 2021. Vol. 21. № 13. 4588. DOI: https://doi.org/10.3390/s21134588
Debeunne C., Vivet D. A review of visual-lidar fusion based simultaneous localization and mapping. Sensors. 2020. Vol. 20. №. 7. 2068. DOI: https://doi.org/10.3390/s20072068
Bustos A. P. et al. Visual SLAM: why bundle adjust? International conference on robotics and automation (ICRA). Montreal, QC, Canada. 20–24 May. 2019. 1043. DOI: https://doi.org/10.1109/icra.2019.8793749
O'Mahony N. et al. Deep learning for visual navigation of unmanned ground vehicles: a review. 29th Irish signals and systems conference (ISSC). Belfast. 21–22 June 2018. 859. DOI: https://doi.org/10.1109/issc.2018.8585381
Freitas C. M. Autonomous navigation with simultaneous localization and mapping in/outdoor: master's thesis. 2020. URL: https://hdl.handle.net/10216/128968
Lynen S. et al. A robust and modular multi-sensor fusion approach applied to MAV navigation. IEEE/RSJ international conference on intelligent robots and systems (IROS 2013). Tokyo. 3–7 November. 2013. 6290. DOI: https://doi.org/10.1109/iros.2013.6696917.
Oh T. et al. Graph structure-based simultaneous localization and mapping using a hybrid method of 2D laser scan and monocular camera image in environments with laser scan ambiguity. Sensors. 2015. Vol. 15. № 7. P. 15830–15852. DOI: https://doi.org/10.3390/s150715830
López E. et al. A multi-sensorial simultaneous localization and mapping (SLAM) system for low-cost micro aerial vehicles in gps-denied environments. Sensors. 2017. Vol. 17. № 4. 802. DOI: https://doi.org/10.3390/s17040802
Nam T., Shim J., Cho Y. A 2.5D map-based mobile robot localization via cooperation of aerial and ground robots. Sensors. 2017. Vol. 17. №. 12. 2730. DOI: https://doi.org/10.3390/s17122730
Zhang Z. et al. Scale estimation and correction of the monocular simultaneous localization and mapping (SLAM) based on fusion of 1D laser range finder and vision data. Sensors. 2018. Vol. 18. №. 6. 1948. DOI: https://doi.org/10.3390/s18061948
Shin Y.-S., Park Y. S., Kim A. Direct visual SLAM using sparse depth for camera-lidar system. IEEE international conference on robotics and automation (ICRA). Brisbane, QLD, Australia. 21–25 May 2018. P. 5144–5151. DOI: https://doi.org/10.1109/icra.2018.8461102
Xu Y., Ou Y., Xu T. SLAM of robot based on the fusion of vision and LIDAR. IEEE international conference on cyborg and bionic systems (CBS). Shenzhen. 25–27 October 2018. 2058. DOI: https://doi.org/10.1109/cbs.2018.8612212
Jiang, G. et al. FFT-Based Scan-Matching for SLAM Applications with Low-Cost Laser Range Finders. Applied sciences. 2018. Vol. 9. № 1. 41. DOI: https://doi.org/10.3390/app9010041
Alves S. A. F. T. Particle-Filter based 3D mapping, localization and SLAM for indoor mobile robot navigation: master's thesis. 2019. URL: http://hdl.handle.net/10316/87952
Bresenham J. E. Algorithm for computer control of a digital plotter. IBM Systems Journal. 1965. Vol. 4. № 1. P. 25–30. DOI: https://doi.org/10.1147/sj.41.0025
Joseph L. Learning Robotics using Python: Design, simulate, program, and prototype an autonomous mobile robot using ROS, OpenCV, PCL, and Python, 2nd Edition. Packt Publishing, 2018. 280 p.
Nevludov I., Sychova O., Reznichenko O., Novoselov S., Mospan D., Mospan V. Control System for Agricultural Robot Based on ROS. IEEE International Conference on Modern Electrical and Energy Systems (MEES). Kremenchuk, Ukraine. 2021. Р. 1–6. DOI: 10.1109/MEES52427.2021.9598560
References
Nevliudov, I., Novoselov, S., Sychova, O., Mospan, D. (2022), "Multithreaded Software Control of Industrial Manipulator Movement", IEEE 4th International Conference on Modern Electrical and Energy System (MEES), Kremenchuk, Ukraine. Р. 1–6. DOI: 10.1109/MEES58014.2022.10005675
Sukhachov, K. (2023), "Modern methods of simultaneous localization and mapping in real time mode" ["Suchasni metody odnochasnoi lokalizatsii i kartohrafuvannia v rezhymi realnoho chasu"]. Automation and computer-integrated technologies in production and education: status, achievements, development prospects. All-Ukrainian scientific and practical Internet conference, Cherkasy, Р. 77–79. available: https://conference.ikto.net/
Nevliudov, I., Novoselov, S., Sychova, O., Tesliuk, S. (2021), "Development of the Architecture of the Base Platform Agricultural Robot for Determining the Trajectory Using the Method of Visual Odometry", IEEE XVII-th International Conference on the Perspective Technologies and Methods in MEMS Design (MEMSTECH), Polyana (Zakarpattya), Ukraine, Р. 64–68. DOI: 10.1109/MEMSTECH53091.2021.9468008
Khan, M. S. A. et al. (2022), "Investigation of Widely Used SLAM Sensors Using Analytical Hierarchy Process", Journal of sensors, Vol. 2022, P. 1–15. DOI: https://doi.org/10.1155/2022/5428097
Jiang, G. et al. (2019), "A simultaneous localization and mapping (SLAM) framework for 2.5D map building based on low-cost lidar and vision fusion", Applied sciences, Vol. 9, № 10, 2105. DOI: https://doi.org/10.3390/app9102105
Rosas-Cervantes, A. et al. (2021), "Sensors Multi-Robot 2.5 D localization and mapping using a monte carlo algorithm on a multi-level surface", 208 MDPI Journals Awarded Impact Factor, Vol. 21. № 13. 4588. DOI: https://doi.org/10.3390/s21134588
Debeunne, C., Vivet, D. (2020), "A review of visual-lidar fusion based simultaneous localization and mapping", Sensors, Vol. 20, №. 7, 2068. DOI: https://doi.org/10.3390/s20072068
Bustos, A. P. et al. (2019), "Visual SLAM: why bundle adjust?", International conference on robotics and automation (ICRA), Montreal, QC, Canada, 20–24 May, 1043. DOI: https://doi.org/10.1109/icra.2019.8793749
O'Mahony, N. et al. (2018), "Deep learning for visual navigation of unmanned ground vehicles: a review", 29th Irish signals and systems conference (ISSC), Belfast, 21–22 June, 859. DOI: https://doi.org/10.1109/issc.2018.8585381
Freitas, C. M. "Autonomous navigation with simultaneous localization and mapping in/outdoor: master's thesis", 2020, available at: https://hdl.handle.net/10216/128968
Lynen, S. et al. (2013), "A robust and modular multi-sensor fusion approach applied to MAV navigation", IEEE/RSJ international conference on intelligent robots and systems (IROS 2013), Tokyo, 3–7 November, 6290. DOI: https://doi.org/10.1109/iros.2013.6696917
Oh, T. et al. (2015), "Graph structure-based simultaneous localization and mapping using a hybrid method of 2D laser scan and monocular camera image in environments with laser scan ambiguity", Sensors, Vol. 15, № 7, P. 15830–15852. DOI: https://doi.org/10.3390/s150715830
López, E. et al. (2017), "A multi-sensorial simultaneous localization and mapping (SLAM) system for low-cost micro aerial vehicles in gps-denied environments", Sensors, Vol. 17, № 4, 802. DOI: https://doi.org/10.3390/s1
Nam, T., Shim, J., Cho, Y. A (2017), "2.5D map-based mobile robot localization via cooperation of aerial and ground robots", Sensors, Vol. 17, № 12, 2730. DOI: https://doi.org/10.3390/s17122730
Zhang, Z. et al. (2018), "Scale estimation and correction of the monocular simultaneous localization and mapping (SLAM) based on fusion of 1D laser range finder and vision data", Sensors, Vol. 18, № 6, 1948. DOI: https://doi.org/10.3390/s18061948
Shin, Y.-S., Park, Y. S., Kim, A. (2018), "Direct visual SLAM using sparse depth for camera-lidar system", IEEE international conference on robotics and automation (ICRA), Brisbane, QLD, Australia, 21–25 May 2018, P. 5144–5151. DOI: https://doi.org/10.1109/icra.2018.8461102
Xu, Y., Ou ,Y., Xu, T. (2018), "SLAM of robot based on the fusion of vision and LIDAR", IEEE international conference on cyborg and bionic systems (CBS), Shenzhen, 25–27 October. 2058. DOI: https://doi.org/10.1109/cbs.2018.8612212
Jiang, G. et al. (2018), "FFT-Based Scan-Matching for SLAM Applications with Low-Cost Laser Range Finders", Applied sciences, Vol. 9, № 1. 41. DOI: https://doi.org/10.3390/app9010041
Alves, S. A. (2019),"Particle-Filter based 3D mapping, localization and SLAM for indoor mobile robot navigation: master's thesis", available at: http://hdl.handle.net/10316/87952
Bresenham, J. E. (1965), "Algorithm for computer control of a digital plotter", IBM Systems Journal, Vol. 4, № 1, P. 25–30. DOI: https://doi.org/10.1147/sj.41.0025
Joseph, L. (2018), Learning Robotics using Python: Design, simulate, program, and prototype an autonomous mobile robot using ROS, OpenCV, PCL, and Python, 2nd Edition, Packt Publishing, 280 p.
Nevludov, I., Sychova, O., Reznichenko, O., Novoselov, S., Mospan, D., Mospan, V. (2021), "Control System for Agricultural Robot Based on ROS", IEEE International Conference on Modern Electrical and Energy Systems (MEES), Kremenchuk, Ukraine, Р. 1–6. DOI: 10.1109/MEES52427.2021.9598560
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Авторське право (c) 2023 Ігор Невлюдов, Сергій Новоселов, Костянтин Сухачов
Ця робота ліцензується відповідно до Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.
Наше видання використовує положення про авторські права Creative Commons для журналів відкритого доступу.
Автори, які публікуються у цьому журналі, погоджуються з наступними умовами:
Автори залишають за собою право на авторство своєї роботи та передають журналу право першої публікації цієї роботи на умовах ліцензії Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License (CC BY-NC-SA 4.0), котра дозволяє іншим особам вільно розповсюджувати опубліковану роботу з обов'язковим посиланням на авторів оригінальної роботи та першу публікацію роботи у цьому журналі.
Автори мають право укладати самостійні додаткові угоди щодо не комерційного та не ексклюзивного розповсюдження роботи у тому вигляді, в якому вона була опублікована цим журналом (наприклад, розміщувати роботу в електронному сховищі установи або публікувати у складі монографії), за умови збереження посилання на першу публікацію роботи у цьому журналі.
Політика журналу дозволяє і заохочує розміщення авторами в мережі Інтернет (наприклад, у сховищах установ або на особистих веб-сайтах) рукопису опублікованої роботи, оскільки це сприяє виникненню продуктивної наукової дискусії та позитивно позначається на оперативності та динаміці цитування опублікованої роботи.