Оцінка швидкодії застосування моделей-класифікаторів даних аерозйомки в умовах обмежених ресурсів

Автор(и)

  • Пилип Олександрович Приставка Державне некомерційне підприємство «Київський авіаційний інститут», Україна https://orcid.org/0000-0002-0360-2459
  • Ольга Геннадіївна Чолишкіна Київський національний університет імені Тараса Шевченко, Україна https://orcid.org/0000-0002-0681-0413
  • Валерій Дмитрович Зівакін Державне некомерційне підприємство «Київський авіаційний інститут», Україна https://orcid.org/0000-0002-0420-0558
  • Борис Петрович Стеценко Державне некомерційне підприємство «Київський авіаційний інститут», Україна https://orcid.org/0009-0007-6588-9532

DOI:

https://doi.org/10.15587/2706-5448.2025.323322

Ключові слова:

безпілотні літальні апарати, дані аерозйомки, нейромережі-класифікатори, машинне навчання, обмежені обчислювальні ресурси

Анотація

Об’єктом дослідження є процес обробки даних аерофотозйомки в умовах обмежених обчислювальних ресурсів, зокрема на одноплатних комп’ютерах, що встановлюються на борту безпілотних літальних апаратів (БПЛА) за використанням моделей класифікації.

Одним із найбільш проблемних місць є адаптація моделей класифікації до змін масштабу та перспективних спотворень, які виникають під час маневрування БПЛА. Крім того, висока обчислювальна складність традиційних методів, таких як ковзне вікно, значно обмежує можливості використання на пристроях з обмеженими ресурсами.

У ході дослідження використовувалися сучасні нейромережі-класифікатори, такі як ResNet50v2, DenseNet121 і MobileNetV2, які було навчено на спеціалізованому наборі даних аерофотозйомки.

Проведено експеримент по застосуванню запропонованих нейромереж-класифікаторів на платформах Raspberry Pi 4 Model B та OrangePi 5 Pro з обмеженими обчислювальними потужностями, що імітують обмежені ресурси систем БПЛА. Для оптимізації роботи запропоновано обробляти потокове відео «по-смугово», що забезпечує баланс швидкодії обробки та кількості обробленої інформації повітряного спостереження. При цьому отримано оцінки часу застосування різних типів мереж-класифікаторів на одноплатних комп’ютерах, що можуть бути розміщені на борту БПЛА.

Завдяки цьому забезпечується можливість оперативної обробки даних аерофотозйомки в реальному часі. У порівнянні з традиційними підходами, запропоновані рішення забезпечують переваги у вигляді зниження енергоспоживання, прискорення обчислень і підвищення точності. Це робить результати дослідження перспективними для впровадження в різних сферах, таких як військові операції, розвідка, пошуково-рятувальні місії та агротехнології.

Біографії авторів

Пилип Олександрович Приставка, Державне некомерційне підприємство «Київський авіаційний інститут»

Доктор технічних наук, професор, завідувач кафедри

Кафедра прикладної математики

Ольга Геннадіївна Чолишкіна, Київський національний університет імені Тараса Шевченко

Кандидат технічних наук, доцент

Кафедра інтелектуальних систем

Валерій Дмитрович Зівакін, Державне некомерційне підприємство «Київський авіаційний інститут»

Доктор філософії, старший викладач

Кафедра прикладної математики

Борис Петрович Стеценко, Державне некомерційне підприємство «Київський авіаційний інститут»

Кафедра прикладної математики

Посилання

  1. Chyrkov, A., Prystavka, P.; Hu, Z., Petoukhov, S., Dychka, I., He, M. (Eds.) (2018). Suspicious Object Search in Airborne Camera Video Stream. ICCSEEA 2018. Advances in Computer Science for Engineering and Education, 340–348. https://doi.org/10.1007/978-3-319-91008-6_34
  2. Prystavka, P., Shevchenko, A., Rokitianska, I. (2024). Comparative Analysis of Detector-Tracker Architecture for Object Tracking Based on SBC for UAV. 2024 IEEE 7th International Conference on Actual Problems of Unmanned Aerial Vehicles Development (APUAVD), 175–178. https://doi.org/10.1109/apuavd64488.2024.10765890
  3. Prystavka, P., Chyrkov, A., Sorokopud, V., Kovtun, V. (2019). Automated Complex for Aerial Reconnaissance Tasks in Modern Armed Conflicts. CEUR Workshop Proceedings, 2588, 57–66.
  4. Prystavka, P., Cholyshkina, O., Dolgikh, S., Karpenko, D. (2020). Automated Object Recognition System based on Convolutional Autoencoder. 2020 10th International Conference on Advanced Computer Information Technologies (ACIT), 830–833. https://doi.org/10.1109/acit49673.2020.9208945
  5. Redmon, J., Farhadi, A. (2017). YOLO9000: Better, Faster, Stronger. 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 6517–6525. https://doi.org/10.1109/cvpr.2017.690
  6. Tian, Y., Wang, S., Li, E., Yang, G., Liang, Z., Tan, M. (2023). MD-YOLO: Multi-scale Dense YOLO for small target pest detection. Computers and Electronics in Agriculture, 213, 108233. https://doi.org/10.1016/j.compag.2023.108233
  7. Fedus, W., Zoph, B., Shazeer, N. (2022). Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity. Journal of Machine Learning Research, 23. https://doi.org/10.48550/arXiv.2101.03961
  8. Shaw, A., Hunter, D., Landola, F., Sidhu, S. (2019). SqueezeNAS: Fast Neural Architecture Search for Faster Semantic Segmentation. 2019 IEEE/CVF International Conference on Computer Vision Workshop (ICCVW), 2014–2024. https://doi.org/10.1109/iccvw.2019.00251
  9. Wu, B., Wan, A., Iandola, F., Jin, P. H., Keutzer, K. (2017). SqueezeDet: Unified, Small, Low Power Fully Convolutional Neural Networks for Real-Time Object Detection for Autonomous Driving. 2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), 446–454. https://doi.org/10.1109/cvprw.2017.60
  10. Bello, I., Fedus, W., Du, X., Cubuk, E. D., Shlens, J., Zoph, B. et al. (2021). Revisiting ResNets: Improved Training and Scaling Strategies. Advances in Neural. Information Processing Systems, 27, 22614–22627. https://doi.org/10.48550/arXiv.2103.07579
  11. Tomasello, P., Sidhu, S., Shen, A., Moskewicz, M. W., Redmon, N., Joshi, G. et al. (2019). DSCnet: Replicating Lidar Point Clouds With Deep Sensor Cloning. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), 1317–1325. https://doi.org/10.1109/cvprw.2019.00171
  12. Qin, D., Leichner, C., Delakis, M., Fornoni, M., Luo, S., Yang, F. et al. (2024). MobileNetV4: Universal Models for the Mobile Ecosystem. Computer Vision – ECCV 2024, 78–96. https://doi.org/10.1007/978-3-031-73661-2_5
  13. Orange Pi 5 vs Raspberry Pi 4 Model B Rev 1.2. Available at: https://browser.geekbench.com/v5/cpu/compare/19357188?baseline=19357599&utm_source=chatgpt.com
  14. Zivakin, V., Kozachuk, O., Prystavka, P., Cholyshkina, O. (2022). Training set AERIAL SURVEY for Data Recognition Systems From Aerial Surveillance Cameras. CEUR Workshop Proceedings, 3347, 246–255.
Evaluation of the performance of data classification models for aerial imagery under resource constraints

##submission.downloads##

Опубліковано

2025-02-24

Як цитувати

Приставка, П. О., Чолишкіна, О. Г., Зівакін, В. Д., & Стеценко, Б. П. (2025). Оцінка швидкодії застосування моделей-класифікаторів даних аерозйомки в умовах обмежених ресурсів. Technology Audit and Production Reserves, 1(2(81), 43–48. https://doi.org/10.15587/2706-5448.2025.323322

Номер

Розділ

Системи та процеси керування