Застосування нейронних мереж Кохонена для пошуку зон інтересу при виявленні і розпізнаванні об'єктів
DOI:
https://doi.org/10.15587/1729-4061.2019.166887Ключові слова:
image recognition, self-organizing maps, Kohonen neural network, radar and satellite images, region of interest, ROI, test operations procedure, robotics.Анотація
Одним з найбільш ефективних способів підвищення точності і швидкодії алгоритмів розпізнавання є попереднє виділення зон інтересу на аналізованих зображеннях. Досліджено можливість застосування самоорганізуючих карт і нейронної мережі Кохонена для визначення зон інтересу на радіолокаційному або супутниковому зображенні підстильної поверхні. У знайдених зонах інтересу велика ймовірність виявлення об'єкта, що цікавить, для подальшого аналізу. Визначення зон інтересу необхідно перш за все для автоматизації та прискорення процесу пошуку і розпізнавання об'єктів, що цікавлять. Це, в силу постійно наростаючої кількості супутників, стає все більш доцільним. Представлено процес моделювання, аналіз і порівняння результатів застосування даних методів для визначення зон інтересу при розпізнаванні образів літальних апаратів на тлі підстильної поверхні. Також описано процес попередньої обробки вхідних даних. Освячено загальний підхід до побудови та навчання самоорганізуючої карти і нейронної мережі Кохонена. Застосування карт і нейронної мережі Кохонена дозволяє в 15–100 разів зменшити обсяг даних, що аналізуються. Це, відповідно, прискорює процес виявлення і розпізнавання об'єкта, що цікавить. Використання наведеного алгоритму істотно скорочує необхідну кількість навчальних образів для згортальної мережі, здійснює остаточне розпізнавання. Зменшення навчальної вибірки обумовлено тим, що розмір частин, що подаються на згортальну мережу вхідного зображення, прив'язаний до масштабу зображення і дорівнює розміру найбільшого об'єкта детектування. Нейронна мережа Кохонена показала себе більш ефективною відносно до даної задачі,так як рідше розміщує центри кластерів на підстильній поверхні в силу незалежності ваги нейронів від сусідніх центрів. Дані технічні рішення можуть застосовуватися при аналізі візуальних даних із супутників, літальних апаратів і безпілотних автомобілів, в медицині, робототехніці і т.д.Посилання
- Simard, P. Y., Steinkraus, D., Platt, J. C. (2003). Best practices for convolutional neural networks applied to visual document analysis. Proceedings of the Seventh International Conference on Document Analysis and Recognition. Available at: http://cognitivemedium.com/assets/rmnist/Simard.pdf
- Novikova, N. M., Dudenkov, V. M. (2015). Modelirovanie neyronnoy seti dlya raspoznavaniya izobrazheniy na osnove gibridnoy seti i samoorganizuyuschihsya kart Kohonena. Aspirant, 2, 31–34.
- Agayan, K. Yu., Hanzhin, V. G. (2018). Neyronnaya set' s arhitekturoy Kohonena dlya raspoznavaniya izobrazheniy. Prochnost' neodnorodnyh struktur – PROST 2018. Sbornik trudov IX-oy Еvraziyskoy nauchno-prakticheskoy konferencii, 153.
- Gerasimova, N. I., Verhoturova, A. E. (2014). Poisk fragmenta izobrazheniya s ispol'zovaniem neyronnoy seti Kohonena. Informacionnye tekhnologii v nauke, upravlenii, social'noy sfere i medicine: sbornik nauchnyh trudov Mezhdunarodnoy konferencii s mezhdunarodnym uchastiem. Ch. 1. Tomsk, 68–70.
- Soldatova, O. P., Chayka, P. D. (2015). Efficiency analysis of solution of classification using hybrid kohonen neural networks. Izvestiya Samarskogo nauchnogo centra Rossiyskoy akademii nauk, 17 (2), 1147–1152.
- Narushev, I. R. (2018). Neural network on the basis of the self-organizing kochonen card as a means of detecting anomalous behavior. Ohrana, bezopasnost', svyaz', 2 (3 (3)), 194–197.
- Kajan, S., Sekaj, I., Lajtman, M. Cluster Analysis Aplications in Matlab Using Kohonen Network. Available at: https://pdfs.semanticscholar.org/a8ba/6977dce4bdbeec3dd370eb614de2c6f56514.pdf
- LeCun, Y., Bengio, Y. (1998). Convolutional networks for images, speech, and time series. The handbook of brain theory and neural networks, 255–258.
- LeCun, Y., Kavukcuoglu, K., Farabet, C. (2010). Convolutional networks and applications in vision. Proceedings of 2010 IEEE International Symposium on Circuits and Systems. doi: https://doi.org/10.1109/iscas.2010.5537907
- Girshick, R., Donahue, J., Darrell, T., Malik, J. (2014). Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation. 2014 IEEE Conference on Computer Vision and Pattern Recognition. doi: https://doi.org/10.1109/cvpr.2014.81
- Girshick, R., Donahue, J., Darrell, T., Malik, J. (2016). Region-Based Convolutional Networks for Accurate Object Detection and Segmentation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 38 (1), 142–158. doi: https://doi.org/10.1109/tpami.2015.2437384
- Girshick, R. (2015). Fast R-CNN. 2015 IEEE International Conference on Computer Vision (ICCV). doi: https://doi.org/10.1109/iccv.2015.169
- Ren, S. et. al. (2015). Faster R-CNN: Towards real-time object detection with region proposal networks. Advances in neural information processing systems, 91–99.
- He, K., Gkioxari, G., Dollar, P., Girshick, R. (2017). Mask R-CNN. 2017 IEEE International Conference on Computer Vision (ICCV). doi: https://doi.org/10.1109/iccv.2017.322
- Redmon, J., Divvala, S., Girshick, R., Farhadi, A. (2016). You Only Look Once: Unified, Real-Time Object Detection. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). doi: https://doi.org/10.1109/cvpr.2016.91
- Liu, W., Anguelov, D., Erhan, D., Szegedy, C., Reed, S., Fu, C.-Y., Berg, A. C. (2016). SSD: Single Shot MultiBox Detector. Computer Vision – ECCV 2016, 21–37. doi: https://doi.org/10.1007/978-3-319-46448-0_2
- Haykin, S. (2008). Neyronnye seti: polnyy kurs. Moscow: Izdatel'skiy dom Vil'yams.
- Kohonen, T. (2001). Self-organizing maps. Vol. 30. Springer Science & Business Media, 502. doi: https://doi.org/10.1007/978-3-642-56927-2
- Gersho, A., Gray, R. M. (1992). Vector quantization and signal compression. Vol. 159. Springer Science & Business Media, 732. doi: https://doi.org/10.1007/978-1-4615-3626-0
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Авторське право (c) 2019 Victor Skuratov, Konstantin Kuzmin, Igor Nelin, Mikhail Sedankin
Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.
Закріплення та умови передачі авторських прав (ідентифікація авторства) здійснюється у Ліцензійному договорі. Зокрема, автори залишають за собою право на авторство свого рукопису та передають журналу право першої публікації цієї роботи на умовах ліцензії Creative Commons CC BY. При цьому вони мають право укладати самостійно додаткові угоди, що стосуються неексклюзивного поширення роботи у тому вигляді, в якому вона була опублікована цим журналом, але за умови збереження посилання на першу публікацію статті в цьому журналі.
Ліцензійний договір – це документ, в якому автор гарантує, що володіє усіма авторськими правами на твір (рукопис, статтю, тощо).
Автори, підписуючи Ліцензійний договір з ПП «ТЕХНОЛОГІЧНИЙ ЦЕНТР», мають усі права на подальше використання свого твору за умови посилання на наше видання, в якому твір опублікований. Відповідно до умов Ліцензійного договору, Видавець ПП «ТЕХНОЛОГІЧНИЙ ЦЕНТР» не забирає ваші авторські права та отримує від авторів дозвіл на використання та розповсюдження публікації через світові наукові ресурси (власні електронні ресурси, наукометричні бази даних, репозитарії, бібліотеки тощо).
За відсутності підписаного Ліцензійного договору або за відсутністю вказаних в цьому договорі ідентифікаторів, що дають змогу ідентифікувати особу автора, редакція не має права працювати з рукописом.
Важливо пам’ятати, що існує і інший тип угоди між авторами та видавцями – коли авторські права передаються від авторів до видавця. В такому разі автори втрачають права власності на свій твір та не можуть його використовувати в будь-який спосіб.