Розробка модифікованих методів навчання нейромереж для розв’язання задачі розпізнавання учасників дорожнього руху
DOI:
https://doi.org/10.15587/1729-4061.2019.164789Ключові слова:
розпізнавання образів, генетичний алгоритм, еволюційний алгоритм, нейронні мережі, Python, OpenCV, KerasАнотація
Розроблено модифікації простого генетичного алгоритму для розпізнавання образів. У запропонованій модифікації Альфа-Бета на етапі відбору особин до нової популяції особини ранжуються за показником пристосованості, далі випадковим чином визначається кількість пар – певна кількість найпристосованіших особин, та стільки ж найменш пристосованих. Найпристосованіші особини формують підмножину B, найменш пристосовані – підмножину W. Обидві підмножини входять в множину пар V. Число особин, що можуть бути обрані в пари, знаходиться в діапазоні 20–60 % від загальної кількості особин. У модифікації Альфа-Бета фіксована в порівнянні з оригінальною версією простого генетичного алгоритму було додано можливість виникнення двох мутацій, додано фіксовану точку схрещення, а також змінено відбір особин для схрещення. Це дозволяє підвищити показник точності у порівнянні з базовою версією простого генетичного алгоритму. У модифікації Фіксована встановлено фіксовану точку схрещення. В схрещенні приймає участь половина генів – гени що відповідають за кількість нейронів на шарах, значення інших генів завжди передаються нащадкам від однієї з особин. Також, на етапі мутації випадковим чином відбуваються мутації з використанням методу Монте-Карло.
Розроблені методи програмно реалізовано для вирішення задачі розпізнавання учасників дорожнього руху (автомобілів, велосипедів, пішоходів, мотоциклів, вантажівок). Також було проведено порівняння показників використання модифікацій простого генетичного алгоритму та визначено кращий підхід вирішення задачі розпізнавання учасників дорожнього руху. Було встановлено, що розроблена модифікація Альфа-Бета показала кращі результати у порівнянні з іншими модифікаціями при вирішенні задачі розпізнавання учасників дорожнього руху. При застосуванні розроблених модифікацій отримано наступні показники точності: Альфа-Бета – 96.90 %, Альфа-Бета фіксована – 95.89 %, фіксована – 85.48 %. Крім того, при застосуванні розроблених модифікацій скорочується час підбору параметрів нейромоделі, зокрема при використанні модифікації Альфа-Бета витрачається лише 73,9 % часу базового методу, при використанні модифікації Фіксована – 91,1 % часу базового генетичного методу
Посилання
- Dorosinskiy, L. G. (2011). Raspoznavanie izobrazheniy, neyronnye seti i geneticheskie algoritmy. Advances in current natural sciences, 10, 87–88.
- Ekspert robototekhniki: «Nikogda ne ispol'zuyte avtopilot Tesla ryadom s velosipedistami!». Available at: https://itc.ua/news/ekspert-robototehniki-nikogda-ne-ispolzuyte-avtopilot-tesla-ryadom-s-velosipedistami/
- Mazda I-Activsense. Available at: http://mazda.ua/ru/showroom/cx-5/i-activsense/
- Waymo. Available at: https://waymo.com/
- Zhang, Y., Ling, Q. (2017) Bicycle Detection Based On Multi-feature and Multi-frame Fusion in Low-Resolution Traffic Videos. arXiv. Available at: https://arxiv.org/pdf/1706.03309.pdf
- Dalal, N., Triggs, B. (2005). Histograms of Oriented Gradients for Human Detection. 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05). doi: https://doi.org/10.1109/cvpr.2005.177
- Dopico, J. R. R., Dorado, J., Pazos, A. (Eds.) (2009). Encyclopedia of artificial intelligence. IGI Global. doi: https://doi.org/10.4018/978-1-59904-849-9
- Ben-Hur, A., Horn, D., Siegelmann, H. T., Vapnik, V. (2001). Support vector clustering. Journal of Machine Learning Research, 2, 125–137.
- Viola, P., Jones, M. (2001). Rapid object detection using a boosted cascade of simple features. Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. CVPR 2001. doi: https://doi.org/10.1109/cvpr.2001.990517
- Viola, P., Jones, M. J. (2004). Robust Real-Time Face Detection. International Journal of Computer Vision, 57 (2), 137–154. doi: https://doi.org/10.1023/b:visi.0000013087.49260.fb
- Peppa, M. V., Bell, D., Komar, T., Xiao, W. (2018). Urban traffic flow analysis based on deep learning car detection from CCTV image series. ISPRS – International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, XLII-4, 499–506. doi: https://doi.org/10.5194/isprs-archives-xlii-4-499-2018
- Ren, S., He, K., Girshick, R., Sun, J. (2017). Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. IEEE Transactions on Pattern Analysis and Machine Intelligence, 39 (6), 1137–1149. doi: https://doi.org/10.1109/tpami.2016.2577031
- Liu, W., Anguelov, D., Erhan D., Szegedy, C., Reed, S., Fu, C.-Y., Berg, A. C. (2016). SSD: Single Shot MultiBox Detector. Computer Vision – ECCV 2016, 21–37. doi: https://doi.org/10.1007/978-3-319-46448-0_2
- Xuze, Z., Shengsuo, N., Teng, H. (2018). A CNN Vehicle Recognition Algorithm based on Reinforcement Learning Error and Error-prone Samples. IOP Conference Series: Earth and Environmental Science, 153, 032052. doi: https://doi.org/10.1088/1755-1315/153/3/032052
- Krizhevsky, A., Sutskever, I., Hinton, G. E. (2012). ImageNet Classification with Deep Convolutional Neural Networks. In NIPS, 1097–1105.
- Leibe, B., Seemann, E., Schiele, B. (2005). Pedestrian Detection in Crowded Scenes. 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05). doi: https://doi.org/10.1109/cvpr.2005.272
- Du, X., El-Khamy, M., Morariu, V. I., Lee, J., Davis, L. (2018). Fused Deep Neural Networks for Efficient Pedestrian Detection. arXiv. Available at: https://arxiv.org/pdf/1805.08688.pdf
- He, M., Luo, H., Chang, Z., Hui, B. (2017). Pedestrian Detection with Semantic Regions of Interest. Sensors, 17 (11), 2699. doi: https://doi.org/10.3390/s17112699
- Adu-Gyamf, Y. O. (2017). Automated Vehicle Recognition with Deep Convolutional Neural Networks. Iowa State University Digital Repository, 12. Available at: https://lib.dr.iastate.edu/cgi/viewcontent.cgi?article=1182&context=ccee_pubs
- Lipton, A. J., Fujiyoshi, H., Patil, R. S. (1998). Moving target classification and tracking from real-time video. Proceedings Fourth IEEE Workshop on Applications of Computer Vision. WACV'98 (Cat. No.98EX201). doi: https://doi.org/10.1109/acv.1998.732851
- Cohen, I., Medioni, G. (1999). Detecting and tracking moving objects for video surveillance. Proceedings. 1999 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (Cat. No PR00149). doi: https://doi.org/10.1109/cvpr.1999.784651
- Luo, P., Tian, Y., Wang, X., Tang, X. (2014). Switchable Deep Network for Pedestrian Detection. 2014 IEEE Conference on Computer Vision and Pattern Recognition. doi: https://doi.org/10.1109/cvpr.2014.120
- Tombari, F., Salti, S., Di Stefano, L. (2013). Performance Evaluation of 3D Keypoint Detectors. International Journal of Computer Vision, 102 (1-3), 198–220. doi: https://doi.org/10.1007/s11263-012-0545-4
- Fan, J., Xu, W., Wu, Y., Gong, Y. (2010). Human Tracking Using Convolutional Neural Networks. IEEE Transactions on Neural Networks, 21 (10), 1610–1623. doi: https://doi.org/10.1109/tnn.2010.2066286
- Jarrett, K., Kavukcuoglu, K., Ranzato, M. A., LeCun, Y. (2009). What is the best multi-stage architecture for object recognition? 2009 IEEE 12th International Conference on Computer Vision. doi: https://doi.org/10.1109/iccv.2009.5459469
- Oliinyk, A., Subbotin, S., Lovkin, V., Leoshchenko, S., Zaiko, T. (2018). Development of the indicator set of the features informativeness estimation for recognition and diagnostic model synthesis. 2018 14th International Conference on Advanced Trends in Radioelecrtronics, Telecommunications and Computer Engineering (TCSET). doi: https://doi.org/10.1109/tcset.2018.8336342
- Oliinyk, A. A., Subbotin, S. A. (2016). A stochastic approach for association rule extraction. Pattern Recognition and Image Analysis, 26 (2), 419–426. doi: https://doi.org/10.1134/s1054661816020139
- Oliinyk, A. O., Zayko, T. A., Subbotin, S. O. (2014). Synthesis of Neuro-Fuzzy Networks on the Basis of Association Rules. Cybernetics and Systems Analysis, 50 (3), 348–357. doi: https://doi.org/10.1007/s10559-014-9623-7
- Stepanenko, A., Oliinyk, A., Deineha, L., Zaiko, T. (2018). Development of the method for decomposition of superpositions of unknown pulsed signals using the secondorder adaptive spectral analysis. Eastern-European Journal of Enterprise Technologies, 2 (9 (92)), 48–54. doi: https://doi.org/10.15587/1729-4061.2018.126578
- Alsayaydeh, J. A. J., Shkarupylo, V., Bin Hamid, M. S., Skrupsky, S., Oliinyk, A. (2018). Stratified model of the internet of things infrastructure. Journal of Engineering and Applied Sciences, 13 (20), 8634–8638.
- Shkarupylo, V., Skrupsky, S., Oliinyk, A., Kolpakova, T. (2017). Development of stratified approach to software defined networks simulation. Eastern-European Journal of Enterprise Technologies, 5 (9 (89)), 67–73. doi: https://doi.org/10.15587/1729-4061.2017.110142
- Kolpakova, T., Oliinyk, A., Lovkin, V. (2017). Improved method of group decision making in expert systems based on competitive agents selection. 2017 IEEE First Ukraine Conference on Electrical and Computer Engineering (UKRCON). doi: https://doi.org/10.1109/ukrcon.2017.8100388
- Oliinyk, A., Fedorchenko, I., Stepanenko, A., Rud, M., Goncharenko, D. (2018). Evolutionary Method for Solving the Traveling Salesman Problem. 2018 International Scientific-Practical Conference Problems of Infocommunications. Science and Technology (PIC S&T). doi: https://doi.org/10.1109/infocommst.2018.8632033
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Авторське право (c) 2019 Ievgen Fedorchenko, Andrii Oliinyk, Alexander Stepanenko, Tetiana Zaiko, Serhii Shylo, Anton Svyrydenko
Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.
Закріплення та умови передачі авторських прав (ідентифікація авторства) здійснюється у Ліцензійному договорі. Зокрема, автори залишають за собою право на авторство свого рукопису та передають журналу право першої публікації цієї роботи на умовах ліцензії Creative Commons CC BY. При цьому вони мають право укладати самостійно додаткові угоди, що стосуються неексклюзивного поширення роботи у тому вигляді, в якому вона була опублікована цим журналом, але за умови збереження посилання на першу публікацію статті в цьому журналі.
Ліцензійний договір – це документ, в якому автор гарантує, що володіє усіма авторськими правами на твір (рукопис, статтю, тощо).
Автори, підписуючи Ліцензійний договір з ПП «ТЕХНОЛОГІЧНИЙ ЦЕНТР», мають усі права на подальше використання свого твору за умови посилання на наше видання, в якому твір опублікований. Відповідно до умов Ліцензійного договору, Видавець ПП «ТЕХНОЛОГІЧНИЙ ЦЕНТР» не забирає ваші авторські права та отримує від авторів дозвіл на використання та розповсюдження публікації через світові наукові ресурси (власні електронні ресурси, наукометричні бази даних, репозитарії, бібліотеки тощо).
За відсутності підписаного Ліцензійного договору або за відсутністю вказаних в цьому договорі ідентифікаторів, що дають змогу ідентифікувати особу автора, редакція не має права працювати з рукописом.
Важливо пам’ятати, що існує і інший тип угоди між авторами та видавцями – коли авторські права передаються від авторів до видавця. В такому разі автори втрачають права власності на свій твір та не можуть його використовувати в будь-який спосіб.