Розробка моделі сегментації зображень з використанням згорткової нейронної мережі
DOI:
https://doi.org/10.15587/1729-4061.2021.228644Ключові слова:
обробка зображень, сегментація зображень, згорткові нейронні мережі, безпілотний літальний апаратАнотація
Розглянуто модель сегментації зображень за допомогою згорткових нейронних мереж та дослідження ефективності процесу на основі моделей із навчанням глибоких шарів згорткових нейромереж. Існують об’єктивні труднощі, пов’язані з визначенням оптимальних характеристик нейронних мереж, тому є проблема перенавчання нейромережі. Усунення перенавчання шляхом визначення лише оптимальної кількості епох недостатнє, оскільки не забезпечує високу точність.
Визначено вимоги до набору зображень для навчання та перевірки моделі. Даним вимогам найбільш відповідають набори зображень PASCAL VOC (Велика Британія) і NVIDIA-Aerial Drone (США).
Встановлено, що AlexNet (Канада) є навченою моделлю і може виконувати сегментацію зображень, проте надійність розпізнавання об’єктів недостатня. Тому виникає необхідність підвищення ефективності сегментацїі зображень. Доцільно використати архітектуру AlexNet для створення спеціалізованої моделі, яка за рахунок зміни параметрів та перенавчання деяких шарів дозволить краще проводити процес сегментації зображення.
Виконано навчання п’яти моделей з використанням таких параметрів: швидкість навчання, число епох, алгоритм оптимізації, вид зміни швидкості навчання, коефіцієнт gamma, попередньо навчена модель.
Розроблено згорткову нейронну мережу для підвищення точності та ефективності сегментації зображення. Визначено оптимальні параметри навчання нейромережі: швидкість навчання – 0,0001, число епох – 50, коефіцієнт gamma – 0,1 тощо. Отримано підвищення точності на 3 %, яке дозволяє стверджувати про правильність вибору архітектури розробленої мережі та підбору параметрів. Це дає можливість використовувати дану мережу для практичних задач сегментації зображень, зокрема для пристроїв із обмеженими обчислювальними ресурсами
Посилання
- Bilinskiy, Y. Y., Knysh, B. P., Kulyk, Y. А. (2017). Quality estimation methodology of filter performance for suppression noise in the mathcad package. Herald of Khmelnytskyi national university, 3, 125–130. Available at: https://ir.lib.vntu.edu.ua/bitstream/handle/123456789/23238/47857.pdf?sequence=2&isAllowed=y
- Kurugollu, F., Sankur, B., Harmanci, A. E. (2001). Color image segmentation using histogram multithresholding and fusion. Image and Vision Computing, 19 (13), 915–928. doi: https://doi.org/10.1016/s0262-8856(01)00052-x
- Wang, H., Oliensis, J. (2010). Generalizing edge detection to contour detection for image segmentation. Computer Vision and Image Understanding, 114 (7), 731–744. doi: https://doi.org/10.1016/j.cviu.2010.02.001
- Felzenszwalb, P. F., Huttenlocher, D. P. (2004). Efficient Graph-Based Image Segmentation. International Journal of Computer Vision, 59 (2), 167–181. doi: https://doi.org/10.1023/b:visi.0000022288.19776.77
- Chitade, A. Z., Katiyar, S. K. (2010). Colour based image segmentation using k-means clustering. International Journal of Engineering Science and Technology, 2 (10), 5319–5325. Available at: https://www.researchgate.net/publication/50361273_Color_based_image_segmentation_using_K-means_clustering
- Bishop, C. M. (1995). Neural Networks for Pattern Recognition. Clarendon Press, 482. Available at: http://people.sabanciuniv.edu/berrin/cs512/lectures/Book-Bishop-Neural%20Networks%20for%20Pattern%20Recognition.pdf
- Chaudhuri, D., Agrawal, A. (2010). Split-and-merge Procedure for Image Segmentation using Bimodality Detection Approach. Defence Science Journal, 60 (3), 290–301. doi: https://doi.org/10.14429/dsj.60.356
- Keuchel, J., Schnorr, C. (2003). Efficient Graph Cuts for Unsupervised Image Segmentation using Probabilistic Sampling and SVD-based Approximation. University of Mannheim. Available at: https://madoc.bib.uni-mannheim.de/1805/1/2003_9.pdf
- Chen, L.-C., Papandreou, G., Kokkinos, I., Murphy, K., Yuille, A. L. (2015). Semantic image segmentation with deep convolutional nets and fully connected CRFs. arXiv.org. Available at: https://arxiv.org/pdf/1412.7062.pdf
- Krizhevsky, A., Sutskever, I., Hinton, G. E. (2012). ImageNet Classification with Deep Convolutional Neural Networks. NIPS'12: Proceedings of the 25th International Conference on Neural Information Processing Systems, 1097–1105. Available at: https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf
- Sytnyk, V. F. (2004). Systemy pidtrymky pryiniattia rishen. Kyiv: KNEU, 614. Available at: http://kist.ntu.edu.ua/textPhD/sppr1.pdf
- Shelhamer, E., Long, J., Darrell, T. (2017). Fully Convolutional Networks for Semantic Segmentation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 39 (4), 640–651. doi: https://doi.org/10.1109/tpami.2016.2572683
- Semantic Segmentation with SegNet. Available at: https://github.com/dusty-nv/jetson-inference/blob/master/docs/segnet-dataset.md
- Saxena, S. (2021). Introduction to The Architecture of Alexnet. Analytics Vidhya. Available at: https://www.analyticsvidhya.com/blog/2021/03/introduction-to-the-architecture-of-alexnet/
- How to do Semantic Segmentation using Deep learning. Available at: https://nanonets.com/blog/how-to-do-semantic-segmentation-using-deep-learning
- Kingma, D. P., Ba, J. (2015). Adam: a method for stochastic optimization. arXiv.org. Available at: https://arxiv.org/pdf/1412.6980.pdf
- Solovey, D. (2017). Terrain Classification from High Resolution Aerial. Images Using Deep Learning. Available at: https://fenix.tecnico.ulisboa.pt/downloadFile/1689244997257919/Resumo_174132.pdf
- Audebert, N., Le Saux, B., Lefèvre, S. (2017). Segment-before-Detect: Vehicle Detection and Classification through Semantic Segmentation of Aerial Images. Remote Sensing, 9 (4), 368. doi: https://doi.org/10.3390/rs9040368
- Aeroscapes. Aerial Semantic Segmentation Benchmark. Available at: https://github.com/ishann/aeroscapes
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Авторське право (c) 2021 Богдан Петрович Кныш, Ярослав Анатольевич Кулик
Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.
Закріплення та умови передачі авторських прав (ідентифікація авторства) здійснюється у Ліцензійному договорі. Зокрема, автори залишають за собою право на авторство свого рукопису та передають журналу право першої публікації цієї роботи на умовах ліцензії Creative Commons CC BY. При цьому вони мають право укладати самостійно додаткові угоди, що стосуються неексклюзивного поширення роботи у тому вигляді, в якому вона була опублікована цим журналом, але за умови збереження посилання на першу публікацію статті в цьому журналі.
Ліцензійний договір – це документ, в якому автор гарантує, що володіє усіма авторськими правами на твір (рукопис, статтю, тощо).
Автори, підписуючи Ліцензійний договір з ПП «ТЕХНОЛОГІЧНИЙ ЦЕНТР», мають усі права на подальше використання свого твору за умови посилання на наше видання, в якому твір опублікований. Відповідно до умов Ліцензійного договору, Видавець ПП «ТЕХНОЛОГІЧНИЙ ЦЕНТР» не забирає ваші авторські права та отримує від авторів дозвіл на використання та розповсюдження публікації через світові наукові ресурси (власні електронні ресурси, наукометричні бази даних, репозитарії, бібліотеки тощо).
За відсутності підписаного Ліцензійного договору або за відсутністю вказаних в цьому договорі ідентифікаторів, що дають змогу ідентифікувати особу автора, редакція не має права працювати з рукописом.
Важливо пам’ятати, що існує і інший тип угоди між авторами та видавцями – коли авторські права передаються від авторів до видавця. В такому разі автори втрачають права власності на свій твір та не можуть його використовувати в будь-який спосіб.