Система класифікації іракських банкнот для незрячих на основі глибокого навчання
DOI:
https://doi.org/10.15587/1729-4061.2022.248642Ключові слова:
великі дані, згорткова нейронна мережа, багатокласова класифікація, класифікація паперової валюти, іракські банкноти, перетворення зображення в звук, глибоке навчанняАнотація
Сучасні системи спрямовані на підвищення якості життя людей. Таким чином, нові технології та системи широко використовуються в даний час у різних сферах нашого суспільства, таких як освіта і медицина. Одним із медичних застосувань є використання технології комп'ютерного зору, щоб допомогти незрячим людям у їхній повсякденній діяльності та зменшити їхню залежність від близьких людей, а також забезпечити незалежність для слабозорих людей при проведенні повсякденних фінансових операцій. Виходячи з цього, дана робота націлена на надання допомоги слабозорим у розрізненні іракських банкнот. По суті, ми використовуємо комп'ютерний зір у поєднанні із алгоритмами глибокого навчання для побудови багатокласової моделі класифікації банкнот. Дана система виробляє певні голосові команди, еквівалентні зображенню банкноти, а потім інформує людей з вадами зору про номінал кожної банкноти. Для класифікації іракських банкнот важливо знати, що вони мають дві сторони: арабською та англійською мовами, що вважається одним із важливих питань при взаємодії людини та комп'ютера (HCI) під час побудови моделі класифікації. У роботі ми використовуємо базу даних, яка містить 3961 зразок зображень семи категорій іракської паперової валюти. Крім того, з використанням цієї бази даних навчається дев'ятнадцятишарова згорткова нейронна мережа (CNN) для розрізнення номіналів банкнот. Врешті, точність розробленої системи склала 98,6 %, що доводить доцільність запропонованої моделі.
Посилання
Mandhala, V. N., Bhattacharyya, D., B., V., Rao N., T. (2020). Object Detection Using Machine Learning for Visually Impaired People. International Journal of Current Research and Review, 12 (20), 157–167. doi: https://doi.org/10.31782/ijcrr.2020.122032
Rajwani, R., Purswani, D., Kalinani, P., Ramchandani, D., Dokare, I. (2018). Proposed system on object detection for visually impaired people. International Journal of Information Technology (IJIT), 4 (1).
Rahman, F., Ritun, I. J., Farhin, N. (2018). Assisting the visually impaired people using image processing. BRAC University. Available at: http://dspace.bracu.ac.bd/xmlui/handle/10361/10949
Badave, A., Jagtap, R., Kaovasia, R., Rahatwad, S., Kulkarni, S. (2020). Android Based Object Detection System for Visually Impaired. 2020 International Conference on Industry 4.0 Technology (I4Tech). doi: https://doi.org/10.1109/i4tech48345.2020.9102694
Jangir, H., Raghav, N., Kashyap, N., Tanwar, P., Kumar, B. (2020). HOMER: Cryptography based Currency Detection System for Visually Impaired People. 2020 Third International Conference on Smart Systems and Inventive Technology (ICSSIT). doi: https://doi.org/10.1109/icssit48917.2020.9214204
Pannu, H. S., Ahuja, S., Dang, N., Soni, S., Malhi, A. K. (2020). Deep learning based image classification for intestinal hemorrhage. Multimedia Tools and Applications, 79 (29-30), 21941–21966. doi: https://doi.org/10.1007/s11042-020-08905-7
Solymar, Z., Stubendek, A., Radvanyi, M., Karacs, K. (2011). Banknote recognition for visually impaired. 2011 20th European Conference on Circuit Theory and Design (ECCTD). doi: https://doi.org/10.1109/ecctd.2011.6043828
Semary, N. A., Fadl, S. M., Essa, M. S., Gad, A. F. (2015). Currency recognition system for visually impaired: Egyptian banknote as a study case. 2015 5th International Conference on Information & Communication Technology and Accessibility (ICTA). doi: https://doi.org/10.1109/icta.2015.7426896
Yousry, A., Taha, M., Selim, M. M. (2018). Currency Recognition System for Blind people using ORB Algorithm. Int. Arab. J. e Technol., 5 (1), 34–40.
Fattouh, A. A. (2015). A non-parametric approach for paper currency recognition. International Journal of Computer Science and Software Engineering (IJCSSE), 4 (5), 121–125.
Saraf, S., Sindhikar, V., Sonawane, A., Thakare, S. (2017). Currency Recognition System For Visually Impaired. International Journal of Advanced Research and Innovative Ideas in Education (IJARIIE), 3 (2), 3264–3269. Available at: http://ijariie.com/AdminUploadPdf/Currency_Recognition_System_For_Visually_Impaired_ijariie4599.pdf
Saranya, K. S., Badhan, A. K., Alekhya, A., Madhumitha, C., Charmika, V. D. (2020). Currency Counting for Visually Impaired Through Voice using Image Processing. International Journal of Engineering Research & Technology (IJERT), 9 (5), 195–199. doi: https://doi.org/10.17577/ijertv9is050137
Imad, M., Ullah, F., Hassan, M. A. (2020). Pakistani Currency Recognition to Assist Blind Person Based on Convolutional Neural Network. Journal of Computer Science and Technology Studies, 2 (2), 12–19. Available at: https://www.researchgate.net/publication/348370440_Pakistani_Currency_Recognition_to_Assist_Blind_Person_Based_on_Convolutional_Neural_Network
Dunai Dunai, L., Chillarón Pérez, M., Peris-Fajarnés, G., Lengua Lengua, I. (2017). Euro Banknote Recognition System for Blind People. Sensors, 17 (12), 184. doi: https://doi.org/10.3390/s17010184
Sanchez, G. A. R. (2019). A computer vision-based banknote recognition system for the blind with an accuracy of 98% on smartphone videos. Journal of The Korea Society of Computer and Information, 24 (6), 67–72. doi: https://doi.org/10.9708/jksci.2019.24.06.067
Bhosale, M. S., Patole, M. (2020). Survey on Vision Based Banknote Recognition Systems using Machine Learning and Deep Learning Methods. International Research Journal of Engineering and Technology (IRJET), 7 (6), 283–286. Available at: https://www.irjet.net/archives/V7/i6/IRJET-V7I652.pdf
Mahmood, R. R., Younus, M. D., Khalaf, E. A. (2021). Currency Detection for Visually Impaired Iraqi Banknote as a Study Case. Turkish Journal of Computer and Mathematics Education (TURCOMAT), 12 (6), 2940–2948. doi: https://doi.org/10.17762/turcomat.v12i6.6078
Alsaydia, O. M., Saadallah, N. R., Malallah, F. L., AL-Adwany, M. A. S. (2021). Limiting COVID-19 infection by automatic remote face mask monitoring and detection using deep learning with IoT. Eastern-European Journal of Enterprise Technologies, 5 (2 (113)), 29–36. doi: https://doi.org/10.15587/1729-4061.2021.238359
Malallah, F., Al-Jubouri, A., Sabaawi, A. (2020). Smiling and Non-smiling Emotion Recognition Based on Lower-half Face using Deep-Learning as Convolutional Neural Network. Proceedings of the Proceedings of the 1st International Multi-Disciplinary Conference Theme: Sustainable Development and Smart Planning, IMDC-SDSP 2020, Cyperspace, 28-30 June 2020. doi: https://doi.org/10.4108/eai.28-6-2020.2298175
Jasim, A. M., Awad, S. R., Malallah, F. L., Abdul-Jabbar, J. M. (2021). Efficient Gender Classifier for Arabic Speech Using CNN With Dimensional Reshaping. 2021 7th International Conference on Electrical, Electronics and Information Engineering (ICEEIE). doi: https://doi.org/10.1109/iceeie52663.2021.9616930
Xu, J., Zhang, Y., Miao, D. (2020). Three-way confusion matrix for classification: A measure driven view. Information Sciences, 507, 772–794. doi: https://doi.org/10.1016/j.ins.2019.06.064
Zeng, G. (2020). On the confusion matrix in credit scoring and its analytical properties. Communications in Statistics - Theory and Methods, 49 (9), 2080–2093. doi: https://doi.org/10.1080/03610926.2019.1568485
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Авторське право (c) 2022 Sohaib Rajab Awad; Baraa T. Sharef, Abdulkreem M. Salih, Fahad Layth Malallah

Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.
Закріплення та умови передачі авторських прав (ідентифікація авторства) здійснюється у Ліцензійному договорі. Зокрема, автори залишають за собою право на авторство свого рукопису та передають журналу право першої публікації цієї роботи на умовах ліцензії Creative Commons CC BY. При цьому вони мають право укладати самостійно додаткові угоди, що стосуються неексклюзивного поширення роботи у тому вигляді, в якому вона була опублікована цим журналом, але за умови збереження посилання на першу публікацію статті в цьому журналі.








