Система автоматичного сурдоперекладу з використанням нейромережних технологій та 3D-анімації
DOI:
https://doi.org/10.30837/ITSSI.2023.26.108Ключові слова:
автоматизація жестового мовлення; анімований персонаж; відслідковування положення тіла; люди з вадами слуху; мова жестів; нейронні мережі; розпізнавання жестів; українська жестова мова; сурдопереклад; скорочення нерівностіАнотація
Упровадження програмних засобів автоматичного сурдоперекладу в процес соціальної інклюзії людей з вадами слуху є важливим завданням. Соціальна інклюзія для осіб із вадами слуху є нагальною проблемою, яку необхідно вирішувати з огляду на розвиток IT-технологій та законодавчі ініціативи, що забезпечують права людей з інвалідністю та їхні рівні можливості. Сказане обґрунтовує актуальність дослідження асистивних технологій у контексті програмних засобів, таких як процес соціального залучення людей з важкими порушеннями слуху в суспільство. Предметом дослідження є методи автоматизованого сурдоперекладу із застосуванням інтелектуальних технологій. Мета роботи – розроблення та дослідження методів автоматизації сурдоперекладу для поліпшення якості життя людей з вадами слуху відповідно до «Цілей сталого розвитку України» (в частині «Скорочення нерівності»). Основними завданнями дослідження є розроблення й тестування методів перетворення жестової мови в текст, перетворення тексту в жестову мову, а також автоматизації перекладу з однієї жестової мови іншою жестовою мовою із застосуванням сучасних інтелектуальних технологій. Для розв’язання цих завдань використовувались методи нейромережного моделювання та 3D-анімації. Унаслідок дослідження здобуто такі результати: виявлено основні проблеми й завдання соціальної інклюзії для людей з вадами слуху; здійснено порівняльний аналіз сучасних методів і програмних платформ автоматичного сурдоперекладу; запропоновано й досліджено систему, що об’єднує метод SL-to-Text; метод Text-to-SL з використанням 3D-анімації для генерації концептів жестової мови; метод генерації 3D-анімованого жесту з відеозаписів; метод реалізації технології Sign Language1 to Sign Language2. Для розпізнавання жестів застосовано модель згорткової нейронної мережі, що навчається за допомогою імпортованих і згенерованих системою датасетів відеожестів. Навчена модель має високу точність розпізнавання (98,52 %). Створення 3D-моделі для відображення жесту на екран і його оброблення відбувалися у середовищі Unity 3D. Структура проєкту, виконавчих і допоміжних файлів, що застосовуються для побудови 3D-анімації для генерації концептів жестової мови містить: файли обробників подій; результати відображення, що мають інформацію про положення відслідкованих точок тіла; файли, що зберігають характеристики матерій, які були додані до тих чи інших точок відображення тіла. Висновки: запропоновані методи автоматизованого перекладу мають практичну значущість, що підтверджують демоверсії програмних застосунків Sign Language to Text і Text to Sign Language. Перспективним напрямом подальших досліджень з окресленої теми є вдосконалення методів SL1-to-SL2, створення відкритих датасетів відеожестів, залучення науковців і розробників для наповнення словників концептами різних жестових мов.
Посилання
References
Chumachenko, I.V. "Methods of human resources management in the formation World Health Organization. Deafness and hearing loss". 2023. URL: https://www.who.int/health-topics/hearing-loss (date of application: 10.04.2023).
"Web Accessibility Initiative". URL: https://www.w3.org/WAI/ (date of application: 10.04.2023).
Decree of the President of Ukraine №722/2019 "On the Sustainable Development Goals of Ukraine for the period up to 2030" dated September 19, 2019. URL: https://www.president.gov.ua/documents/7222019-29825 (date of application: 10.04.2023).
Kruglyk, O.P., Horlachev, O.S. (2023), "The importance of auditory perception in the process of sign language translation for people with hearing impairment" [Znachennya slukhovoho spryymannya v protsesi zdiysnennya surdoperekladu dlya osib z porushennyam slukhu], Scientific journal. Series 19 - Correctional pedagogy and special psychology, No. 43, P. 39–48. DOI https://doi.org/10.24919/2308-4863/56-2-26
Gobhinath, S., Vignesh, T., Pavankumar, R., et al. (2020), "A Study of Hand Gesture Segmentation Techniques for Sign Languages", Journal of Computational and Theoretical Nanoscience, Vol. 17, No. 4, P. 1764-1769. DOI: https://doi.org/10.1166/jctn.2020.8439
Ghosh, P., Dutta, A., Topno, S. (2022), "Sign Language Hand Glove", American Journal of Electronics & Communication, Vol. 3, No. 1, P. 14-16. DOI: https://doi.org/10.15864/ajec.3103
Chakraborty, S., Prayosi, P., Sarkar, S., Chakraborty A. (2023), "Sign Language Recognition Using Landmark Detection, GRU and LSTM", American Journal of Electronics & Communication, Vol. 3, No. 3, P. 20-26. DOI: https://doi.org/10.15864/ajec.3305
Mahesh, R., Kumar, T., Kavin, R, Karthikeyan S. (2020), "Manipulation of Web Using Gestures", Journal of Computational and Theoretical Nanoscience, Vol. 17, No.8, P. 3782-3785. DOI: https://doi.org/10.1166/jctn.2020.9320
Khetavath, S., Sendhilkumar, N., Mukunthan P., et al. (2023), "An Intelligent Heuristic Manta-Ray Foraging Optimization and Adaptive Extreme Learning Machine for Hand Gesture Image Recognition", Big Data Mining and Analytics, No. 6(3), P. 321-335. DOI: https://doi.org/10.26599/BDMA.2022.9020036
Zhou, H., Wang, W., Liu G., et al. (2022), "PointGAT: Graph attention networks for 3D object detection", Intelligent and Converged Networks, No. 3(2), P. 204-216. DOI: https://doi.org/10.23919/ICN.2022.0014
Wuyan, L., Xiaolong, X., Fu, X. (2022), "Human gesture recognition of dynamic skeleton using graph convolutional networks", Journal of Electronic Imaging, Vol. 32, Issue 2, Р.1-21. DOI: https://doi.org/10.1117/1.JEI.32.2.021402
John, J., Deshpande, S. (2023),"Hand Gesture Identification Using Deep Learning and Artificial Neural Networks: A Review", Computational Intelligence for Engineering and Management Applications. Lecture Notes in Electrical Engineering, Vol 984, Springer, Singapore. Р. 389-403. DOI: https://doi.org/10.1007/978-981-19-8493-830
Tan, Y., Lim, K., Lee, C. (2021), "Hand gesture recognition via enhanced densely connected convolutional neural network", Expert Syst. Appl., Vol. 175, No. 114797. Р. 28569–28587 DOI: https://doi.org/ 10.1016/j.eswa.2021.114797
Gadekallu, T., Alazab, M., Kaluri, R., et al. (2021), "Hand gesture classification using a novel CNN-crow search algorithm", Complex & Intell. Syst., Vol. 7, P. 1855–1868. DOI: https://doi.org/10.1007/s40747-021-00324-x
Zhang, Y., Huang, Y., Sun, X., et al. (2020), "Static and dynamic human arm/hand gesture capturing and recognition via multiinformation fusion of _exible strain sensors", IEEE Sensors Journal, Vol. 20, No. 12. P. 6450-6459. DOI: https://doi.org/ 10.1109/JSEN.2020.2965580.
Rahim, M., Miah, A., Sayeed A. and Shin J. (2020), "Hand Gesture Recognition Based on Optimal Segmentation in Human-Computer Interaction", Proceedings of the 3rd IEEE International Conference on Knowledge Innovation and Invention (ICKII), Kaohsiung, Taiwan, P. 163-166. DOI: 10.1109/ICKII50300.2020.9318870
Bhavana, D., Kumar, K., Bipin Chandra, M., et al. (2021), "Hand Sign Recognition using CNN", International Journal of Performance Analysis in Sport, Vol. 17(3), P. 314–321. DOI: 10.23940/ijpe.21.03.p7.314321
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Авторське право (c) 2023 Євгеній Шовковий, Олена Гриньова, Сергій Удовенко, Лариса Чала
Ця робота ліцензується відповідно до Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.
Наше видання використовує положення про авторські права Creative Commons для журналів відкритого доступу.
Автори, які публікуються у цьому журналі, погоджуються з наступними умовами:
Автори залишають за собою право на авторство своєї роботи та передають журналу право першої публікації цієї роботи на умовах ліцензії Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License (CC BY-NC-SA 4.0), котра дозволяє іншим особам вільно розповсюджувати опубліковану роботу з обов'язковим посиланням на авторів оригінальної роботи та першу публікацію роботи у цьому журналі.
Автори мають право укладати самостійні додаткові угоди щодо не комерційного та не ексклюзивного розповсюдження роботи у тому вигляді, в якому вона була опублікована цим журналом (наприклад, розміщувати роботу в електронному сховищі установи або публікувати у складі монографії), за умови збереження посилання на першу публікацію роботи у цьому журналі.
Політика журналу дозволяє і заохочує розміщення авторами в мережі Інтернет (наприклад, у сховищах установ або на особистих веб-сайтах) рукопису опублікованої роботи, оскільки це сприяє виникненню продуктивної наукової дискусії та позитивно позначається на оперативності та динаміці цитування опублікованої роботи.