Система автоматичного сурдоперекладу з використанням нейромережних технологій та 3D-анімації

Автор(и)

DOI:

https://doi.org/10.30837/ITSSI.2023.26.108

Ключові слова:

автоматизація жестового мовлення; анімований персонаж; відслідковування положення тіла; люди з вадами слуху; мова жестів; нейронні мережі; розпізнавання жестів; українська жестова мова; сурдопереклад; скорочення нерівності

Анотація

Упровадження програмних засобів автоматичного сурдоперекладу в процес соціальної інклюзії людей з вадами слуху є важливим завданням. Соціальна інклюзія для осіб із вадами слуху є нагальною проблемою, яку необхідно вирішувати з огляду на розвиток IT-технологій та законодавчі ініціативи, що забезпечують права людей з інвалідністю та їхні рівні можливості. Сказане обґрунтовує актуальність дослідження асистивних технологій у контексті програмних засобів, таких як процес соціального залучення людей з важкими порушеннями слуху в суспільство. Предметом дослідження є методи автоматизованого сурдоперекладу із застосуванням інтелектуальних технологій. Мета роботи – розроблення та дослідження  методів автоматизації сурдоперекладу для поліпшення якості життя людей з вадами слуху відповідно до «Цілей сталого розвитку України» (в частині «Скорочення нерівності»). Основними завданнями дослідження є розроблення й тестування методів перетворення жестової мови в текст, перетворення тексту в жестову мову, а також автоматизації перекладу з однієї жестової мови іншою жестовою мовою із застосуванням сучасних інтелектуальних технологій. Для розв’язання цих завдань використовувались методи нейромережного моделювання та 3D-анімації. Унаслідок дослідження здобуто такі результати:  виявлено основні проблеми й завдання соціальної інклюзії для людей з вадами слуху; здійснено порівняльний аналіз сучасних методів і програмних платформ автоматичного сурдоперекладу; запропоновано й досліджено систему, що об’єднує метод SL-to-Text; метод Text-to-SL з використанням 3D-анімації для генерації концептів жестової мови; метод генерації 3D-анімованого жесту з відеозаписів; метод  реалізації технології Sign Language1 to Sign Language2. Для розпізнавання жестів застосовано модель згорткової нейронної мережі, що навчається за допомогою імпортованих і згенерованих системою датасетів відеожестів. Навчена модель має високу точність розпізнавання (98,52 %). Створення 3D-моделі для відображення жесту на екран і його оброблення відбувалися у середовищі Unity 3D. Структура проєкту, виконавчих і допоміжних файлів, що застосовуються для побудови 3D-анімації для генерації концептів жестової мови містить: файли обробників подій; результати відображення, що мають інформацію про положення відслідкованих точок тіла; файли, що зберігають характеристики матерій, які були додані до тих чи інших точок відображення тіла. Висновки: запропоновані методи автоматизованого перекладу мають практичну значущість, що підтверджують демоверсії програмних застосунків Sign Language to Text і Text to Sign Language. Перспективним напрямом подальших досліджень з окресленої теми є вдосконалення методів SL1-to-SL2, створення відкритих датасетів відеожестів, залучення науковців і розробників для наповнення словників концептами різних жестових мов.

Біографії авторів

Євгеній Шовковий, Харківський національний університет радіоелектроніки

студент кафедри штучного інтелекту

Олена Гриньова, Харківський національний університет радіоелектроніки

старший викладач кафедри штучного інтелекту

Сергій Удовенко, Харківський національний економічний університет ім. С. Кузнеця

доктор технічних наук, професор, завідувач кафедри інформатики та обчислювальної техніки

Лариса Чала, Харківський національний університет радіоелектроніки

кандидат технічних наук, доцент, доцент кафедри штучного інтелекту

Посилання

References

Chumachenko, I.V. "Methods of human resources management in the formation World Health Organization. Deafness and hearing loss". 2023. URL: https://www.who.int/health-topics/hearing-loss (date of application: 10.04.2023).

"Web Accessibility Initiative". URL: https://www.w3.org/WAI/ (date of application: 10.04.2023).

Decree of the President of Ukraine №722/2019 "On the Sustainable Development Goals of Ukraine for the period up to 2030" dated September 19, 2019. URL: https://www.president.gov.ua/documents/7222019-29825 (date of application: 10.04.2023).

Kruglyk, O.P., Horlachev, O.S. (2023), "The importance of auditory perception in the process of sign language translation for people with hearing impairment" [Znachennya slukhovoho spryymannya v protsesi zdiysnennya surdoperekladu dlya osib z porushennyam slukhu], Scientific journal. Series 19 - Correctional pedagogy and special psychology, No. 43, P. 39–48. DOI https://doi.org/10.24919/2308-4863/56-2-26

Gobhinath, S., Vignesh, T., Pavankumar, R., et al. (2020), "A Study of Hand Gesture Segmentation Techniques for Sign Languages", Journal of Computational and Theoretical Nanoscience, Vol. 17, No. 4, P. 1764-1769. DOI: https://doi.org/10.1166/jctn.2020.8439

Ghosh, P., Dutta, A., Topno, S. (2022), "Sign Language Hand Glove", American Journal of Electronics & Communication, Vol. 3, No. 1, P. 14-16. DOI: https://doi.org/10.15864/ajec.3103

Chakraborty, S., Prayosi, P., Sarkar, S., Chakraborty A. (2023), "Sign Language Recognition Using Landmark Detection, GRU and LSTM", American Journal of Electronics & Communication, Vol. 3, No. 3, P. 20-26. DOI: https://doi.org/10.15864/ajec.3305

Mahesh, R., Kumar, T., Kavin, R, Karthikeyan S. (2020), "Manipulation of Web Using Gestures", Journal of Computational and Theoretical Nanoscience, Vol. 17, No.8, P. 3782-3785. DOI: https://doi.org/10.1166/jctn.2020.9320

Khetavath, S., Sendhilkumar, N., Mukunthan P., et al. (2023), "An Intelligent Heuristic Manta-Ray Foraging Optimization and Adaptive Extreme Learning Machine for Hand Gesture Image Recognition", Big Data Mining and Analytics, No. 6(3), P. 321-335. DOI: https://doi.org/10.26599/BDMA.2022.9020036

Zhou, H., Wang, W., Liu G., et al. (2022), "PointGAT: Graph attention networks for 3D object detection", Intelligent and Converged Networks, No. 3(2), P. 204-216. DOI: https://doi.org/10.23919/ICN.2022.0014

Wuyan, L., Xiaolong, X., Fu, X. (2022), "Human gesture recognition of dynamic skeleton using graph convolutional networks", Journal of Electronic Imaging, Vol. 32, Issue 2, Р.1-21. DOI: https://doi.org/10.1117/1.JEI.32.2.021402

John, J., Deshpande, S. (2023),"Hand Gesture Identification Using Deep Learning and Artificial Neural Networks: A Review", Computational Intelligence for Engineering and Management Applications. Lecture Notes in Electrical Engineering, Vol 984, Springer, Singapore. Р. 389-403. DOI: https://doi.org/10.1007/978-981-19-8493-830

Tan, Y., Lim, K., Lee, C. (2021), "Hand gesture recognition via enhanced densely connected convolutional neural network", Expert Syst. Appl., Vol. 175, No. 114797. Р. 28569–28587 DOI: https://doi.org/ 10.1016/j.eswa.2021.114797

Gadekallu, T., Alazab, M., Kaluri, R., et al. (2021), "Hand gesture classification using a novel CNN-crow search algorithm", Complex & Intell. Syst., Vol. 7, P. 1855–1868. DOI: https://doi.org/10.1007/s40747-021-00324-x

Zhang, Y., Huang, Y., Sun, X., et al. (2020), "Static and dynamic human arm/hand gesture capturing and recognition via multiinformation fusion of _exible strain sensors", IEEE Sensors Journal, Vol. 20, No. 12. P. 6450-6459. DOI: https://doi.org/ 10.1109/JSEN.2020.2965580.

Rahim, M., Miah, A., Sayeed A. and Shin J. (2020), "Hand Gesture Recognition Based on Optimal Segmentation in Human-Computer Interaction", Proceedings of the 3rd IEEE International Conference on Knowledge Innovation and Invention (ICKII), Kaohsiung, Taiwan, P. 163-166. DOI: 10.1109/ICKII50300.2020.9318870

Bhavana, D., Kumar, K., Bipin Chandra, M., et al. (2021), "Hand Sign Recognition using CNN", International Journal of Performance Analysis in Sport, Vol. 17(3), P. 314–321. DOI: 10.23940/ijpe.21.03.p7.314321

##submission.downloads##

Опубліковано

2023-12-27

Як цитувати

Шовковий, Є., Гриньова, О., Удовенко, С., & Чала, Л. (2023). Система автоматичного сурдоперекладу з використанням нейромережних технологій та 3D-анімації. СУЧАСНИЙ СТАН НАУКОВИХ ДОСЛІДЖЕНЬ ТА ТЕХНОЛОГІЙ В ПРОМИСЛОВОСТІ, (4(26), 108–121. https://doi.org/10.30837/ITSSI.2023.26.108