Розробка автономної системи відстеження погляду для інклюзивної освіти

Автор(и)

  • Андрій Андрійович Симкін Ужгородський національний університет, Україна https://orcid.org/0009-0005-2439-3560
  • Олександр Володимирович Міца Ужгородський національний університет; Закарпатський угорський університет імені Ференца Ракоці II, Україна https://orcid.org/0000-0002-6958-0870
  • Юрій Васильович Горошко Національний університет «Чернігівський колегіум» імені Т. Г. Шевченка, Україна https://orcid.org/0000-0001-9290-7563
  • Ганна Юхимівна Цибко Національний університет «Чернігівський колегіум» імені Т. Г. Шевченка, Україна https://orcid.org/0000-0002-1861-3003
  • Віктор Васильович Шакотько Глухівський національний педагогічний університет імені Олександра Довженка, Україна https://orcid.org/0000-0002-3004-5045

DOI:

https://doi.org/10.15587/1729-4061.2026.351773

Ключові слова:

eye-tracking, інклюзивна освіта, рухові порушення, VR-шолом, доступність освіти, адаптивні технології

Анотація

Об’єктом дослідження є технологія відстеження погляду (eye-tracking) як засіб забезпечення доступності освіти для осіб із тяжкими порушеннями опорно-рухового апарату. Натепер розроблено низку асистивних технологій, що мають значний освітній потенціал, але їх автономне застосування переважно пов’язане з такими труднощами, як залежність від нестабільності бездротових мереж чи зовнішніх обчислювальних ресурсів. Необхідність подолання технологічного розриву між можливостями асистивних технологій та їхньою реальною автономністю становить проблему, на розв’язання якої спрямована ця робота.

В результаті дослідження створена повністю автономна архітектура на базі VR (virtual reality) шоломів (Meta Quest), що забезпечує виконання всіх процесів обробки зображень очей та керування інтерфейсом безпосередньо з використанням процесора пристрою. Було вдосконалено апаратну частину (здійснені мініатюризація рамок, перехід на дротовий USB-інтерфейс), розроблено програмне забезпечення мовою Rust у форматі OpenXR API (Application Programming Interface) шару. Це дало можливість позбутися мережевих затримок і забезпечити роботу системи, стійку до будь-яких умов. Пряма взаємодія з апаратним забезпеченням шолома забезпечується ефективною оптимізацією згорткових нейронних мереж та використанням низькорівневих системних викликів. Створено імерсивний графічний інтерфейс користувача (GUI), який успішно протестований для налаштування та калібрування системи. GUI став доступним безпосередньо у віртуальному просторі шолома.

Одержані результати можуть знайти застосування в індивідуальному навчанні вдома, інклюзивних закладах освіти, реабілітаційних центрах, які організовують навчання осіб із тяжкими порушеннями опорно-рухового апарату

Біографії авторів

Андрій Андрійович Симкін, Ужгородський національний університет

Кафедра інформаційних управляючих систем та технологій

Олександр Володимирович Міца, Ужгородський національний університет; Закарпатський угорський університет імені Ференца Ракоці II

Доктор технічних наук, професор

Кафедра інформаційних управляючих систем та технологій

Кафедра математики та інформатики

Юрій Васильович Горошко, Національний університет «Чернігівський колегіум» імені Т. Г. Шевченка

Доктор педагогічних наук, професор, завідувач кафедри

Кафедра інформатики і обчислювальної техніки

Ганна Юхимівна Цибко, Національний університет «Чернігівський колегіум» імені Т. Г. Шевченка

Кандидат педагогічних наук, доцент

Кафедра інформатики і обчислювальної техніки

Віктор Васильович Шакотько, Глухівський національний педагогічний університет імені Олександра Довженка

Кандидат педагогічних наук, доцент

Кафедра технологічної та професійної  освіти

Посилання

  1. Nyström, M., Holmqvist, K. (2010). An adaptive algorithm for fixation, saccade, and glissade detection in eyetracking data. Behavior Research Methods, 42 (1), 188–204. https://doi.org/10.3758/brm.42.1.188
  2. Holmqvist, K., Nyström, M., Andersson, R., Dewhurst, R., Jarodzka, H., van de Weijer, J. (2011). Eye Tracking: A Comprehensive Guide to Methods and Measures. Oxford, 560.
  3. Kapp, S., Barz, M., Mukhametov, S., Sonntag, D., Kuhn, J. (2021). ARETT: Augmented Reality Eye Tracking Toolkit for Head Mounted Displays. Sensors, 21 (6), 2234. https://doi.org/10.3390/s21062234
  4. Holmqvist, K., Örbom, S. L., Hooge, I. T. C., Niehorster, D. C., Alexander, R. G., Andersson, R. et al. (2022). RETRACTED ARTICLE: Eye tracking: empirical foundations for a minimal reporting guideline. Behavior Research Methods, 55 (1), 364–416. https://doi.org/10.3758/s13428-021-01762-8
  5. Šmidekova, Z., Minarikova, E., Janík, M., Holmqvist, K. (2019). Using eye-tracking to investigate differences in teachers' professional vision IN action and ON action. Journal of Eye Movement Research, 12 (7), 260. Available at: https://openurl.ebsco.com/EPDB%3Agcd%3A7%3A10210567/detailv2?sid=ebsco%3Aplink%3Ascholar&id=ebsco%3Agcd%3A142777840&crl=c&link_origin=scholar.google.com
  6. Sim, G., Bond, R. (2021). Eye tracking in Child Computer Interaction: Challenges and opportunities. International Journal of Child-Computer Interaction, 30, 100345. https://doi.org/10.1016/j.ijcci.2021.100345
  7. El Moucary, C., Kassem, A., Rizk, D., Rizk, R., Sawan, S., Zakhem, W. (2024). A low-cost full-scale auto eye-tracking system for mobility-impaired patients. AEU - International Journal of Electronics and Communications, 174, 155023. https://doi.org/10.1016/j.aeue.2023.155023
  8. Sugianto, M., Zhou, Y., Qiu, J. (2025). Eye tracking-based dual task in rehabilitation of motor and cognitive function in post-stroke patients: a literature review. Bulletin of Faculty of Physical Therapy, 30 (1). https://doi.org/10.1186/s43161-025-00295-x
  9. Sunny, M. S. H., Zarif, M. I. I., Rulik, I., Sanjuan, J., Rahman, M. H., Ahamed, S. I. et al. (2021). Eye-gaze control of a wheelchair mounted 6DOF assistive robot for activities of daily living. Journal of NeuroEngineering and Rehabilitation, 18 (1). https://doi.org/10.1186/s12984-021-00969-2
  10. Bogachkov, Y., Uhan, P. (2025). Models of blended learning in the context of mixed processes. Information Technologies and Learning Tools, 107 (3), 239–260. https://doi.org/10.33407/itlt.v107i3.5920
  11. Batsenko, S., Bohachkov, Yu., Burov, O., Horbachenko, V., Korkishko, I., Lytvynova, S., Nosenko, Yu. ta in. (2025). Imersyvni tekhnolohiyi dlia pidtrymky zmishanoho navchannia v zakladakh zahalnoi serednoi osvity. Kyiv: ITsO NAPN Ukrainy, 174. Available at: https://lib.iitta.gov.ua/id/eprint/746953/1/ПОСІБНИК.pdf
  12. Sedinkin, O., Derkach, M., Skarga-Bandurova, I., Matiuk, D. (2024). Systema dlia vidstezhennia rukhu ochei na osnovi mashynnoho navchannia. Computer-integrated technologies: education, science, production, 55, 199–205. https://doi.org/10.36910/6775-2524-0560-2024-55-25
  13. Barkovska, O., Liapin, Y., Muzyka, T., Ryndyk, I., Botnar, P. (2024). Gaze direction monitoring model in computer system for academic performance assessment. Information Technologies and Learning Tools, 99 (1), 63–75. https://doi.org/10.33407/itlt.v99i1.5503
  14. Introducing Bigscreen Beyond 2 with next-gen optics and eyetracking. Available at: https://store.bigscreenvr.com/blogs/beyond/introducing-bigscreen-beyond-2
  15. My interview with Play For Dream about their headset, Android XR, enterprise licensing, China, and more! Available at: https://skarredghost.com/2025/06/05/play-for-dream-interview-android-xr/
  16. Vive Focus Vision Announced. Available at: https://www.uploadvr.com/vive-focus-vision-announced/
  17. Introducing Galaxy XR: Opening New Worlds. Available at: https://news.samsung.com/us/introducing-galaxy-xr-opening-new-worlds/
  18. Valve Officially Announces Steam Frame, A "Streaming-First" Standalone VR Headset. Available at: https://www.uploadvr.com/valve-steam-frame-official-announcement-features-details/
  19. Project-Babble/Baballonia. Available at: https://github.com/Project-Babble/Baballonia
  20. Geche, F., Mitsa, O., Mulesa, O., Horvat, P. (2022). Synthesis of a Two Cascade Neural Network for Time Series Forecasting. 2022 IEEE 3rd International Conference on System Analysis & Intelligent Computing (SAIC), 1–5. https://doi.org/10.1109/saic57818.2022.9922991
  21. Lupei, M., Shlahta, M., Mitsa, O., Horoshko, Y., Tsybko, H., Gorbachuk, V. (2022). Development of an Interactive Map Within the Implementation of Actual State and Public Directions. 2022 12th International Conference on Advanced Computer Information Technologies (ACIT). https://doi.org/10.1109/acit54803.2022.9913191
  22. Mitsa, O., Sharkan, V., Maksymchuk, V., Varha, S., Shkurko, H. (2023). Ethnocultural, Educational and Scientific Potential of the Interactive Dialects Map. 2023 IEEE International Conference on Smart Information Systems and Technologies (SIST), 226–231. https://doi.org/10.1109/sist58284.2023.10223544
Розробка автономної системи відстеження погляду для інклюзивної освіти

##submission.downloads##

Опубліковано

2026-02-27

Як цитувати

Симкін, А. А., Міца, О. В., Горошко, Ю. В., Цибко, Г. Ю., & Шакотько, В. В. (2026). Розробка автономної системи відстеження погляду для інклюзивної освіти. Eastern-European Journal of Enterprise Technologies, 1(9 (139), 68–77. https://doi.org/10.15587/1729-4061.2026.351773

Номер

Розділ

Інформаційно-керуючі системи