Вплив методу компіляції на визначення точності втрати помилки в навчанні нейронної мережі

Автор(и)

  • Akerke Аkanova Казахський агротехнічний університет імені С. Сейфуллина, пр. Женис, 62, Нур-Султан, Казахстан, 010011, Казахстан https://orcid.org/0000-0002-7178-2121
  • Mira Kaldarova Казахський агротехнічний університет імені С. Сейфуллина, пр. Женис, 62, Нур-Султан, Казахстан, 010011, Україна https://orcid.org/0000-0001-7494-9794

DOI:

https://doi.org/10.15587/2706-5448.2020.217613

Ключові слова:

метрика оцінки, якість навчання, алгоритми оптимізації, ентропійна помилка, нейронна мережа.

Анотація

В області дослідження NLP (Natural Language Processing) важливим стало застосування нейронної мережі. Нейронна мережа широко застосовується в семантичному аналізі текстів на різних мовах. У зв'язку з актуалізацією обробки великих даних казахською мовою була побудована нейронна мережа для проведення глибокого навчання. В даному дослідженні об'єктом є процес навчання глибокої нейронної мережі, яка дає оцінку алгоритму побудови LDA моделі. Одним з найбільш проблемних місць є визначення правильних аргументів, які при компіляції моделі дадуть оцінку роботи алгоритму. В ході дослідження використовувався метод compile () з модульної бібліотеки Keras, основними аргументами якого є функція втрат, оптимізатори, метрики. Нейронна мережа реалізована на мові програмування Python. Основними аргументами компілятора глибокого навчання нейронної мережі для оцінки моделі LDA є підбір аргументів для отримання правильної оцінки алгоритму побудованої моделі за допомогою глибокого навчання нейронної мережі. У якості даних, що навчаються, представлений корпус тексту казахською мовою з не більш 8000 словами. Із застосуванням вище перерахованих методів був проведений експеримент з виборки аргументів для компілятора моделі при навчанні корпусу тексту казахською мовою. В результаті оптимальними аргументами були обрані оптимізатор – SGD, функція втрат – binary_crossentropy та метрика оцінки – 'cosine_proximity', які в результаті навчання показали прагнення до 0 loss (помилки)=0,1984, і cosine_proximity (точність навчання)=0.2239, що вважається допустимими заходами навчання. Отримані результати вказують на правильний вибір аргументів компіляції. Дані аргументи можна застосовувати при проведенні глибокого навчання нейронної мережі, де даними вибірки виступає пара «тема та ключові слова».

Біографії авторів

Akerke Аkanova, Казахський агротехнічний університет імені С. Сейфуллина, пр. Женис, 62, Нур-Султан, Казахстан, 010011

Кафедра обчислювальних систем і програмного забезпечення

Mira Kaldarova, Казахський агротехнічний університет імені С. Сейфуллина, пр. Женис, 62, Нур-Султан, Казахстан, 010011

Кафедра обчислювальних систем і програмного забезпечення

Посилання

  1. Trask, E. (2020). Glubokoe obuchenie. Saint Petersburg: Piter, 352.
  2. Sholle, F. (2018). Glubokoe obuchenie na Python. Saint Petersburg: Piter, 400.
  3. Duchi, J., Hazan E., Singer, Y. (2011). Adaptive subgradient methods for online learning and stochastic optimization. The Journal of Machine Learning Research, 12, 2121–2159.
  4. Kononiuk, A. E. (2011). Informatsiologiia. Obschaia teoriia informatsii. Kniga 3. Kyiv: Osvіta Ukraini, 412.
  5. Dzhulli, A., Pal, S. (2018). Biblioteka Keras – instrument glubokogo obucheniia. Moscow: DMK Press, 294.
  6. Koyuncu, H. (2020). Loss Function Selection in NN based Classifiers: Try-outs with a Novel Method. 2020 12th International Conference on Electronics, Computers and Artificial Intelligence (ECAI). doi: http://doi.org/10.1109/ecai50035.2020.9223208
  7. Hung, C.-C., Song, E., Lan, Y. (2019). Foundation of Deep Machine Learning in Neural Networks. Image Texture Analysis, 201–232. doi: http://doi.org/10.1007/978-3-030-13773-1_9
  8. Metriki. Available at: https://ru-keras.com/metric/
  9. Ketkar, N. (2017) Introduction to Keras. Deep Learning with Python. Berkeley: Apress. doi: http://doi.org/10.1007/978-1-4842-2766-4_7
  10. Chollet, F. (2017). Deep Learning With Python. Black & White, 384. Available at: https://github.com/fchollet/deep-learning-with-python-notebooks

Опубліковано

2020-12-30

Як цитувати

Аkanova A., & Kaldarova, M. (2020). Вплив методу компіляції на визначення точності втрати помилки в навчанні нейронної мережі. Technology Audit and Production Reserves, 6(2(56), 34–37. https://doi.org/10.15587/2706-5448.2020.217613

Номер

Розділ

Звіт про науково-дослідні роботи