Вплив методу компіляції на визначення точності втрати помилки в навчанні нейронної мережі
DOI:
https://doi.org/10.15587/2706-5448.2020.217613Ключові слова:
метрика оцінки, якість навчання, алгоритми оптимізації, ентропійна помилка, нейронна мережа.Анотація
В області дослідження NLP (Natural Language Processing) важливим стало застосування нейронної мережі. Нейронна мережа широко застосовується в семантичному аналізі текстів на різних мовах. У зв'язку з актуалізацією обробки великих даних казахською мовою була побудована нейронна мережа для проведення глибокого навчання. В даному дослідженні об'єктом є процес навчання глибокої нейронної мережі, яка дає оцінку алгоритму побудови LDA моделі. Одним з найбільш проблемних місць є визначення правильних аргументів, які при компіляції моделі дадуть оцінку роботи алгоритму. В ході дослідження використовувався метод compile () з модульної бібліотеки Keras, основними аргументами якого є функція втрат, оптимізатори, метрики. Нейронна мережа реалізована на мові програмування Python. Основними аргументами компілятора глибокого навчання нейронної мережі для оцінки моделі LDA є підбір аргументів для отримання правильної оцінки алгоритму побудованої моделі за допомогою глибокого навчання нейронної мережі. У якості даних, що навчаються, представлений корпус тексту казахською мовою з не більш 8000 словами. Із застосуванням вище перерахованих методів був проведений експеримент з виборки аргументів для компілятора моделі при навчанні корпусу тексту казахською мовою. В результаті оптимальними аргументами були обрані оптимізатор – SGD, функція втрат – binary_crossentropy та метрика оцінки – 'cosine_proximity', які в результаті навчання показали прагнення до 0 loss (помилки)=0,1984, і cosine_proximity (точність навчання)=0.2239, що вважається допустимими заходами навчання. Отримані результати вказують на правильний вибір аргументів компіляції. Дані аргументи можна застосовувати при проведенні глибокого навчання нейронної мережі, де даними вибірки виступає пара «тема та ключові слова».
Посилання
- Trask, E. (2020). Glubokoe obuchenie. Saint Petersburg: Piter, 352.
- Sholle, F. (2018). Glubokoe obuchenie na Python. Saint Petersburg: Piter, 400.
- Duchi, J., Hazan E., Singer, Y. (2011). Adaptive subgradient methods for online learning and stochastic optimization. The Journal of Machine Learning Research, 12, 2121–2159.
- Kononiuk, A. E. (2011). Informatsiologiia. Obschaia teoriia informatsii. Kniga 3. Kyiv: Osvіta Ukraini, 412.
- Dzhulli, A., Pal, S. (2018). Biblioteka Keras – instrument glubokogo obucheniia. Moscow: DMK Press, 294.
- Koyuncu, H. (2020). Loss Function Selection in NN based Classifiers: Try-outs with a Novel Method. 2020 12th International Conference on Electronics, Computers and Artificial Intelligence (ECAI). doi: http://doi.org/10.1109/ecai50035.2020.9223208
- Hung, C.-C., Song, E., Lan, Y. (2019). Foundation of Deep Machine Learning in Neural Networks. Image Texture Analysis, 201–232. doi: http://doi.org/10.1007/978-3-030-13773-1_9
- Metriki. Available at: https://ru-keras.com/metric/
- Ketkar, N. (2017) Introduction to Keras. Deep Learning with Python. Berkeley: Apress. doi: http://doi.org/10.1007/978-1-4842-2766-4_7
- Chollet, F. (2017). Deep Learning With Python. Black & White, 384. Available at: https://github.com/fchollet/deep-learning-with-python-notebooks
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Авторське право (c) 2020 Akerke Аkanova, Mira Kaldarova
Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.
Закріплення та умови передачі авторських прав (ідентифікація авторства) здійснюється у Ліцензійному договорі. Зокрема, автори залишають за собою право на авторство свого рукопису та передають журналу право першої публікації цієї роботи на умовах ліцензії Creative Commons CC BY. При цьому вони мають право укладати самостійно додаткові угоди, що стосуються неексклюзивного поширення роботи у тому вигляді, в якому вона була опублікована цим журналом, але за умови збереження посилання на першу публікацію статті в цьому журналі.