Підвищення ефективності та точності класифікації одержувачів програми безкоштовного харчування шляхом застосування дистиляції знань в алгоритмі згорткової нейронної мережі

Автор(и)

DOI:

https://doi.org/10.15587/1729-4061.2026.357493

Ключові слова:

програма харчування, ЗНМ, модель дистиляції студентів, система класифікації

Анотація

Об’єктом цього дослідження є система класифікації на основі глибокого навчання, що застосовується до одержувачів Програми безкоштовного харчування, використовуючи дані одержувачів як представлення процесу визначення права на отримання соціальної допомоги. Проблема, яку необхідно вирішити, полягає у високій обчислювальній складності моделей згорткових нейронних мереж (ЗНМ) великої ємності, які, незважаючи на свою високу точність, потребують значних обчислювальних ресурсів і тому є неоптимальними для масштабного впровадження. Щоб подолати цю проблему, у цьому дослідженні застосовується метод дистиляції знань, використовуючи ЗНМ великої ємності як модель вчителя та ЗНМ з легкою архітектурою як модель учня за допомогою м’якої передачі знань на основі м’яких міток. Згідно з цим дослідженням, показано, що модель учня, згенерована шляхом дистиляції, має точність приблизно 90–93%. Крім того, цей показник дуже близький до показника моделі вчителя (від 92 до 95%) і набагато кращий, ніж показник моделі ЗНМ без дистиляції (85–88%). Це є покращенням, оскільки цей метод дистиляції може передавати інформацію у вигляді більш багатих ймовірностей, ніж просто жорсткі мітки, як це робиться в традиційному навчанні. Модель, запропонована в цій роботі, має багато переваг, таких як вища точність, компактніший розмір та швидший час виведення. Ці особливості допомагають зробити процес класифікації менш обчислювально інтенсивним. Крім того, це призводить до ефективнішого використання пам’яті та зниження енергоспоживання. Ці результати можна застосовувати в багатьох системах класифікації глибокого навчання, зокрема в пристроях з обмеженням ресурсів. Таке застосування можна спостерігати в реалізації Програми безкоштовного харчування в реальних умовах, що вимагає кращої точності без втрати ефективності

Біографії авторів

Relita Buaton, STMIK Kaputama

Doctor of Computer

Department of Information Technology

Mesra Betty Yel, STIKOM Cipta Karya Informatika

Doctor of Computer

Department of Information System

Novriyenni Novriyenni, STMIK Kaputama

Master of Computer

Department of Information System

Anton Sihombing, STMIK Kaputama

Master of Management

Department of Management Information System

Ida Ria Royentina Sidabukke, Universitas Sari Mutiara Indonesia

Master of Health

Department of Midwifery

Посилання

  1. Arnita, A., Marpaung, F., Koemadji, Z. A., Hidayat, M., Widianto, A., Aulia, F. (2023). Selection of Food Identification System Features Using Convolutional Neural Network (CNN) Method. Scientific Journal of Informatics, 10 (2), 205–216. https://doi.org/10.15294/sji.v10i2.44059
  2. Greco, A., Saggese, A., Vento, M., Vigilante, V. (2021). Effective training of convolutional neural networks for age estimation based on knowledge distillation. Neural Computing and Applications, 34 (24), 21449–21464. https://doi.org/10.1007/s00521-021-05981-0
  3. Yang, H., Zhang, Y., Yin, C., Ding, W. (2022). Ultra-lightweight CNN design based on neural architecture search and knowledge distillation: A novel method to build the automatic recognition model of space target ISAR images. Defence Technology, 18 (6), 1073–1095. https://doi.org/10.1016/j.dt.2021.04.014
  4. Li, Y., Luo, J., Zhang, J. (2022). Classification of Alzheimer’s disease in MRI images using knowledge distillation framework: an investigation. International Journal of Computer Assisted Radiology and Surgery, 17 (7), 1235–1243. https://doi.org/10.1007/s11548-022-02661-9
  5. Song, H., Yuan, Y., Ouyang, Z., Yang, Y., Xiang, H. (2024). Efficient knowledge distillation for hybrid models: A vision transformer‐convolutional neural network to convolutional neural network approach for classifying remote sensing images. IET Cyber-Systems and Robotics, 6 (3). https://doi.org/10.1049/csy2.12120
  6. Cho, J., Lee, M. (2019). Building a Compact Convolutional Neural Network for Embedded Intelligent Sensor Systems Using Group Sparsity and Knowledge Distillation. Sensors, 19 (19), 4307. https://doi.org/10.3390/s19194307
  7. Ding, Z., Yang, C., Hu, B., Guo, M., Li, J., Wang, M. et al. (2024). Lightweight CNN combined with knowledge distillation for the accurate determination of black tea fermentation degree. Food Research International, 194, 114929. https://doi.org/10.1016/j.foodres.2024.114929
  8. Ullah, H., Munir, A. (2023). A 3DCNN-Based Knowledge Distillation Framework for Human Activity Recognition. Journal of Imaging, 9 (4), 82. https://doi.org/10.3390/jimaging9040082
  9. Ji, M., Peng, G., Li, S., Cheng, F., Chen, Z., Li, Z., Du, H. (2022). A neural network compression method based on knowledge-distillation and parameter quantization for the bearing fault diagnosis. Applied Soft Computing, 127, 109331. https://doi.org/10.1016/j.asoc.2022.109331
  10. MohiEldeen Alabbasy, F., Abohamama, A. S., Alrahmawy, M. F. (2023). Compressing medical deep neural network models for edge devices using knowledge distillation. Journal of King Saud University - Computer and Information Sciences, 35 (7), 101616. https://doi.org/10.1016/j.jksuci.2023.101616
  11. Hinton, G., Vinyals, O., Dean, J. (2015). Distilling The Knowledge In A Neural Network. arXiv. https://doi.org/10.48550/arXiv.1503.02531
  12. Aghli, N., Ribeiro, E. (2021). Combining Weight Pruning and Knowledge Distillation For CNN Compression. 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), 3185–3192. https://doi.org/10.1109/cvprw53098.2021.00356
  13. Mazlan, A. B., Ng, Y. H., Tan, C. K. (2022). A Fast Indoor Positioning Using a Knowledge-Distilled Convolutional Neural Network (KD-CNN). IEEE Access, 10, 65326–65338. https://doi.org/10.1109/access.2022.3183113
  14. Chen, W., Gao, L., Li, X., Shen, W. (2022). Lightweight convolutional neural network with knowledge distillation for cervical cells classification. Biomedical Signal Processing and Control, 71, 103177. https://doi.org/10.1016/j.bspc.2021.103177
  15. Song, H., Wei, C., Yong, Z. (2023). Efficient knowledge distillation for remote sensing image classification: a CNN-based approach. International Journal of Web Information Systems, 20 (2), 129–158. https://doi.org/10.1108/ijwis-10-2023-0192
  16. Jomaa, L. H., McDonnell, E., Probart, C. (2011). School feeding programs in developing countries: impacts on children’s health and educational outcomes. Nutrition Reviews, 69 (2), 83–98. https://doi.org/10.1111/j.1753-4887.2010.00369.x
  17. Mhurchu, C. N., Gorton, D., Turley, M., Jiang, Y., Michie, J., Maddison, R., Hattie, J. (2012). Effects of a free school breakfast programme on children’s attendance, academic achievement and short-term hunger: results from a stepped-wedge, cluster randomised controlled trial. Journal of Epidemiology and Community Health, 67 (3), 257–264. https://doi.org/10.1136/jech-2012-201540
  18. Raveenthiranathan, L., Ramanarayanan, V., Thankappan, K. (2024). Impact of free school lunch program on nutritional status and academic outcomes among school children in India: A systematic review. BMJ Open, 14 (7), e080100. https://doi.org/10.1136/bmjopen-2023-080100
  19. Hamdan, F., Al-Jarrah, F. (2024). Nutritional Health and Its Impact on Students’ Academic Achievement. Journal of Educational and Social Research, 14 (6), 449. https://doi.org/10.36941/jesr-2024-0185
  20. Salih, M. S., Pasha, S. A. (2024). Utilizing nutritional and lifestyle data for predicting student academic performance: a machine learning approach. Science Journal of University of Zakho, 12 (3), 356–360. https://doi.org/10.25271/sjuoz.2024.12.3.1288
  21. Zarlis, M., Oktavia, T., Buaton, R., Ernawan, F., Andrian, K. (2023). Minimizing the Number of Stunting Prevalence Using the Euclid Algorithm Clustering Approach. 2023 International Conference of Computer Science and Information Technology (ICOSNIKOM), 1–7. https://doi.org/10.1109/icosnikom60230.2023.10364489
  22. Kirk, D., Kok, E., Tufano, M., Tekinerdogan, B., Feskens, E. J. M., Camps, G. (2022). Machine Learning in Nutrition Research. Advances in Nutrition, 13 (6), 2573–2589. https://doi.org/10.1093/advances/nmac103
  23. Umirzakova, S., Abdullaev, M., Mardieva, S., Latipova, N., Muksimova, S. (2024). Simplified Knowledge Distillation for Deep Neural Networks Bridging the Performance Gap with a Novel Teacher–Student Architecture. Electronics, 13 (22), 4530. https://doi.org/10.3390/electronics13224530
Підвищення ефективності та точності класифікації одержувачів програми безкоштовного харчування шляхом застосування дистиляції знань в алгоритмі згорткової нейронної мережі

##submission.downloads##

Опубліковано

2026-04-30

Як цитувати

Buaton, R., Yel, M. B., Novriyenni, N., Sihombing, A., & Sidabukke, I. R. R. (2026). Підвищення ефективності та точності класифікації одержувачів програми безкоштовного харчування шляхом застосування дистиляції знань в алгоритмі згорткової нейронної мережі. Eastern-European Journal of Enterprise Technologies, 2(3 (140), 37–45. https://doi.org/10.15587/1729-4061.2026.357493

Номер

Розділ

Процеси управління