АГРЕГУВАННЯ ДАНИХ МОНІТОРИНГУ ДИНАМІЧНИХ СИСТЕМ ІЗ ВИКОРИСТАННЯМ ІНФОРМАЦІЙНИХ ТЕХНОЛОГІЙ
DOI:
https://doi.org/10.30837/ITSSI.2023.23.123Ключові слова:
зменшення розмірності даних; глибоке навчання; автокодувальникиАнотація
Предметом роботи є моделі, методи та інформаційні технології агрегування даних моніторингу. Мета статті – визначити найкращу модель глибокого навчання для зменшення розмірності даних моніторингу динамічних систем. Завдання, що вирішуються: аналіз наявних підходів зменшення розмірності, опис загальної архітектури стандартного й варіаційного автокодувальників, розроблення їх архітектури, створення програмного забезпечення для тренування й тестування автокодувальників, дослідження якості роботи автокодувальників для зменшення розмірності. Застосовано такі методи: підготовка та оброблення даних, зменшення розмірності даних. Програмне забезпечення було розроблено за допомогою мови Python. Допоміжними бібліотеками використані такі: scikit-learn, Pandas, PyTorch, NumPy, argparse тощо. Здобуті результати: у роботі запропоновано класифікацію моделей і методів для зменшення розмірності та подано загальні характеристики стандартного й варіаційного автокодувальників, що містять опис моделей, їх властивості, функції втрат та їх застосування для зменшення розмірності даних. Також створено власні архітектури автокодувальників, зокрема візуальне подання архітектури автокодувальників та опис кожного складника. Розроблено програмне забезпечення для тренування й тестування автокодувальників, розглянуто набір даних моніторингу динамічної системи та дії з попередньої підготовки набору даних. Крім того, описано метрику для оцінювання якості моделей, розглянуто конфігурацію автокодувальників та їх тренування. Висновки: стандартний автокодувальник відновлює дані набагато краще, ніж варіаційний. Зважаючи на те, що архітектури автокодувальників однакові, за винятком особливостей автокодувальників, можна зазначити, що стандартний автокодувальник стискає дані краще, зберігаючи більше корисних змінних для подальшого відновлення з вузького горла. Також за допомогою тренувань на різних розмірах вузького горла можна визначити розмір, за умови якого дані відновлюються найкраще, а це означає, що зберігаються найважливіші змінні. Відповідно до загальних результатів автокодувальники ефективно працюють над завданням зменшення розмірності, і метрика якості відновлення даних показує, що вони добре відновлюють дані з похибкою, яка становить 3–4 знаки після 0. Отже, стандартний автокодувальник є найкращою моделлю глибокого навчання агрегування даних моніторингу динамічних систем.
Посилання
References
Grusha, V. M. (2017), "Chlorophyll fluorometer data normalization and dimensionality reduction” ["Normalizaciya ta zmenshennya rozmirnosti dany’x xlorofil-fluorometriv"], Computer facilities, networks and systems, No. 16, P. 76–86.
Martseniuk, V. P., Dronyak, Y. V. and Tsikorska, I. V. (2019) "Reduction of dimension for prediction of progress in problems of medical education: an approach based", Medical Informatics and Engineering, No. 4, P. 16–24.
Kozak, Ye. B. (2021), "A complex algorithm for creating control automata based on machine learning" ["Kompleksny’j algory`tm stvorennya keruyuchy’x avtomativ na bazi mashy`nnogo navchannya"], Technical engineering, No. 2 (88), P. 35–41. DOI: https://doi.org/10.26642/ten-2021-2(88)-35-41.
Bakurova, A. et al. (2021), "Neural network forecasting of energy consumption of a metallurgical enterprise", Innovative Technologies and Scientific Solutions for Industries, No. 1 (15), P. 14–22. DOI: https://doi.org/10.30837/itssi.2021.15.014.
Korablyov, M. and Lutskyy, S. (2022), "System-information models for Intelligent Information Processing", Innovative Technologies and Scientific Solutions for Industries, No. 3 (21), P. 26–38. DOI: https://doi.org/10.30837/itssi.2022.21.026.
Xie, H., Li, J. and Xue, H. (2018), "A survey of dimensionality reduction techniques based on random projection", arXiv.org. DOI: https://doi.org/10.48550/arXiv.1706.04371
Espadoto, M. et al. (2021), "Toward a quantitative survey of dimension reduction techniques," IEEE Transactions on Visualization and Computer Graphics, No. 27 (3), P. 2153–2173. DOI: https://doi.org/10.1109/tvcg.2019.2944182
Velliangiri, S., Alagumuthukrishnan, S. and Thankumar joseph, S.I. (2019), "A review of dimensionality reduction techniques for efficient computation", Procedia Computer Science, No. 165, P. 104–111. DOI: https://doi.org/10.1016/j.procs.2020.01.079
McInnes, L., Healy, J. and Melville, J. (2020), "UMAP: Uniform manifold approximation and projection for dimension reduction", arXiv.org. DOI: https://doi.org/10.48550/arXiv.1802.03426
Chorowski, J. et al. (2019), "Unsupervised speech representation learning using WaveNet autoencoders", IEEE/ACM Transactions on Audio, Speech, and Language Processing, No. 27 (12), P. 2041–2053. DOI: https://doi.org/10.1109/TASLP.2019.2938863
Jia, W. et al. (2022), "Feature dimensionality reduction: A Review", Complex & Intelligent Systems, No. 8 (3), P. 2663–2693. DOI: https://doi.org/10.1007/s40747-021-00637-x
May, P. and Rekabdarkolaee, H.M. (2022), "Dimension reduction for spatially correlated data: Spatial predictor envelope", arXiv.org. DOI: https://doi.org/10.48550/arXiv.2201.01919
Matchev, K.T., Matcheva, K. and Roman, A. (2022), "Unsupervised machine learning for exploratory data analysis of Exoplanet Transmission Spectra", arXiv.org. DOI: https://doi.org/10.48550/arXiv.2201.02696
Björklund, A., Mäkelä, J. and Puolamäki, K. (2022), "SLISEMAP: Supervised dimensionality reduction through local explanations", Machine Learning, No. 112 (1), P. 1–43. DOI: https://doi.org/10.1007/s10994-022-06261-1
Bhandari, N. et al. (2022), "A comprehensive survey on computational learning methods for analysis of Gene Expression Data", arXiv.org. DOI: https://doi.org/10.48550/arXiv.2202.02958
Bank, D., Koenigstein, N. and Giryes, R. (2021), "Autoencoders", arXiv.org. DOI: https://doi.org/10.48550/arXiv.2003.05991
Hinton, G.E. et al. (2012), "Improving neural networks by preventing co-adaptation of feature detectors", arXiv.org. DOI: https://doi.org/10.48550/arXiv.1207.0580
Ioffe, S. and Szegedy, C. (2015), "Batch normalization: Accelerating deep network training by reducing internal covariate shift", International conference on machine learning. DOI: https://doi.org/10.48550/arXiv.1502.03167
Kingma, D.P. and Ba, J. (2017), "Adam: A method for stochastic optimization", arXiv.org. DOI: https://doi.org/10.48550/arXiv.1412.6980
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Ця робота ліцензується відповідно до Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.
Наше видання використовує положення про авторські права Creative Commons для журналів відкритого доступу.
Автори, які публікуються у цьому журналі, погоджуються з наступними умовами:
Автори залишають за собою право на авторство своєї роботи та передають журналу право першої публікації цієї роботи на умовах ліцензії Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License (CC BY-NC-SA 4.0), котра дозволяє іншим особам вільно розповсюджувати опубліковану роботу з обов'язковим посиланням на авторів оригінальної роботи та першу публікацію роботи у цьому журналі.
Автори мають право укладати самостійні додаткові угоди щодо не комерційного та не ексклюзивного розповсюдження роботи у тому вигляді, в якому вона була опублікована цим журналом (наприклад, розміщувати роботу в електронному сховищі установи або публікувати у складі монографії), за умови збереження посилання на першу публікацію роботи у цьому журналі.
Політика журналу дозволяє і заохочує розміщення авторами в мережі Інтернет (наприклад, у сховищах установ або на особистих веб-сайтах) рукопису опублікованої роботи, оскільки це сприяє виникненню продуктивної наукової дискусії та позитивно позначається на оперативності та динаміці цитування опублікованої роботи.