Покращення шумових зображень, що фільтруються двостороннім процесом, з використанням багатомасштабної мережі агрегації контекста
DOI:
https://doi.org/10.15587/1729-4061.2022.255789Ключові слова:
згорткова нейронна мережа, залишкове навчання, багатомасштабна агрегація контексту, зображення відеоспостереженняАнотація
Останнім часом глибинному навчанню приділяється багато уваги як можливе вирішення безлічі проблем штучного інтелекту.
Згорткові нейронні мережі (ЗНМ) перевершують інші архітектури глибинного навчання у застосуванні ідентифікації та розпізнавання об’єктів у порівнянні з іншими методами машинного навчання. Розпізнавання мови, аналіз образів та ідентифікація зображень – усі вони виграють від глибинних нейронних мереж. Під час виконання операцій над зашумленими зображеннями, такими як видалення туману або покращення слабкого освітлення, потрібні методи обробки зображень, такі як фільтрація або покращення зображення. У дослідженні показано вплив використання багатомасштабної мережі агрегування контексту з глибоким навчанням CAN на апроксимацію двосторонньої фільтрації (АДФ) для усунення шумів у зображеннях відеоспостереження. Ми використовуємо Data-store для управління нашим набором даних, який є об’єктом або набором даних, які величезні для введення в пам’ять. Це дозволяє нам читати, керувати та обробляти дані, розташовані в декількох файлах, як єдине ціле. Архітектура CAN забезпечує інтегровані рівні глибинного навчання, такі як вхідні дані, згортка, зворотна нормалізація та рівні Leaky ReLu для побудови багато масштабних процесів. Також можна додати в мережу шари, такі як нормалізація адаптера (μ) і адаптивна нормалізація (лямбда). Ефективність розробленого оператора апроксимації CAN на зашумленому зображенні з двостороннім фільтруванням доведена при покращенні як зашумленого еталонного зображення, так і туманного зображення CCTV. Три метрики оцінки зображення (SSIM, NIQE і PSNR) оцінюють розроблене наближення CAN візуально і кількісно у порівнянні створеного очищеного від шуму зображення з еталонним зображенням – зашумлене зображення було (0,92673/0,76253, 6,18105/12,1865 та 26,786/20,3254) відповідно
Посилання
- Kwon, H. (2021). MedicalGuard: U-Net Model Robust against Adversarially Perturbed Images. Security and Communication Networks. doi: https://doi.org/10.1155/2021/5595026
- Zhu, G., Fu, J., Dong, J. (2020). Low Dose Mammography via Deep Learning. Journal of Physics: Conference Series. doi: https://doi.org/10.1088/1742-6596/1626/1/012110
- Liu, H., Wu, J., Lu, W., Onofrey, J. A., Liu, Y.-H., Liu, C. (2020). Noise reduction with cross-tracer and cross-protocol deep transfer learning for low-dose PET. Physics in Medicine & Biology, 65 (18). doi: https://doi.org/10.1088/1361-6560/abae08
- Chen, Q., Xu, J., Koltun, V. (2017). Fast Image Processing with Fully-Convolutional Networks. 2017 IEEE International Conference on Computer Vision (ICCV). doi: https://doi.org/10.1109/ICCV.2017.273
- Sharma, S., Tang, B., Ball, J. E., Carruth, D. W., Dabbiru, L. (2020). Recursive multi-scale image deraining with sub-pixel convolution based feature fusion and context aggregation. IEEE Access. doi: https://doi.org/10.1109/ACCESS.2020.3024542
- Kim, J., Kim, J., Jang G.-J., Lee, M. (2017). Fast learning method for convolutional neural networks using extreme learning machine and its application to lane detection. Neural Networks, 87. doi: https://doi.org/10.1016/j.neunet.2016.12.002
- Missert, A. D., Yu, L., Leng, S., Fletcher, J. G., McCollough, C. H. (2020). Synthesizing images from multiple kernels using a deep convolutional neural network. Med Phys, 47 (2). doi: https://doi.org/10.1002/mp.13918
- Klyuzhin, I. S., Cheng, J.-C., Bevington, C., Sossi, V. (2020). Use of a Tracer-Specific Deep Artificial Neural Net to Denoise Dynamic PET Images. IEEE Transactions on Medical Imaging, 39 (2). doi: https://doi.org/10.1109/TMI.2019.2927199
- Zhang, J., Zhao, Y., Wang, J., Chen, B. (2020). FedMEC: Improving Efficiency of Differentially Private Federated Learning via Mobile Edge Computing. Mobile Networks and Applications, 25, 2421–2433. doi: https://doi.org/10.1007/s11036-020-01586-4
- Mehranian, A., Wollenweber, S. D., Walker, M. D., Bradley, K. M., Fielding, P. A., Su, K.-H. et. al. (2022). Image enhancement of whole-body oncology [18F]-FDG PET scans using deep neural networks to reduce noise. European Journal of Nuclear Medicine and Molecular Imaging, 49, 539–549. doi: https://doi.org/10.1007/s00259-021-05478-x
- Lim, H., Chun, I. Y., Dewaraja, Y. K., Fessler, J. A. (2020). Improved Low-Count Quantitative PET Reconstruction With an Iterative Neural Network. IEEE Transactions on Medical Imaging, 39 (11,) 3512–3522. doi: https://doi.org/10.1109/TMI.2020.2998480
- Deeba, F., Zhou, Y., Dharejo, F. A., Du, Y., Wang, X., Kun, S. (2021). Multi-scale Single Image Super-Resolution with Remote-Sensing Application Using Transferred Wide Residual Network. Wireless Personal Communications, 120, 323–342. doi: https://doi.org/10.1007/s11277-021-08460-w
- Kromrey, M.-L., Tamada, D., Johno, H., Funayama, S., Nagata, N., Ichikawa, S. et. al. (2020). Reduction of respiratory motion artifacts in gadoxetate-enhanced MR with a deep learning–based filter using convolutional neural network. European Radiology, 30, 5923–5932. doi: https://doi.org/10.1007/s00330-020-07006-1
- Grabowski, D., Czyżewski, A. (2020). System for monitoring road slippery based on CCTV cameras and convolutional neural networks. Journal of Intelligent Information Systems, 55, 521–534. doi: https://doi.org/10.1007/S10844-020-00618-5
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Авторське право (c) 2022 Zinah R. Hussein

Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.
Закріплення та умови передачі авторських прав (ідентифікація авторства) здійснюється у Ліцензійному договорі. Зокрема, автори залишають за собою право на авторство свого рукопису та передають журналу право першої публікації цієї роботи на умовах ліцензії Creative Commons CC BY. При цьому вони мають право укладати самостійно додаткові угоди, що стосуються неексклюзивного поширення роботи у тому вигляді, в якому вона була опублікована цим журналом, але за умови збереження посилання на першу публікацію статті в цьому журналі.
Ліцензійний договір – це документ, в якому автор гарантує, що володіє усіма авторськими правами на твір (рукопис, статтю, тощо).
Автори, підписуючи Ліцензійний договір з ПП «ТЕХНОЛОГІЧНИЙ ЦЕНТР», мають усі права на подальше використання свого твору за умови посилання на наше видання, в якому твір опублікований. Відповідно до умов Ліцензійного договору, Видавець ПП «ТЕХНОЛОГІЧНИЙ ЦЕНТР» не забирає ваші авторські права та отримує від авторів дозвіл на використання та розповсюдження публікації через світові наукові ресурси (власні електронні ресурси, наукометричні бази даних, репозитарії, бібліотеки тощо).
За відсутності підписаного Ліцензійного договору або за відсутністю вказаних в цьому договорі ідентифікаторів, що дають змогу ідентифікувати особу автора, редакція не має права працювати з рукописом.
Важливо пам’ятати, що існує і інший тип угоди між авторами та видавцями – коли авторські права передаються від авторів до видавця. В такому разі автори втрачають права власності на свій твір та не можуть його використовувати в будь-який спосіб.