Удосконалення методу багатокласової сегментації зображень мазків Папа на основі міждоменського перенесення за обмеженими даними

Автор(и)

DOI:

https://doi.org/10.15587/1729-4061.2026.352892

Ключові слова:

трансферне навчання, мазок Папаніколау, рак шийки матки, сегментація, глибоке навчання

Анотація

У цьому дослідженні розглянуто автоматизовану багатокласову семантичну сегментацію зображень мазків Папаніколау, що використовуються для виявлення раку шийки матки. Ефективність існуючих методів глибокого навчання часто обмежена через брак маркованих даних, високу морфологічну мінливість клітин шийки матки, перекриття структур, шум, низьку контрастність та артефакти зображення, характерні для цитологічних зразків.

У цьому дослідженні запропоновано підхід міждоменного перенесення навчання, яка адаптує попередньо навчені глибокі нейронні мережі до завдання багатокласової сегментації мазків Папаніколау. Всі мережі були попередньо навчені на великомасштабних наборах даних природних зображень. В експериментах удосконалювалися та систематично порівнювалися як згорткові нейронні мережі, так і моделі на основі Transformer, включаючи гібридні конфігурації. Продуктивність мережі оцінювалася за допомогою кількісних метрик (Dice score, IoU, HD95), а також якісної візуальної оцінки країв та меж сегментації.

Результати, отримані в експериментах, показали, що архітектури на основі Transformer, зокрема SegFormer, значно перевершують згорткові моделі при обробці шумних та неоднорідних цитологічних даних. Використовуючи спеціалізовані стратегії доповнення даних, розроблені спеціально для медичної візуалізації, SegFormer збільшив показники Dice до 0,95 для всіх класів, а також покращив точність визначення країв та стійкість до артефактів та аліасингу клітин.

Багатомасштабне вилучення ознак та моделювання глобального контексту виявилися важливими для точної ідентифікації клітинних структур в умовах обмеженого обсягу даних. Результати, отримані в дослідженні, можуть допомогти в розробці надійних автоматизованих діагностичних інструментів для допомоги цитопатологам, а також для підвищення загальної точності та ефективності програм скринінгу раку шийки матки

Біографії авторів

Margulan Nurtay, Abylkas Saginov Karaganda Technical University

Master of Technical Sciences

Department of Information and Computing Systems

Gaukhar Alina, Abylkas Saginov Karaganda Technical University

PhD Student, Master

Department of Information and Computing Systems

Ardak Tau, Abylkas Saginov Karaganda Technical University

Master of Technical Sciences

Department of Information and Computing Systems

Посилання

  1. Mustafa, W. A., Ismail, S., Mokhtar, F. S., Alquran, H., Al-Issa, Y. (2023). Cervical Cancer Detection Techniques: A Chronological Review. Diagnostics, 13 (10), 1763. https://doi.org/10.3390/diagnostics13101763
  2. Litjens, G., Kooi, T., Bejnordi, B. E., Setio, A. A. A., Ciompi, F., Ghafoorian, M. et al. (2017). A survey on deep learning in medical image analysis. Medical Image Analysis, 42, 60–88. https://doi.org/10.1016/j.media.2017.07.005
  3. Fang, M., Liao, B., Lei, X., Wu, F.-X. (2024). A systematic review on deep learning based methods for cervical cell image analysis. Neurocomputing, 610, 128630. https://doi.org/10.1016/j.neucom.2024.128630
  4. Cruz-Roa, A., Basavanhally, A., González, F., Gilmore, H., Feldman, M., Ganesan, S. et al. (2014). Automatic detection of invasive ductal carcinoma in whole slide images with convolutional neural networks. Medical Imaging 2014: Digital Pathology, 9041, 904103. https://doi.org/10.1117/12.2043872
  5. Pati, P., Jaume, G., Foncubierta-Rodríguez, A., Feroce, F., Anniciello, A. M., Scognamiglio, G. et al. (2022). Hierarchical graph representations in digital pathology. Medical Image Analysis, 75, 102264. https://doi.org/10.1016/j.media.2021.102264
  6. Win, K. Y., Choomchuay, S. (2017). Automated segmentation of cell nuclei in cytology pleural fluid images using OTSU thresholding. 2017 International Conference on Digital Arts, Media and Technology (ICDAMT), 14–18. https://doi.org/10.1109/icdamt.2017.7904925
  7. Ronneberger, O., Fischer, P., Brox, T. (2015). U-Net: Convolutional Networks for Biomedical Image Segmentation. Medical Image Computing and Computer-Assisted Intervention – MICCAI 2015, 234–241. https://doi.org/10.1007/978-3-319-24574-4_28
  8. Oktay, O., Schlemper, J., Folgoc, L. L., Lee, M., Heinrich, M., Misawa, K. et al. (2018). Attention U-Net: Learning Where to Look for the Pancreas. arXiv. https://doi.org/10.48550/arXiv.1804.03999
  9. Hatamizadeh, A., Tang, Y., Nath, V., Yang, D., Myronenko, A., Landman, B. et al. (2022). UNETR: Transformers for 3D Medical Image Segmentation. 2022 IEEE/CVF Winter Conference on Applications of Computer Vision (WACV), 1748–1758. https://doi.org/10.1109/wacv51458.2022.00181
  10. Chen, J., Lu, Y., Yu, Q., Luo, X., Adeli, E., Wang, Y. et al. (2021). TransUNet: Transformers Make Strong Encoders for Medical Image Segmentation. arXiv. https://doi.org/10.48550/arXiv.2102.04306
  11. Wang, W., Xie, E., Li, X., Fan, D.-P., Song, K., Liang, D. et al. (2021). Pyramid Vision Transformer: A Versatile Backbone for Dense Prediction without Convolutions. 2021 IEEE/CVF International Conference on Computer Vision (ICCV), 548–558. https://doi.org/10.1109/iccv48922.2021.00061
  12. Xu, C., Li, M., Li, G., Zhang, Y., Sun, C., Bai, N. (2022). Cervical Cell/Clumps Detection in Cytology Images Using Transfer Learning. Diagnostics, 12 (10), 2477. https://doi.org/10.3390/diagnostics12102477
  13. Raghu, M., Zhang, C., Kleinberg, J., Bengio, S. (2019). Transfusion: Understanding Transfer Learning for Medical Imaging. arXiv. https://doi.org/10.48550/arXiv.1902.07208
  14. Tajbakhsh, N., Shin, J. Y., Gurudu, S. R., Hurst, R. T., Kendall, C. B., Gotway, M. B., Liang, J. (2016). Convolutional Neural Networks for Medical Image Analysis: Full Training or Fine Tuning? IEEE Transactions on Medical Imaging, 35 (5), 1299–1312. https://doi.org/10.1109/tmi.2016.2535302
  15. He, K., Zhang, X., Ren, S., Sun, J. (2016). Deep Residual Learning for Image Recognition. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 770–778. https://doi.org/10.1109/cvpr.2016.90
  16. Russakovsky, O., Deng, J., Su, H., Krause, J., Satheesh, S., Ma, S. et al. (2015). ImageNet Large Scale Visual Recognition Challenge. International Journal of Computer Vision, 115 (3), 211–252. https://doi.org/10.1007/s11263-015-0816-y
  17. Dosovitskiy, A., Beyer, L., Kolesnikov, A., Weissenborn, D., Zhai, X., Unterthiner, T. et al. (2020). An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale. arXiv. https://doi.org/10.48550/arXiv.2010.11929
  18. Chen, L.-C., Zhu, Y., Papandreou, G., Schroff, F., Adam, H. (2018). Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation. Computer Vision – ECCV 2018, 833–851. https://doi.org/10.1007/978-3-030-01234-2_49
  19. Xie, E., Wang, W., Yu, Z., Anandkumar, A., Alvarez, J. M., Luo, P. (2021). SegFormer: Simple and Efficient Design for Semantic Segmentation with Transformers. arXiv. https://doi.org/10.48550/arXiv.2105.15203
Удосконалення методу багатокласової сегментації зображень мазків Папа на основі міждоменського перенесення за обмеженими даними

##submission.downloads##

Опубліковано

2026-02-27

Як цитувати

Nurtay, M., Alina, G., & Tau, A. (2026). Удосконалення методу багатокласової сегментації зображень мазків Папа на основі міждоменського перенесення за обмеженими даними. Eastern-European Journal of Enterprise Technologies, 1(9 (139), 47–55. https://doi.org/10.15587/1729-4061.2026.352892

Номер

Розділ

Інформаційно-керуючі системи