Обнаружение и классификация объектов на трехмерных изображениях с использованием методов глубокого обучения
- Авторы: Матвеев И.А.1, Юрченко А.А.2,1
-
Учреждения:
- ФИЦ ИУ РАН
- Федеральное государственное автономное образовательное учреждение высшего образования “Московский физико-технический институт (национальный исследовательский ун-т)” МФТИ
- Выпуск: № 6 (2024)
- Страницы: 111-134
- Раздел: ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ
- URL: https://medjrf.com/0002-3388/article/view/683141
- DOI: https://doi.org/10.31857/S0002338824060091
- EDN: https://elibrary.ru/subugn
- ID: 683141
Цитировать
Аннотация
Рассматривается задача автоматического обнаружения и классификации объектов на трехмерных одноканальных растровых изображениях. Объекты могут иметь малую контрастность и значительную изменчивость формы, что затрудняет построение модели в явном виде. Для решения используются методы машинного обучения по размеченной базе прецедентов. Предлагается двухэтапная обработка, на первом шаге производится обнаружение объектов на изображении, на втором – уменьшение доли ложноположительных результатов и классификация. Применяется подход глубокого обучения с единым входом и тренировкой на одновременное решение нескольких задач. Решается актуальная практическая задача построения клинически применимой автоматической системы поддержки принятия решений при обнаружении и определении категорий переломов ребер по данным снимков компьютерной томографии. Проведены вычислительные эксперименты на общедоступном наборе данных RibFrac. Показано, что предложенная система обеспечивает значение чувствительности обнаружения 0.935 при среднем количестве ложположительных предсказаний на одно изображение 4.7. Приводится сравнение полученного алгоритма с существующими методами на основании количественных мер.
Об авторах
И. А. Матвеев
ФИЦ ИУ РАН
Автор, ответственный за переписку.
Email: matveev@frccsc.ru
Россия, Москва
А. А. Юрченко
Федеральное государственное автономное образовательное учреждение высшего образования “Московский физико-технический институт (национальный исследовательский ун-т)” МФТИ; ФИЦ ИУ РАН
Email: yurchenko.aa@phystech.edu
Россия, Москва; Москва
Список литературы
- Topker M., Ringl H., Lazar M. The Ribs Unfolded – a CT Visualization Algorithm for Fast Detection of Rib Fractures: Effect on Sensitivity and Specificity in Trauma Patients // Eur Radiol. 2015. V. 25. P. 1865–1874.
- Urbaneja A., De Verbizier J., Formery A. S. et al. Automatic Rib Cage Unfolding with CT Cylindrical Projection Reformat in Polytraumatized Patients for Rib Fracture Detection and Characterization: Feasibility and Clinical Application // European J. Radiology. 2019. V. 110. P. 121–127.
- Jang Y.C., Lee C.W., Huang C.C. Diagnostic Accuracy for Acute Rib Fractures: A Cross-sectional Study Utilizing Automatic Rib Unfolding and 3D Volume-Rendered Reformation // Acad. Radiol. 2024. V. 31. № 4. P. 1538–1547.
- Erdemir A., Onur M.R., Idilman I. et al. Pros and Cons of Rib Unfolding Software: a Reliability and Reproducibility Study on Trauma Patients // Turkish J. Trauma and Emergency Surgery. 2023. V. 29. № 6. P. 717–723.
- Ronneberger O., Fissher P., Brox T. U-Net: Convolutional Networks for Biomedical Image Segmentation // arXiv preprint. 2015. arXiv:1505.04597.
- Chen L.C., Zhu Y. Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation // Computer Vision – ECCV. 2018. V. 11211. P. 833–851.
- Kaiming H. Deep Residual Learning for Image Recognition // arXiv preprint. 2015. arXiv:1512.03385.
- Jin L., Yang J., Kuang K. et al. Deep-Learning-Assisted Detection and Segmentation of Rib Fractures from CT Scans: Development and Validation of FracNet // EBioMedicine. 2020. V. 62. № 12. P. 103106.
- Yang J., Shi R., Jin. L. et al. Deep Rib Fracture Instance Segmentation and Classification from CT on the RibFrac Challenge // arXiv preprint. 2024. arXiv:2402.09372.
- Charles R.Q. PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metric Space // arXiv preprint. 2017. arXiv:1706.02413.
- Wang Y., Sun. Y., Liu Z. et al. Dynamic Graph CNN for Learning on Point Clouds // ACM Transactions on Graphics. 2019. V. 38. № 5. P. 146.
- Cao Z., Xu L., Chen D. et al. A Robust Shape-Aware Rib Fracture Detection and Segmentation Framework With Contrastive Learning // IEEE Transactions on Multimedia. 2023. V. 1. P. 1–8.
- Wu M., Chai Z., Qian G. et al. Development and Evaluation of a Deep Learning Algorithm for Rib Segmentation and Fracture Detection from Multicenter Chest CT Images // Radiology: Artificial Intelligence. 2021. V. 3. № 9. P.e200248.
- Isensee F., Wald T., Ulrich C. et al. nnU-Net Revisited: A Call for Rigorous Validation in 3D Medical Image Segmentation // arXiv preprint. 2024. arXiv:2404.09556.
- Cardoso M.J., Li W., Brown R. et al. MONAI: An Open-source Framework for Deep Learning in Healthcare // arXiv preprint. 2022. arXiv:2211.02701.
- Hatamizadeh A., Nath V., Tang Y. et al. Swin UNETR: Swin Transformers for Semantic Segmentation of Brain Tumors in MRI Images // arXiv preprint. 2022. arXiv:2201.01266.
- Myronenko A. 3D MRI Brain Tumor Segmentation Using Autoencoder Regularization // arXiv preprint. 2018. arXiv:1810.11654.
- Huang Z., Wang H., Deng Z. et al. STU-Net: Scalable and Transferable Medical Image Segmentation Models Empowered by Large-Scale Supervised Pre-training // arXiv preprint. 2023. arXiv:2304.06716.
- D’Antonoli T.A., Berger L.K., Indrakanti A.K. et al. TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR Images // arXiv preprint. 2024. arXiv:2405.19492.
- Jin L., Yang J., Kuang K. et al. Deep-Learning-Assisted Detection and Segmentation of Rib Fractures from CT Scans: Development and Validation of FracNet // EBioMedicine. 2020. V. 62. № 12. P. 103106.
- Yang J., Shi R., Jin L. et al. Deep Rib Fracture Instance Segmentation and Classification from CT on the RibFrac Challenge // arXiv preprint. 2024. arXiv:2402.09372.
- Jin L., Gu S., Wei D. et al. RibSeg v2: A Large-scale Benchmark for Rib Labeling and Anatomical Centerline Extraction // IEEE Transactions on Medical Imaging (TMI). 2024. V. 43. № 1. P. 570–581.
- Yang J., Gu S., Wei D. et al. RibSeg Dataset and Strong Point Cloud Baselines for Rib Segmentation from CT Scans // Intern. Conf. on Medical Image Computing and Computer-Assisted Intervention (MICCAI). Strasbourg, 2021. P. 611–621.
- Li C., Zia M.Z., Tran Q.H. et al. Deep Supervision with Intermediate Concepts // arXiv preprint. 2018. arXiv:1801.03399.
- He Z., Nath V., Yang D. et al. SwinUNETR-V2: Stronger Swin Transformers withВ Stagewise Convolutions forВ 3D Medical Image Segmentation // Medical Image Computing and Computer Assisted Intervention (MICCAI). Vancouver, 2023. P. 416–426.
- Drozdzal M., Vorontsov E., Chartrand G. et al. The Importance of Skip Connections in Biomedical Image Segmentation // arXiv preprint. 2016. arXiv:1608.04117.
- Redmon J., Divvala S., Girshick R. et al. You Only Look Once: Unified, Real-Time Object Detection // IEEE Conf. on Computer Vision and Pattern Recognition (CVPR). Las Vegas, 2016. P. 779–788.
- Tian Z., Shen C., Chen H. et al. FCOS: Fully Convolutional One-Stage Object Detection // IEEE/CVF Intern. Conf. on Computer Vision (ICCV). Seoul, 2019. P. 9626–9635.
- Zhang S., Chi C., Yao Y. et al. Bridging the Gap Between Anchor-based and Anchor-free Detection via Adaptive Training Sample Selection // IEEE/CVF Conf. on Computer Vision and Pattern Recognition (CVPR). Seattle, 2020. P. 9756–9765.
- Lin T.Y., Goyal P., Girshick R. et al. Focal Loss for Dense Object Detection // IEEE Intern. Conf. on Computer Vision (ICCV). Venice, 2017. P. 2999–3007.
- Tan M., Pang R., Quoc V.L. EfficientDet: Scalable and Efficient Object Detection // IEEE/CVF Conf. on Computer Vision and Pattern Recognition (CVPR). Seattle, 2020. P. 10778–10787.
- Hu J., Shen L., Albanie S. et al. Squeeze-and-Excitation Networks // IEEE/CVF Conf. on Computer Vision and Pattern Recognition. Salt Lake City, 2018. P. 7132–7141.
- Xie S., Girshick R., Dollar P. et al. Aggregated Residual Transformations for Deep Neural Networks // IEEE Conf. on Computer Vision and Pattern Recognition (CVPR). Honolulu, 2017. P. 5987–5995.
- Wang J., Sun K., Cheng T. et al. Deep High-Resolution Representation Learning for Visual Recognition // arXiv preprint. 2019. arXiv: 1908.07919.
- Tan M., Le Q.V. EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks // arXiv preprint. 2019. arXiv: 1905.11946.
- Lin T.Y., Dollar P., Girshick R.B. et al. Feature Pyramid Networks for Object Detection // IEEE Conf. on Computer Vision and Pattern Recognition (CVPR). Honolulu, 2017. P. 936–944.
- Liu S., Johns E., Davison A.J. End-To-End Multi-Task Learning With Attention // IEEE/CVF Conf. on Computer Vision and Pattern Recognition (CVPR). Long Beach, 2019. P. 1871–1880.
- Zhou Z., Siddiquee M., Tajbakhsh N. et al. UNet++: A Nested U-Net Architecture for Medical Image Segmentation // Deep Learning in Medical Image Analysis and Multimodal Learning for Clinical Decision Support. 2018. V. 11045. P. 3–11.
- Oktay O., Schlemper J., Folgoc L.L. et al. Attention U-Net: Learning Where to Look for the Pancreas // arXiv preprint. 2018. arXiv: 1804.03999.
- Ioffe S., Szegedy C. Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift // arXiv preprint. 2015. arXiv: 1502.03167.
- Fu C.Y., Shvets M., Berg A.C. RetinaMask: Learning to Predict Masks Improves State-of-the-art Single-Shot Detection for Free // arXiv preprint. 2019. arXiv: 1901.03353.
- Sudre C.H., Li W., Vercauteren T. et al. Generalised Dice Overlap as a Deep Learning Loss Function for Highly Unbalanced Segmentations // Lecture Notes in Computer Science. 2017. V. 2017. P. 240–248.
- Wang C., MacGillivray T., Macnaught G. et al. A Two-stage 3D Unet Framework for Multi-class Segmentation on Full Resolution Image // arXiv preprint. 2018. arXiv: 1804.04314.
- Jeon U., Kim H., Hong H., Wang J.H. Two-stage Meniscus Segmentation Framework Integrating Multiclass Localization Network and Adversarial Learning-based Segmentation Network in Knee MR Images // Medical Imaging 2021: Computer-Aided Diagnosis. 2021. V. 11597. P. 1159714.
- Jin D., Ma X., Zhang C. et al. Towards Overcoming False Positives in Visual Relationship Detection // arXiv preprint. 2020. arXiv:2012.12510.
- Shi W., Chen J., Feng F. et al. On the Theories Behind Hard Negative Sampling for Recommendation // Proc. ACM Web Conf. Austin, 2023. P. 812–822.
- Baumgartner M., Jaeger P.F., Isensee F. et al. NnDetection: A Self-configuring Method for Medical Object Detection // Lecture Notes in Computer Science. 2021. V. 12905. P. 530–539.
Дополнительные файлы
