分享:
分享到微信朋友圈
X
综述
多模态MRI脑肿瘤图像分割方法研究进展
孙康康 陈伟 李奇轩 孙佳伟 焦竹青 倪昕晔

Cite this article as: SUN K K, CHEN W, LI Q X, et al. Research progress of multimodal MRI brain tumor image segmentation methods[J]. Chin J Magn Reson Imaging, 2023, 14(11): 164-169, 176.本文引用格式:孙康康, 陈伟, 李奇轩, 等. 多模态MRI脑肿瘤图像分割方法研究进展[J]. 磁共振成像, 2023, 14(11): 164-169, 176. DOI:10.12015/issn.1674-8034.2023.11.028.


[摘要] MRI是一种非侵入性多模态成像方法,广泛应用于脑肿瘤检测和诊断。多模态MRI脑肿瘤图像分割对脑肿瘤的诊断和治疗具有重要意义。目前大部分分割工作还是由医生手动完成,效率低且主观性强,因此寻求一种高效准确的脑肿瘤自动分割方法对临床应用至关重要。本文就基于多模态MRI图像的脑肿瘤分割的研究进展进行综述,对比分析了传统分割方法和基于深度学习的分割方法,并对现有的脑肿瘤图像分割方法存在的问题进行总结并做出展望,以便该领域的研究者更好地了解目前多模态MRI脑肿瘤图像分割方法的研究进展。
[Abstract] MRI is a non-invasive multimodal imaging method, which is widely used in the detection and diagnosis of brain tumors. Multimodal MRI brain tumor image segmentation has important significance for the diagnosis and treatment of brain tumors. At present, most of the segmentation work is still manually completed by doctors, with low efficiency and strong subjectivity. Therefore, seeking an efficient and accurate automatic segmentation method for brain tumors is crucial for clinical applications. We reviewed the research progress of brain tumor segmentation based on multimodal MRI images, compared and analyzed traditional segmentation methods and deep learning based segmentation methods in this paper, and then summarized the problems of existing brain tumor image segmentation methods and makes prospects, so that researchers in this field could better understand the current research progress of multimodal MRI brain tumor image segmentation methods.
[关键词] 磁共振成像;脑肿瘤;多模态;图像分割;深度学习
[Keywords] magnetic resonance imaging;brain tumor;multimodal;image segmentation;deep learning

孙康康 1, 2, 3   陈伟 1, 2, 3   李奇轩 2, 3   孙佳伟 2, 3   焦竹青 1   倪昕晔 2, 3*  

1 常州大学计算机与人工智能学院, 常州 213164

2 南京医科大学附属常州第二人民医院放疗科,常州 213003

3 南京医科大学医学物理研究中心,常州 213003

通信作者:倪昕晔,E-mail:nxy@njmu.edu.cn

作者贡献声明:倪昕晔设计本研究的方案,对稿件重要的智力内容进行了修改;孙康康起草和撰写稿件,获取、分析或解释本研究的文献;陈伟、李奇轩、孙佳伟、焦竹青获取、分析或解释本研究的文献,对稿件重要的智力内容进行了修改;倪昕晔获得了江苏省重点研发计划社会发展项目、江苏省卫健委面上项目资助。全体作者都同意发表最后的修改稿,同意对本研究的所有方面负责,确保本研究的准确性和诚信。


基金项目: 江苏省重点研发计划社会发展项目 BE2022720 江苏省卫健委面上项目 M2020006
收稿日期:2023-04-26
接受日期:2023-10-23
中图分类号:R445.2  R739.41 
文献标识码:A
DOI: 10.12015/issn.1674-8034.2023.11.028
本文引用格式:孙康康, 陈伟, 李奇轩, 等. 多模态MRI脑肿瘤图像分割方法研究进展[J]. 磁共振成像, 2023, 14(11): 164-169, 176. DOI:10.12015/issn.1674-8034.2023.11.028.

0 前言

       脑肿瘤是大脑中脑细胞的异常生长,被认为是一种危及生命的疾病[1]。相关数据显示,脑肿瘤占全球所有原发性中枢神经系统肿瘤的85%以上,约占癌症相关死亡的2%~3%,对人类健康构成巨大威胁[2]。因此,脑肿瘤的早期诊断和治疗尤为重要。MRI是一种非侵入性成像技术,能清晰显示软组织病变,广泛应用于脑肿瘤疾病的诊断和治疗。利用不同的成像序列获得同一组织不同角度或形态的MRI图像通常称为多模态MRI图像[3]。不同模态的MRI图像能够反映肿瘤区域的不同信息,而仅用单一模态的MRI图像所能表达的信息量有限,因此可以利用多模态MRI图像来准确地分割病变区域[4]。用于脑肿瘤分割的常用MRI模态包括流体衰减反转恢复(fluid attenuated inversion recovery, FLAIR)、T1加权(T1-weighted, T1)、对比增强T1加权(contrast-enhanced T1-weighted, T1ce)和T2加权(T2-weighted, T2)。多种模态图像信息能够有效互补,充分细分相关区域的肿瘤,从而提高分割的准确性。从多模态MRI图像中自动准确地分割脑肿瘤是临床诊断和制订治疗方案的重要步骤,可以为定量图像分析、辅助诊断和手术计划提供依据。目前,大部分脑肿瘤分割工作还是依赖于医生人工勾画,这种手动分割方法费时费力且受个人经验影响。因此,开发一种准确、可靠的自动脑肿瘤分割方法具有重要的临床意义。

       MRI反映脑肿瘤形状、结构和位置是高度可变的,不同肿瘤的形状和纹理差异较大且一些肿瘤没有明确的边界,因此自动脑肿瘤分割是一项具有挑战性的任务[5]。为解决上述难题,研究者基于不同原理提出了大量算法,这些算法可以分为传统图像分割方法和深度学习方法两大类。传统脑肿瘤分割方法依赖于图像本身的特征提取,而基于深度学习的方法通过神经网络自动从原始数据中学习特征表示,用高精确度的算法模型生成分割图像。

       本文综述了近年来多模态MRI脑肿瘤图像分割方法的研究进展。首先简要介绍了脑肿瘤分割中常用的MRI图像。然后分别对传统图像分割方法和深度学习方法的最新研究进展进行讨论,其中重点介绍了深度学习模型在脑肿瘤分割中的应用并展示了部分方法在BraTS(brain tumor segmentation)数据集上的分割结果。最后分析了现有的基于多模态MRI图像的脑肿瘤分割方法存在的问题,并对未来的研究趋势进行了展望,为相关研究者全面、快速地了解该领域的研究现状提供参考。

1 多模态MRI脑肿瘤图像

       多模态MRI是不同成像参数下的成像序列,能从多角度保留脑部疾病的结构特征。主要包括常规MRI,如FLAIR、T1、T1ce和T2、扩散加权成像(diffusion weighted imaging, DWI)、磁敏感加权成像(susceptibility weighted imaging, SWI)、扩散张量成像(diffusion tensor imaging, DTI)、磁共振波谱成像(magnetic resonance spectroscopy, MRS)、灌注加权成像(perfusion weighted imaging, PWI)等[6],可以提供更全面的信息,有助于医生进行更准确的疾病诊断和制订治疗计划。在脑肿瘤多模态MRI中,常用的MRI序列包括FLAIR、T1、T1ce和T2。四种模态中的每一种都包含解剖信息的特定特征,不同模态的特征差异显著。图1是BraTS2020训练集中一个典型脑肿瘤影像,从左至右依次为同一患者的不同MRI模态成像结果。可以看出,T1模态有利于观察组织的解剖结构,如大脑中的灰质和白质。T2和Flair模态可以很好地捕捉到肿瘤和正常组织之间边缘明显的水肿区域,适合检测有瘤周水肿的肿瘤。而T1ce模态在识别具有高对比度的肿瘤核心和增强肿瘤方面更有效,它可以突出活跃肿瘤,清晰区分坏死区和实质区边界。不同模态的MRI图像对病变区域具有不同的表征优势,因此,与使用单模态MRI相比,使用多模态MRI进行分割有助于降低不确定性,提高分割性能[7]

图1  BraTS 2020训练集中用于脑肿瘤分割的多模态MRI示例。FLAIR:流体衰减反转恢复;T1:T1 加权;T1ce:对比增强T1加权;T2:T2加权。
Fig. 1  An example of multimodal MRI for brain tumor segmentation is chosen from the BraTS 2020 training dataset. FLAIR: fluid attenuated inversion recovery; T1: T1-weighted; T1ce: contrast-enhanced T1-weighted; T2: T2-weighted.

2 传统分割方法

       传统多模态MRI脑肿瘤图像分割方法可以分为分水岭图像分割方法、基于图论的分割法等。国内外学者就基于分水岭和图论方法对MRI脑肿瘤图像的分割做了相关研究[8, 9, 10, 11, 12, 13, 14]

2.1 分水岭分割法

       分水岭分割技术本质上是一种基于区域增长的分割方法,可以用来分割图像中不同物体的边界,这种分割技术已广泛应用于脑肿瘤分割。

       针对脑部MRI图像中因噪声、灰度不均匀及边界模糊不连续等造成肿瘤难以准确分割的问题,刘岳等[8]提出了一种基于形态学重建和梯度分层修正的分水岭分割方法,首先对原始图像进行形态学混合开闭重建以平滑去噪,然后根据梯度图像的三维地貌体积对其进行分层,多尺度修正消除产生过分割的非规则局部极小值,最后运用标准分水岭变换实现图像分割。相比标准分水岭和一些改进方法,该方法过分割率和欠分割率均较低,具有较好的分割效果。但分水岭分割方法容易受到图像中的噪声和物体表面细微的灰度变化的影响,继而产生过分割现象。针对这个问题,RAJAMANI等[9]在分水岭算法基础上提出了一种基于图谱方法的高效标记检测方法来解决过分割问题,改进的分水岭算法的Dice和Tanimoto系数的精度分别为93.13%和88.64%。为了提高肿瘤的分割和识别精度,SIVAKUMAR等[10]在常用的分水岭算法基础上使用卷积和相关形态学运算区分前景和背景,提出的改进分水岭算法提供了平均99.31%的脑肿瘤分割精度。此外,也有研究将支持向量机(support vector machine, SVM)等技术用于MRI图像分割和肿瘤检测,HATCHOLLI SEERE等[11]使用阈值和分水岭方法分割得到合适的肿瘤大小和形状后提交给SVM分类器来确定肿瘤,与其他分类器相比,SVM会给出更好的结果。基于分水岭的分割算法可以获得完整的封闭曲线,为后续处理提供轮廓信息,而分水岭算法对噪声比较敏感,容易出现过分割的情况。

2.2 基于图论的分割法

       基于图论的分割方法其本质就是移除特定的边,将图划分为若干子图从而实现分割。该方法是一种组合优化方法,即将图像分割问题转化为最优化问题。李伟等[12]提出了一种基于图论的最大流/最小切优化准则的三维脑肿瘤分割算法,结合期望最大化参数估计方法(expectation maximization, EM)来自动估计混合高斯模型的参数,实现了脑部肿瘤快速、准确且具有鲁棒性的三维分割。但是该方法还需要简单的人工交互,尚未完全实现全自动脑肿瘤分割。之后,GAMMOUDI等[13]提出了一种基于图切的MRI脑肿瘤图像分割方法,通过将输入图像分割成最优的片段数,并使用超像素方法减少图中的节点数量,结合社区检测算法获得更准确的分割,实验结果表明,该方法具有较高的分割精度。MAMATHA等[14]提出了一种基于图论的分割方法,该方法通过对极坐标图像构造加权有向图来对MRI脑图像进行分割,相比K近邻方法具有更好的分割精度。基于图论的图像分割技术涉及较多的理论知识,在脑肿瘤图像分割领域应用并不常见,因此关于这方面的文献还比较少。

       这些传统图像分割方法都取得了不错的分割效果,但也具有一定的局限性。分水岭方法会导致图像出现严重的过分割现象,传统的基于图论的分割方法计算复杂度大,容易受到噪音的影响,且分割速度慢。脑肿瘤的位置、大小和形状多变,以及不同种类脑肿瘤在MRI图像中呈现的灰度差异较大且边界模糊等因素,限制了此类图像分割算法的效果和应用。

3 深度学习分割方法

       深度学习是一种基于人工神经网络的机器学习概念[15],通过神经网络对输入数据进行特征提取,而不需要过多的人为参与[16]。近年来,随着深度学习的发展和应用领域的扩大,卷积神经网络(convolutional neural networks, CNN)等深度学习模型已广泛应用于脑肿瘤分割领域[17, 18]。与传统图像分割方法相比,基于深度学习的方法可以自动从图像中提取特征,具有更高的精度和鲁棒性。目前主流的基于深度学习的多模态MRI脑肿瘤图像分割方法可分为基于CNN的方法、基于生成对抗网络(generative adversarial networks, GAN)的方法和基于Transformer的方法。

3.1 基于CNN的分割方法

       基于CNN的脑肿瘤分割方法早期采用小尺度图像块分类的思想来进行分割网络的设计,从而将像素标签预测转换为像素所在局部图像块分类问题[19]。但是由于相邻像素块基本是重复的所以会造成一定的计算冗余且需要更大的存储空间。针对这个问题,SHELHAMER等[20]提出了全卷积网络(fully convolution network, FCN),实现了像素级别的分类。U-Net[21]网络是FCN的一种改进和扩展,由于其优异的性能,被广泛应用于医学图像分割。自从引入U-Net以来,编码器-解码器语义分割架构诸如Attention U-Net[22]、3D U-Net[23]、U-Net[24]已经在各种2D和3D医学图像分割任务上取得了巨大的成功。最近,一些研究者又做了如下工作,表1列举了基于CNN的多模态MRI脑肿瘤分割方法在BraTS系列数据集上的性能表现结果。

       受U-Net的启发,KERMI等[25]提出了一种基于2D深度神经网络(deep neural networks, DNNs)的全自动高效脑肿瘤分割方法,采用加权交叉熵损失和广义骰子损失作为损失函数来解决脑肿瘤数据中的类别不平衡问题,提高了网络的分割性能。后来NOORI等[26]利用注意力机制和多视图融合技术改进了2D U-Net架构,在脑肿瘤分割中取得更好的结果。不同模态的MRI信息对脑肿瘤分割至关重要,XUE等[27]提出了一种基于多编码器和多解码器CNN的分割方法,用于处理不同的图像模态和预测输入图像的不同子区域(多类分割),验证了多编码器-解码器结构的有效性。基于2D CNN的方法忽略了关键的3D空间上下文,一些学者开始利用3D卷积进行脑肿瘤分割。PENG等[28]提出了一种多尺度3D U-Net架构,利用多个U-Net块捕获不同分辨率的空间信息,并使用3D深度可分离卷积替代标准的3D卷积以降低计算成本。ZHOU等[29]提出了一种基于空洞卷积的3D CNN,解决了传统DNNs由于重复的跨步和池化操作导致的特征图分辨率损失问题,提高了模型对不同大小肿瘤的区分能力。基于3D CNN的方法具有更强的上下文信息感知能力,但3D模型训练起来速度慢且需要更多的内存。ZHOU等[30]提出了一种高效的3D残差神经网络用于多模态MRI脑肿瘤分割,该网络使用轻量级3D ShuffleNetV2作为编码器,具有较低的计算复杂度和内存消耗。ZHANG等[31]提出了一个跨模态深度特征学习框架,通过融合来自不同模态数据的知识来学习丰富的特征表示,以弥补医学数据规模上的不足,结果表明所提出的框架能够有效地提高多模态MRI脑肿瘤分割的性能。为了解决脑肿瘤分割中缺失模态的问题,ZHOU等[32]提出了一种新的基于特征增强生成和多模态融合的DNNs,用于缺失MRI模态的脑肿瘤分割。该方法首先通过特征增强生成器生成表示缺失模态的三维特征增强图像,然后利用基于多编码器的U-Net网络进行最终的脑肿瘤分割。为了进一步提高分割精度,TIAN等[33]在CNN中引入了轴向注意力机制来捕获更丰富的语义信息,并通过深度监督和混合损失模型处理数据类别不平衡问题,提高了分割性能。综上所述,基于CNN的分割方法能够自动提取特征和处理高维数据,但存在分割模型泛化能力不足、解释性较差等问题。

表1  基于卷积神经网络的多模态MRI脑肿瘤分割方法评估结果
Tab. 1  Evaluation results of multimodal MRI brain tumor segmentation method based on convolutional neural network

3.2 基于GAN的分割方法

       基于GAN的深度模型具有泛化性和鲁棒性,常用于脑肿瘤分割、检测、多模态合成。表2列举了基于生成对抗网络的多模态MRI脑肿瘤分割方法在BraTS系列数据集上的性能表现结果。

       REZAEI等[34]提出了一种新的3D条件生成式对抗结构voxel-GAN,用于缓解脑肿瘤语义分割中训练数据不平衡的问题。后来,CIRILLO等[35]提出了一种用于脑肿瘤分割的3D volume-to-volume GAN,称为Vox2Vox,并验证了集成多个Vox2Vox模型可以产生高质量的分割输出。另外,DING等[36]提出了一种两阶段ToStaGAN方法,其中第一阶段采用U-Net网络作为“粗”生成网络,第二阶段采用U型上下文自编码器作为“细”生成网络,通过充分利用高层次的语义信息来提高脑肿瘤的分割性能。同年,KHANH等[37]提出了一种称为3D-GAN的分割方法,该方法的新颖性集中在多尺度GAN的构建以及引入了三维脑MRI和肿瘤的可视化应用程序来提高分割的精度。同样改进了GAN网络模型的还有CUI等[38]在GAN基础上进行创新提出GAN-segNet,通过将输入数据的自编码器学习表示加入到GAN中,同时使用一个基于焦点损失概念的创新损失函数,可以准确地分割脑肿瘤,同时有效地减轻标签不平衡的影响。为了获得更好的生成和分割性能,在循环生成对抗网络(cycle-consistent GAN, cycleGAN)的基础上,ZHU等[39]提出了一种双尺度多模态感知DualMMP-GAN,用于生成高质量的新模态MRI,并提出将给定模态与生成模态相结合的方法来进行脑肿瘤分割,其分割性能优于单模态图像。AZNI等[40]使用cycleGAN从多通道MRI图像中进行特征提取,采用迁移学习技术向网络中注入有价值的特征,提高了分割的准确性。深度学习方法可以用于脑肿瘤分割任务,但通常需要难以获得且耗时的手动注释分割标签来进行训练。YOO等[41]提出一种新的基于GAN的弱监督脑肿瘤MR图像分割方法,该方法利用简单易获取的二值图像级标签,在没有真值标注的医学磁共振图像中有效地分割异常区域。

       综上所述,基于GAN的脑肿瘤分割方法能生成更接近真实标记数据的脑肿瘤医学图像,在一定程度上解决了脑肿瘤分割中训练样本不足的问题。由于GAN对训练数据的依赖性小、易于与其他神经网络结合、生成效果好等优点,近年来基于GAN的脑肿瘤分割方法得到了越来越多的应用。但GAN在训练中存在着不稳定等问题,难以收敛。

表2  基于生成对抗网络的多模态MRI脑肿瘤分割方法评估结果
Tab. 2  Evaluation results of multimodal MRI brain tumor segmentation method based on generative adversarial networks

3.3 基于Transformer的分割方法

       尽管基于CNN的分割方法具有很好的表示能力,但受限于卷积核感受野的大小,很难从全局特征空间建立一个显式的长距离依赖,这就给学习全局语义信息带来很大的挑战,而全局语义信息对于脑肿瘤分割这种密集预测任务至关重要。受到自然语言处理领域注意力机制的启发,目前许多研究将注意力机制与CNN相结合来解决这个问题。Transformer最早应用于自然语言处理领域,是一种主要基于自注意力机制的深度神经网络[42]。Transformer在建模全局上下文信息和建立长距离依赖方面有良好表现。得益于其强大的表征能力,Transformer已经逐渐应用在计算机视觉领域。其中,视觉Transformer(vision Transformer, ViT)[43]首先证明了将Transformer应用于图像处理的可行性和有效性。目前,一些研究者已经将Transformer应用于3D多模态MRI脑肿瘤分割任务,并取得了令人满意的结果。表3列举了基于Transformer的多模态MRI脑肿瘤分割方法性能表现,这些方法多以Transformer为框架。

       近年来,越来越多的研究工作倾向于将Transformer和CNN相结合,以达到网络模型既能提取全局信息又能提取局部信息的目的。WANG等[44]提出了一种新的基于编-解码结构的分割框架TransBTS,该框架将3D CNN和Transformer结合起来用于多模态脑肿瘤分割,不仅利用3D CNN捕获局部上下文信息,同时利用Transformer学习全局语义相关性,从而提升了分割精度。为了设计一种更有效的脑肿瘤分割模型,LI等[45]提出了一种混合CNN-Transformer体系结构TransBTSV2。与TransBTS[44]不同,TransBTSV2在跳跃连接部分引入可变形卷积来捕获形状感知的局部细节,从而改进了模型分割。为了降低Transformer的计算复杂度,LIU[46]等提出了Swin Transformer,它利用基于窗口的自注意力来减少参数和计算,并使用移位窗口机制来实现全局依赖建模。之后,HATAMIZADEH等[47]提出了U-NETR,其采用纯Transformers作为编码器来学习输入的序列表示,并有效地捕获全局多尺度信息,从而获得了更好的分割精度。LIANG等[48]也提出了一种高效的基于Transformer的U-Net,称为3D PSwinBTS,通过基于3D并行移位窗口的Transformer模块提取远程上下文信息,并在编码器中引入语义先验,以实现高效的语义建模。比较典型的还有JIANG等[49]提出了一种新的3D医学图像分割方法SwinBTS,该方法使用3D Swin Transformer作为编码器来提取上下文信息,并使用改进的Transformer模块来增强细节特征提取能力,从而使得模型对图像中占比较小的类别(如增强肿瘤)也具有较强的分割能力。LIANG等[50]提出了一种基于Swin Transformer的三维U型对称脑肿瘤分割网络BTSwin-U-Net,该网络使用自监督学习框架来解决训练数据较少的问题。多模态MRI图像的联合利用实际上是多模态图像分割任务的关键问题。然而,现有的脑肿瘤分割方法大多采用早期融合策略,将多模态图像连接起来作为网络输入,导致很难探索不同模态之间的非线性关系。为了缓解这个问题,XING等[51]提出了一种新的嵌套模态感知Transformer,称为NestedFormer,用于有效和鲁棒性的多模态脑肿瘤分割。该方法利用嵌套Transformer建立用于脑肿瘤分割的多模态MRI模态内和跨模态间的长距离依赖关系,从而获得更有效的特征表示。针对在临床实践中,并不总是能够获得一套完整的MRI,缺失模态的问题导致现有多模态分割方法的性能严重下降。为了解决上述问题,YANG等[52]提出了一种具有MD-Stage和TD-Stage的双重解纠缠网络D2-Net,该网络旨在捕获模态和肿瘤区域之间的相关性,用于缺失模态的脑肿瘤分割。

       综上所述,基于Transformer的分割方法可以处理长距离依赖性和全局上下文信息,但Transformer模型复杂的计算和巨大的训练成本是将其应用于脑肿瘤图像分割的主要挑战。结合ViT的脑肿瘤图像分割方法已经取得了非常先进的效果,未来对ViT的改进将继续获得更好的分割网络。

       目前,在脑肿瘤分割中,深度学习算法可以通过在足够大的数据集上进行训练来学习分割MRI图像。与传统的分割方法相比,基于深度学习的多模态MRI脑肿瘤分割方法能够直接从数据中学习复杂的特征表示,预处理步骤更少,具有效率高、结果更准确、泛化能力强等优点。然而,MRI图像中可能存在伪影和噪声,导致脑肿瘤边界模糊、对比度低,从而影响分割的精度。此外,深度学习方法需要大量人工标记的数据来训练模型,但医学图像数据往往难以获取且规模相对较小,这也带来了一定的困难。

表3  基于Transformer的多模态MRI脑肿瘤分割方法评估结果
Tab. 3  Evaluation results of multimodal MRI brain tumor segmentation method based on Transformer

4 总结与展望

       本文主要从传统分割方法和深度学习分割方法对近年来多模态MRI脑肿瘤图像分割方法进行了梳理。通过对比分析,无论是哪一类方法都可以解决分割中的一些问题,相比于更早的研究有明显的改进,例如分割准确率更高、处理速度更快等。然而,在泛化能力方面存在不足。传统的脑肿瘤分割方法大多简单易行,但难以处理复杂图像,分割精度普遍较低。基于深度学习的图像分割方法可以从脑肿瘤图像中提取高层次的语义特征和全局特征,但其可解释性较差。深度学习技术的应用推动了脑肿瘤分割研究的进展,尽管有所突破,但仍有挑战有待解决,需要进一步研究探索。

       通过对现有分割方法的研究和总结,从以下几点分析存在的问题并展望未来的研究方向:(1)目前脑肿瘤MR图像分割方法通常需要大规模的标注数据来训练模型,而这些数据的收集成本很高。因此,采用自动编码器等无监督模型,以及通过少量标签的弱监督学习来准确分割脑肿瘤MR图像将成为一个热点研究方向。(2)深度学习的脑肿瘤分割方法目前仍然缺乏可解释性和透明性,尽管基于深度学习的方法在脑肿瘤分割领域表现突出,但临床医生难以直接理解模型的决策过程,从而不能与其临床判断进行比对,创造更有价值的临床脑肿瘤图像分割网络,这导致现有的基于深度学习的脑肿瘤分割方法还未真正实现临床应用。因此,提高深度学习模型在脑肿瘤分割中的可解释性是一个重要的研究方向。(3)由于脑肿瘤背景在MR图像中所占比例太大,而肿瘤区域所占比例太小,在分割过程中很难准确有效地定位,所以如何解决类不平衡问题仍需要研究者不断探索。(4)随着深度学习技术的发展,越来越多的研究成功地将基于神经网络的模型应用到脑肿瘤分割任务中,从流行的CNN到最近的Transformer。深度神经网络虽然很大程度上提升了脑肿瘤分割精度,但网络复杂度也随之增加,无法实时分割,如何使用Transformer构建轻量化分割网络实现脑肿瘤的高精度分割,从而实现脑肿瘤分割方法的临床应用将会是未来研究的重点。

       尽管脑肿瘤分割面临较多挑战,但随着深度学习技术的不断进步,以及脑肿瘤影像质量的提升,相信在不远的将来,目前脑肿瘤分割方法的局限性与不足会逐一解决,从而促进其在临床实践中的应用。

[1]
GUPTA V, BIBHU V. Deep residual network based brain tumor segmentation and detection with MRI using improved invasive bat algorithm[J]. Multimed Tools Appl, 2023, 82(8): 12445-12467. DOI: 10.1007/s11042-022-13769-0.
[2]
ADEL FAHMIDEH M, SCHRAW J M, CHINTAGUMPALA M, et al. Neighborhood socioeconomic deprivation and mortality in children with central nervous system tumors[J]. Cancer Epidemiol Biomarkers Prev, 2021, 30(12): 2278-2285. DOI: 10.1158/1055-9965.EPI-21-0368.
[3]
LIU L, KUANG L, JI Y F. Multimodal MRI brain tumor image segmentation using sparse subspace clustering algorithm[J/OL]. Comput Math Methods Med, 2020, 2020: 8620403 [2023-04-25]. https://pubmed.ncbi.nlm.nih.gov/32714431/. DOI: 10.1155/2020/8620403.
[4]
ZHU Z Q, HE X Y, QI G Q, et al. Brain tumor segmentation based on the fusion of deep semantics and edge information in multimodal MRI[J/OL]. Inf Fusion, 2023, 91: 376-387 [2023-04-25]. https://www.sciencedirect.com/science/article/abs/pii/S1566253522001981?via%3Dihub. DOI: 10.1016/j.inffus.2022.10.022.
[5]
张恒, 张赛, 孙佳伟, 等. 深度学习脑肿瘤MRI图像分类研究进展[J]. 磁共振成像, 2023, 14(1): 166-171, 193. DOI: 10.12015/issn.1674-8034.2023.01.031.
ZHANG H, ZHANG S, SUN J W, et al. Research progress of deep learning brain tumor MRI image classification[J]. Chin J Magn Reson Imag, 2023, 14(1): 166-171, 193. DOI: 10.12015/issn.1674-8034.2023.01.031.
[6]
SCOLA E, DEL VECCHIO G, BUSTO G, et al. Conventional and advanced magnetic resonance imaging assessment of non-enhancing peritumoral area in brain tumor[J/OL]. Cancers, 2023, 15(11): 2992 [2023-04-25]. https://pubmed.ncbi.nlm.nih.gov/37296953/. DOI: 10.3390/cancers15112992.
[7]
ZHOU R W, HU S J, MA B X, et al. Automatic segmentation of MRI of brain tumor using deep convolutional network[J/OL]. Biomed Res Int, 2022, 2022: 4247631 [2023-04-25]. https://pubmed.ncbi.nlm.nih.gov/35757482/. DOI: 10.1155/2022/4247631.
[8]
刘岳, 王小鹏, 王金全, 等. 基于形态学重建和梯度分层修正的分水岭脑肿瘤分割[J]. 计算机应用研究, 2015, 32(8): 2487-2491. DOI: 10.3969/j.issn.1001-3695.2015.08.060.
LIU Y, WANG X P, WANG J Q, et al. Watershed algorithm for brain tumor segmentation based on morphological reconstruction and gradient layered modification[J]. Appl Res Comput, 2015, 32(8): 2487-2491. DOI: 10.3969/j.issn.1001-3695.2015.08.060.
[9]
RAJAMANI K ,BENSON C C, DEEPA V, et al. Brain tumor segmentation from MR brain images using improved fuzzy c-means clustering and watershed algorithm[C]//2016 International Conference on Advances in Computing, Communications and Informatics (ICACCI). September 21-24, 2016, Jaipur, India. IEEE, 2016: 187-192. DOI: 10.1109/ICACCI.2016.7732045.
[10]
SIVAKUMAR V, JANAKIRAMAN N. A novel method for segmenting brain tumor using modified watershed algorithm in MRI image with FPGA[J/OL]. Biosystems, 2020, 198: 104226 [2023-04-25]. https://pubmed.ncbi.nlm.nih.gov/32861800/. DOI: 10.1016/j.biosystems.2020.104226.
[11]
HATCHOLLI SEERE S K, KARIBASAPPA K. Threshold segmentation and watershed segmentation algorithm for brain tumor detection using support vector machine[J]. Eur J Eng Technol Res, 2020, 5(4): 516-519. DOI: 10.24018/ejeng.2020.5.4.1902.
[12]
李伟, 陈武凡. 基于图论的交互式脑部肿瘤MRI自动三维分割[J]. 南方医科大学学报, 2009, 29(1): 140-143. DOI: 10.3321/j.issn:1673-4254.2009.01.024.
LI W, CHEN W F. Graph-based interactive three-dimensional segmentation of magnetic resonance images of brain tumors[J]. J South Med Univ, 2009, 29(1): 140-143. DOI: 10.3321/j.issn:1673-4254.2009.01.024.
[13]
GAMMOUDI I, MAHJOUB M ALI. Brain tumor segmentation using community detection algorithm[C]//2021 International Conference on Cyberworlds (CW). September 28-30, 2021, Caen, France. IEEE, 2021: 57-63. DOI: 10.1109/CW52790.2021.00016.
[14]
MAMATHA S K, KRISHNAPPA H K, SHALINI N. Graph theory based segmentation of magnetic resonance images for brain tumor detection[J]. Pattern Recognit Image Anal, 2022, 32(1): 153-161. DOI: 10.1134/S1054661821040167.
[15]
JANIESCH C, ZSCHECH P, HEINRICH K. Machine learning and deep learning[J]. Electron Markets, 2021, 31(3): 685-695. DOI: 10.1007/s12525-021-00475-2.
[16]
孔令军, 王茜雯, 包云超, 等. 基于深度学习的医疗图像分割综述[J]. 无线电通信技术, 2021, 47(2): 121-130. DOI: 10.3969/j.issn.1003-3114.2021.02.001.
KONG L J, WANG Q W, BAO Y C, et al. A survey on medical image segmentation based on deep learning[J]. Radio Commun Technol, 2021, 47(2): 121-130. DOI: 10.3969/j.issn.1003-3114.2021.02.001.
[17]
MAGADZA T, VIRIRI S. Deep learning for brain tumor segmentation: a survey of state-of-the-art[J/OL]. J Imaging, 2021, 7(2): 19 [2023-04-25]. https://pubmed.ncbi.nlm.nih.gov/34460618/. DOI: 10.3390/jimaging7020019.
[18]
LIU Z H, TONG L, CHEN L, et al. Deep learning based brain tumor segmentation: a survey[J]. Complex Intell Syst, 2023, 9(1): 1001-1026. DOI: 10.1007/s40747-022-00815-5.
[19]
江宗康, 吕晓钢, 张建新, 等. MRI脑肿瘤图像分割的深度学习方法综述[J]. 中国图象图形学报, 2020, 25(2): 215-228.
JIANG Z K, LYU X G, ZHANG J X, et al. Review of deep learning methods for MRI brain tumor image segmentation[J]. J Image Graph, 2020, 25(2): 215-228.
[20]
SHELHAMER E, LONG J, DARRELL T. Fully convolutional networks for semantic segmentation[J]. IEEE Trans Pattern Anal Mach Intell, 2017, 39(4): 640-651. DOI: 10.1109/TPAMI.2016.2572683.
[21]
RONNEBERGER O. Invited talk: U-net convolutional networks for biomedical image segmentation[C]//Bildverarbeitung für die Medizin 2017. Berlin, Heidelberg: Springer Vieweg, 2017: 3-3. DOI: 10.1007/978-3-662-54345-0_3.
[22]
OKTAY O, SCHLEMPER J, LE FOLGOC L, et al. Attention U-net: learning where to look for the pancreas[EB/OL]. 2018: arXiv: 1804.03999. https://arxiv.org/abs/1804.03999.pdf
[23]
ÇIÇEK Ö, ABDULKADIR A, LIENKAMP S S, et al. 3D U-net: learning dense volumetric segmentation from sparse annotation[C]//Medical Image Computing and Computer-Assisted Intervention-MICCAI 2016: 19th International Conference, Athens, Greece, October 17-21, 2016, Proceedings, Part Ⅱ. New York: ACM, 2016: 424-432. DOI: 10.1007/978-3-319-46723-8_49.
[24]
MILLETARI F, NAVAB N, AHMADI S A. V-net: fully convolutional neural networks for volumetric medical image segmentation[C]//2016 Fourth International Conference on 3D Vision (3DV). October 25-28, 2016, Stanford, CA, USA. IEEE, 2016: 565-571. DOI: 10.1109/3DV.2016.79.
[25]
KERMI A, MAHMOUDI I, KHADIR M T. Deep convolutional neural networks using U-net for automatic brain tumor segmentation in multimodal MRI volumes[C]//CRIMI A, BAKAS S, KUIJF H, et al. International MICCAI Brainlesion Workshop. Cham: Springer, 2019: 37-48. DOI: 10.1007/978-3-030-11726-9_4.
[26]
NOORI M, BAHRI A, MOHAMMADI K. Attention-guided version of 2D UNet for automatic brain tumor segmentation[C]//2019 9th International Conference on Computer and Knowledge Engineering (ICCKE). October 24-25, 2019, Mashhad, Iran. IEEE, 2020: 269-275. DOI: 10.1109/ICCKE48569.2019.8964956.
[27]
XUE Y Z, XIE M Y, FARHAT F G, et al. A multi-path decoder network for brain tumor segmentation[M]//Brainlesion: Glioma, Multiple Sclerosis, Stroke and Traumatic Brain Injuries. Cham: Springer International Publishing, 2020: 255-265. DOI: 10.1007/978-3-030-46643-5_25.
[28]
PENG S T, CHEN W, SUN J W, et al. Multi-Scale 3D U-Nets: an approach to automatic segmentation of brain tumor[J]. Int J Imaging Syst Tech, 2020, 30(1): 5-17. DOI: 10.1002/ima.22368.
[29]
ZHOU Z X, HE Z S, JIA Y Y. AFPNet: A 3D fully convolutional neural network with atrous-convolution feature pyramid for brain tumor segmentation via MRI images[J/OL]. Neurocomputing, 2020, 402: 235-244 [2023-04-25]. https://www.sciencedirect.com/science/article/abs/pii/S0925231220304847?via%3Dihub. DOI: 10.1016/j.neucom.2020.|03.097.
[30]
ZHOU X Y, LI X Y, HU K, et al. ERV-Net: an efficient 3D residual neural network for brain tumor segmentation[J/OL]. Expert Syst Appl, 2021, 170: 114566 [2023-04-25]. https://www.sciencedirect.com/science/article/abs/pii/S0957417421000075?via%3Dihub. DOI: 10.1016/j.eswa.2021.114566.
[31]
ZHANG D W, HUANG G H, ZHANG Q A, et al. Cross-modality deep feature learning for brain tumor segmentation[J/OL]. Pattern Recognit, 2021, 110: 107562 [2023-04-25]. https://www.sciencedirect.com/science/article/abs/pii/S0031320320303654?via%3Dihub. DOI: 10.1016/j.patcog.2020.107562.
[32]
ZHOU T X, CANU S, VERA P, et al. Feature-enhanced generation and multi-modality fusion based deep neural network for brain tumor segmentation with missing MR modalities[J/OL]. Neurocomputing, 2021, 466: 102-112 [2023-04-25]. https://www.sciencedirect.com/science/article/abs/pii/S0925231221013904?via%3Dihub. DOI: 10.1016/j.neucom.2021.09.032.
[33]
TIAN W W, LI D W, LV M Y, et al. Axial attention convolutional neural network for brain tumor segmentation with multi-modality MRI scans[J/OL]. Brain Sci, 2022, 13(1): 12 [2023-04-25]. https://pubmed.ncbi.nlm.nih.gov/36671994/. DOI: 10.3390/brainsci13010012.
[34]
REZAEI M, YANG H J, MEINEL C. Voxel-GAN: adversarial framework for learning imbalanced brain tumor segmentation[M]//Brainlesion: Glioma, Multiple Sclerosis, Stroke and Traumatic Brain Injuries. Cham: Springer International Publishing, 2019: 321-333. DOI: 10.1007/978-3-030-11726-9_29.
[35]
CIRILLO M D, ABRAMIAN D, EKLUND A. Vox2Vox: 3D-GAN for brain tumour segmentation[M]//Brainlesion: Glioma, Multiple Sclerosis, Stroke and Traumatic Brain Injuries. Cham: Springer International Publishing, 2021: 274-284. DOI: 10.1007/978-3-030-72084-1_25.
[36]
DING Y, ZHANG C, CAO M S, et al. ToStaGAN: an end-to-end two-stage generative adversarial network for brain tumor segmentation[J]. Neurocomputing, 2021, 462: 141-153. DOI: 10.1016/j.neucom.2021.07.066.
[37]
KHANH PHUNG L, VAN NGUYEN S, DUY LE T, et al. A research for segmentation of brain tumors based on GAN model[C]//NGUYEN NT, TRAN TK, TUKAYEV U, et al. Asian Conference on Intelligent Information and Database Systems. Cham: Springer, 2022: 369-38. DOI: 10.1007/978-3-031-21967-2_30.
[38]
CUI S G, WEI M J, LIU C, et al. GAN-segNet: a deep generative adversarial segmentation network for brain tumor semantic segmentation[J]. Int J Imaging Syst Tech, 2022, 32(3): 857-868. DOI: 10.1002/ima.22677.
[39]
ZHU L, HE Q, HUANG Y, et al. DualMMP-GAN: dual-scale multi-modality perceptual generative adversarial network for medical image segmentation[J/OL]. Comput Biol Med, 2022, 144: 105387 [2023-04-25]. https://pubmed.ncbi.nlm.nih.gov/35305502/. DOI: 10.1016/j.compbiomed.2022.105387.
[40]
AZNI H M, AFSHARCHI M, ALLAHVERDI A. Improving brain tumor segmentation performance using CycleGAN based feature extraction[J]. Multimed Tools Appl, 2023, 82(12): 18039-18058. DOI: 10.1007/s11042-022-14174-3.
[41]
YOO J J, NAMDAR K, WAGNER M W, et al. A novel GAN-based paradigm for weakly supervised brain tumor segmentation of MR images[EB/OL]. 2022: arXiv: 2211.05269. https://arxiv.org/abs/2211.05269.pdf.
[42]
HAN K, WANG Y H, CHEN H T, et al. A survey on vision transformer[J]. IEEE Trans Pattern Anal Mach Intell, 2023, 45(1): 87-110. DOI: 10.1109/TPAMI.2022.3152247.
[43]
DOSOVITSKIY A, BEYER L, KOLESNIKOV A, et al. An image is worth 16x16 words: transformers for image recognition at scale[EB/OL]. 2020: arXiv: 2010.11929. https://arxiv.org/abs/2010.11929.pdf
[44]
WANG W X, CHEN C, DING M, et al. TransBTS: multimodal brain tumor segmentation using transformer[M]//Medical Image Computing and Computer Assisted Intervention-MICCAI 2021. Cham: Springer International Publishing, 2021: 109-119. DOI: 10.1007/978-3-030-87193-2_11.
[45]
LI J Y, WANG W X, CHEN C, et al. TransBTSV2: towards better and more efficient volumetric segmentation of medical images[EB/OL]. 2022: arXiv: 2201.12785. https://arxiv.org/abs/2201.12785.pdf
[46]
LIU Z, LIN Y T, CAO Y, et al. Swin transformer: hierarchical vision transformer using shifted windows[C]//2021 IEEE/CVF International Conference on Computer Vision (ICCV). October 10-17, 2021, Montreal, QC, Canada. IEEE, 2022: 9992-10002. DOI: 10.1109/ICCV48922.2021.00986.
[47]
HATAMIZADEH A, TANG Y C, NATH V, et al. UNETR: transformers for 3D medical image segmentation[C]//2022 IEEE/CVF Winter Conference on Applications of Computer Vision (WACV). January 3-8, 2022, Waikoloa, HI, USA. IEEE, 2022: 1748-1758. DOI: 10.1109/WACV51458.2022.00181.
[48]
LIANG J J, YANG C H, ZENG L G. 3D PSwinBTS: an efficient transformer-based Unet using 3D parallel shifted windows for brain tumor segmentation[J/OL]. Digit Signal Process, 2022, 131: 103784 [2023-04-25]. https://www.sciencedirect.com/science/article/abs/pii/S1051200422004018?via%3Dihub. DOI: 10.1016/j.dsp.2022.103784.
[49]
JIANG Y, ZHANG Y, LIN X, et al. SwinBTS: a method for 3D multimodal brain tumor segmentation using swin transformer[J/OL]. Brain Sci, 2022, 12(6): 797 [2023-04-25]. https://pubmed.ncbi.nlm.nih.gov/35741682/. DOI: 10.3390/brainsci12060797.
[50]
LIANG J J, YANG C H, ZHONG J T, et al. BTSwin-unet: 3D U-shaped symmetrical swin transformer-based network for brain tumor segmentation with self-supervised pre-training[J]. Neural Process Lett, 2023, 55(4): 3695-3713. DOI: 10.1007/s11063-022-10919-1.
[51]
XING Z H, YU L Q, WAN L, et al. NestedFormer: nested modality-aware transformer for brain tumor segmentation[C]//WANG L, DOU Q, FLETCHER PT, et al. International Conference on Medical Image Computing and Computer-Assisted Intervention. Cham: Springer, 2022: 140-150. DOI: 10.1007/978-3-031-16443-9_14.
[52]
YANG Q S, GUO X Q, CHEN Z, et al. D2-net: dual disentanglement network for brain tumor segmentation with missing modalities[J]. IEEE Trans Med Imaging, 2022, 41(10): 2953-2964. DOI: 10.1109/TMI.2022.3175478.

上一篇 多模态MRI在探究益生菌制剂改善2型糖尿病患者认知障碍机制中的研究进展
下一篇 肿瘤治疗相关神经系统并发症的MRI特征
  
诚聘英才 | 广告合作 | 免责声明 | 版权声明
联系电话:010-67113815
京ICP备19028836号-2