论文部分内容阅读
精确放疗需要CT/MRI/PET等多模态影像技术引导高能射线能量(剂量)最大限度地汇聚于肿瘤区域内,从而最大限度地保护肿瘤周围正常组织器官(危及器官),达到提高肿瘤控制率、降低放疗相关毒副作用、延长病人生存时间、提高生活质量的目的。肿瘤放疗包括图像获取、图像融合、放疗靶区和危及器官勾画、放疗计划设计、优化、验证和实施等过程,其中肿瘤放疗靶区、或大体肿瘤区(Gross tumor volume,GTV)和危及器官(Organs-at-r isk,OARs)的高精度勾画是成功实施精确放疗的前提和关键技术。CT、MRI与PET图像的融合可为临床放疗提供互补的肿瘤和危及器官解剖结构和功能信息,提高靶区和危及器官勾画的精度。目前,临床放疗医生通常在单一影像的二维横断面上参考其它影像,逐层手动勾画肿瘤靶区和危及器官。手动勾画不仅耗时费力,而且其结果依赖于医生的临床知识和经验,且不同医生勾画的结果缺乏一致性,而自动勾画的精度还达不到临床放疗要求。针对这些现状,我们深入展开了肿瘤放疗危及器官和靶区智能勾画与图像融合方法研究,取得了如下研究成果:(1)医学图像分析深度学习方法综述深度学习,特别是深度卷积神经网络(Convo lutiona l neura l networks,CNN),能够从医学图像大数据中自动学习提取隐含的疾病诊断特征,近几年已迅速成为医学图像分析研究热点。综述首先简述医学图像分析特点;其次,论述深度学习基本原理,总结深度CNN图像在医学图像分析中分类、分割框架;然后,分别论述深度学习在医学图像分类、检测、分割等各应用领域的国内外研究现状;最后,探讨归纳医学图像分析深度学习方法挑战及其主要应对策略和开放的研究方向。(2)头颈部肿瘤放疗危及器官自动勾画为了尽量减少头颈癌放射治疗后的并发症,降低辐射引起的继发性恶性肿瘤风险,脑干、下颌骨、腮腺、颌下腺、视神经和视交叉等危及器官必须准确勾画。为提高微小器官的勾画精度,提出基于3D深度残差全卷积网络的头颈部肿瘤放疗危及器官自动分割方法。它通过改进的V-Net网络分割模型,有效地结合危及器官CT影像的深层特征和浅层特征,同时通过特别设计的端到端监督学习确定危及器官分割模型参数。为了解决微小器官类分布极不平衡问题,提出利用器官位置先验约束采样区域与随机采样相结合的训练样本选择策略,同时采用Dice损失函数对网络进行训练。本方法在2015年MICCAI头颈自动分割挑战赛数据集PDDCA上验证,各器官分割的Dice系数平均值分别为:下颌骨0.945、左腮腺0.884、右腮腺0.882、脑干0.863、左颌下腺0.825、右颌下腺0.842、左视神经0.807、右视神经0.847、视交叉0.583。大多数器官的95%Hausdorff距离小于3 mm,所有器官的勾画平均距离均小于1.2 mm。(3)胸部肿瘤放疗危及器官自动勾画针对肺癌、乳腺癌、食道癌等胸部肿瘤放射治疗计划中细长危及器官自动勾画精度不能满足临床要求的问题,提出结合器官相对位置解剖先验知识和深度扩张卷积神经网络分步勾画左肺、右肺、心脏、脊髓和食道的方法。首先,构建一个有效勾画双肺的深度扩张残差全卷积网络。然后,利用相对于双肺的解剖位置先验知识,分别构建勾画心脏、脊髓和食道的深度扩张残差全卷积网络,可有效提高食道和脊髓等细长器官勾画的精度。采用美国医学物理学家协会AAPM发起的2017年胸部器官自动分割挑战赛数据集LCTSC作为基准数据集进行训练、验证和测试,实验结果表明,左肺、右肺、心脏、脊髓和食道的Dice均值分别为0.966、0.969、0.930、0.900和0.774,提高了脊髓和食道的自动分割精度。进一步,以临床放疗计划中医生勾画的危及器官结果为参照标准,8例肺癌患者胸部CT影像危及器官勾画测试结果:左肺、右肺、心脏、脊髓和食道的Dice均值分别为0.950、0.964、0.869、0.862和0.772,验证了本文方法的有效性。(4)头颈部肿瘤放疗靶区智能勾画提出了联合肿瘤PET、CT多模态医学影像信息,基于深度3D卷积神经网络的肿瘤放疗靶区自动勾画方法。为了探讨网络结构设计对分割性能的影响,分别设计了双通路两尺度分析的深度全卷积神经网络2PW-FCN和融合多尺度信息的网络DeepSeg。以39例鼻咽瘤病例PET/CT图像数据及临床医生勾画的大体肿瘤区标记图像作为训练样本集,训练收敛的模型在9例鼻咽瘤病例PET/CT图像上测试,实验验证DeepSeg自动分割结果的Dice均值为0.8205,标准差为0.0745,较基于2PW-FCN方法均值提高了0.0612。(5)多模态医学图像融合高精度自适应智能调强放疗计划不仅需要高空间分辨率的CT和MRI成像系统提供肿瘤放疗靶区和危及器官精确的位置信息,而且需要PET成像系统提供肿瘤代谢、增殖、乏氧等生物学特性和放射敏感性(抗辐射)特性信息。根据前期研究发现边缘和纹理特征在临床诊断和靶区勾画中起重要作用,保留融合图像中的边缘和纹理特征是至关重要的。为此,我们提出了一种基于NSST变换和PCNN模型的CT/PET/MRI融合方法,利用PCNN在NSST高频方向子图中自适应捕获边缘和纹理信息,并通过PCNN神经元的点火次数表达对应像素点为边缘和细节信息的可能性,从而制定出有利于保留边缘及纹理特征的融合规则:根据局部区域能量和加权融合低频系数,结合PCNN模型甄别高频系数中边缘细节特征的方法。实验表明,本方法得到的融合结果图像有效地保持了源图像的颜色、对比度相似性以及边缘纹理信息。