网站首页  词典首页

请输入您要查询的论文:

 

标题 基于深度学习算法的脑肿瘤CT图像特征分割技术改进
范文 崔仲远 黄伟


摘 要: 针对基于数学形态的脑肿瘤CT图像特征分割技术存在准确率低、分割效果不明确的弊端,提出基于深度学习算法的脑肿瘤CT图像特征分割技术。将可视人体数据集CVH?2作为研究对象,对数据集中的图像实施预处理,对图像四个模态实施卷积分别获取不同模态彼此的差异信息,归一化获取脑肿瘤CT图像多模态3D?CNNs特征。对基于SAE深度学习算法的脑肿瘤CT图像特征分割模型实施二级训练,将脑肿瘤CT图像多模态3D?CNNs特征经过处理后获取的S,V通道数据输入模型实施训练,在第二级训练的过程中把第一级SAE训练得到的权重作为二级训练的原始权重,将一级训练中错误分割的组织结构和沟回作为二次训练的数据集,获取脑肿瘤CT图像特征的准确分割结果。实验结果表明,所提方法在脑肿瘤CT图像特征分割准确率和效率方面具有显著优势。
关键词: 深度学习算法; 脑肿瘤CT图像; 特征分割技术; 多模态3D?CNN; SAE结构; 数据集
中图分类号: TN911.73?34; R739.41 文献标识码: A 文章编号: 1004?373X(2018)16?0092?04
Abstract: In allusion to the disadvantages of low accuracy rate and unobvious segmentation effect of the brain tumor CT image feature segmentation technology based on mathematical morphology, a brain tumor CT image feature segmentation technology based on in?depth learning algorithm is proposed. By taking the visual human body data set CVH?2 as the research object, the preprocessing of the images in data set is performed. The convolution is performed for the four modes of images, so as to obtain the differentiated information of different modes respectively, and obtain the multimodal 3D?CNNs features of brain tumor CT images in normalization. The second?level training is conducted for the feature segmentation model of brain tumor CT images based on the SAE in?depth learning algorithm. The S and V channel data obtained after the processing of the multimodal 3D?CNNs features of brain tumor CT images is input into the model for training. During the process of the second?level training, the weight obtained from the first?level SAE training is taken as the original weight of the second?level training, and the organizational structures and sulci wrongly segmented during the first?level training are taken as the data set of the second?level training, so as to obtain the accurate segmentation results of brain tumor CT image features. The experimental results show that the proposed method has a significant advantage in improving the accuracy rate and efficiency of brain tumor CT image feature segmentation.
Keywords: in?depth learning algorithm; brain tumor CT image; feature segmentation technology; multimodal 3D?CNN; SAE structure; data set0 引 言
随着现代医疗水平的提高,医学成像技术在日常医疗诊断与医学研究中的作用日益显著,因此对医学诊断图像数据的研究至关重要。脑肿瘤作为时下频繁出现且复杂性较强的肿瘤疾病,已成为医学界重点研究的课题。脑肿瘤的确诊通常以脑CT图像的成像数据分析为依据。准确地分析脑CT图像是判断病人病情的关键步骤。但是医生个人医疗知识的积累、经验水平的差异以及视觉疲劳等不确定因素都会影响对图像结果的正确分析。因此如何准确地对脑肿瘤CT图像特征实施分割十分重要[1]。针对基于脑肿瘤CT图像特征分割技术存在准确率低、分割效果不明确的弊端,本文提出基于深度学习算法的脑肿瘤CT图像特征分割技术,为相关医学研究提供了强有力的分析依据。
1 改进的脑肿瘤CT图像特征分割技术
1.1 数据集获取和图像预处理
采用第三军医大学建立的中国第一个数字化可视人体数据集CVH?2作为本文分析的脑横断面图像。本文采用的400幅脑横断面图像全部来自CVH?2数据集中通过高分辨率设备拍摄的脑肿瘤CT图像,其位深度是24 bit,3 072×2 048大小,切削厚度是0.25 mm,能清晰地显示出脑白质、脑灰质以及脑脊液的组织状况。前期预处理准备阶段,需要配准全部图像[2],并通过裁剪图像为974×852大小的方式来减少实验投入,增加脑白质分割速度。
1.2 脑肿瘤CT图像多模态3D?CNNs特征提取
数字识别是2D?CNNs的主要功能,其通过固定图像大小的方式获取图像的特征提取。但其在脑肿瘤分割方面的运用存在弊端:脑肿瘤分割所需的单个像素点邻域的大小不好掌控;不同病人不同图像层的肿瘤大小存在差异致使此邻域不能适用于所有肿瘤点;确保高精度分类是个难题。因此,本文通过塑造脑肿瘤多模态3D?CNNs特征对2D?CNNs实施改进。
图1描述了脑肿瘤CT图像多模态3D?CNNs特征提取过程,将4个模态相同位置的小邻域14×14构成3D(14×14×4)的原始脑肿瘤CT图像输入层[3],另6个权值共享的大小是3×3×2的卷积模板向原始层实施卷积,获取6个12×12×3特征图C1;对6个C1层的特征图进行2D平均采样获取S2层;对S2层所有特征求和后进行12个3×3×2模板卷积获取12个6×6×2的特征图C3;C3层经过平均采样获取S4层;S4层按列归一化获取96维特征向量F5。
4个模态联合组成脑肿瘤CT图像多模态3D?CNNs原始输入层;对4个模态实施卷积分别获取不同模态彼此的差异信息。个别学习方法做到了不同脑肿瘤病人差异信息获取不同的分类特征。通过采样的方式能够获取大量结构边缘信息,抛弃闲杂信息以及噪声[4];通过多模态共同输入的方式确保原始输入需要较少的邻域信息,能够适用于各个图像的肿瘤点,以此来增加脑肿瘤CT图像的分割精度。2 脑肿瘤CT图像特征分割
2.1 SAE原理
SAE是一种根据人工神经网络特征组成可以自动采集输入数据深层次特征的网络。图2详细描述了SAE结构,输入层、隐层以及输出层共同构成了SAE结构[5],SAE是一种高效的深度学习算法。
SAE尝试学习到一种非线性映射,可以令输出[xn]与[xn]相似。若限制SAE的隐层神经元数量能获取到输入数据一部分有价值的结构。举例说明:若向SAE输入M维向量(其输出向量也是M维),而隐层仅包括N个神经元且满足N2.2 基于SAE深度学习算法的图像特征分割模型训练
本文通过对基于SAE深度学习算法的脑肿瘤CT图像特征分割模型实施训练,实现脑肿瘤CT图像特征的高精度分割。将1.2节获取的脑肿瘤CT图像多模态3D?CNNs特征经过处理后获取的S,V通道数据输入模型实施训练。模型的训练分成两级:第一级训练的样本是从输入图像中任意选择的图像块,同时SAE的初始值也被随机还原;第二级训练中,采用上级训练中分割效果不理想的组织结构作为训练样本,SAE的初始值是从上一训练中获取的权值。
2.2.1 第一级训练
由于脑肿瘤CT多模态3D?CNNs图像的不同分量中存在部分多余的杂质[7],导致其表达脑组织的作用发挥的不明显。把脑肿瘤CT图像转换成YCbCr模式获取的Cb与Cr图像不清晰,对比效果极差,很难当作原始信息输入。位于图像HSV空间中的饱和度(S)以及亮度(V)能够清晰地呈现出脑白质与其他组织结构的对比效果。所以,为提高样本训练的效率,本文模型中的全部图像都使用HSV空间中S,V通道信息实施训练。本次训练图像是本文选取的400幅脑横断面图像中的一幅,其特征是伴有细长沟回和拐点。第一级训练,详细做法如下:把脑肿瘤CT图像多模态3D?CNNs特征转换到HSV空间丢弃H通道信息,在S和V通道中任意选取图像块以其中心体素原始特征的形式输送到SAE实施训练;Softmax分类器训练所需的特征向量均来自于上述图像块经过训练所获取的维度是9的深度向量特征;最后各个图像块通过获取到维度是2的输出向量,来体现该图像块中心体素所属的类别信息[8]。本文模型具体参数设定为:SAE采用单隐层结构对其实施二级训练,基于训练的计算消耗以及分割准确性设置图像块的大小是5×5,深度是2,此时数据通道为S和V。设置50,9以及50分别是SAE的输入层、隐层以及输出层的神经元数目,用[ρ=0.02]表示稀疏性参数,[β=3]表示稀疏惩罚因子。
2.2.2 第二级训练
使用单级网络获取的效果较差的原因是脑白质中存在繁琐的沟回、噪声以及色差。第一级训练获取的脑肿瘤CT图像特征分割结果图像显示,经过一级训练后SAE对脑肿瘤微小的结构、沟回分割程度不明显。这一现象导致脑肿瘤的拓扑结构遭到损坏,在人体脑肿瘤的展示方面形成阻力[9]。因此采取对SAE实施二次训练的方式来弥补这一不足。在第二级训练的过程中,令第一级SAE训练得到的权重作为二级训练的原始权重。基于SAE在数据训练方面存在自适应性的特点,把第一级训练中错误分割的组织结构和沟回当作本次训练的数据集,确保提高学习到的深度特征对组织结构的判断能力[10]。二级训练获取的脑肿瘤CT图像特征分割结果,实施二级训练模型分割获取的脑肿瘤细节更加具体,误分割水平明显提高。

为了证明本文方法采用的多模态3D?CNNs在脑肿瘤CT图像特征提取方面的优势,将其与基本特征经典2D?CNNs、邻域灰度和Haar小波低频系数进行对比实验,描述三种特征提取方法在10个病人身上的平均分割结果。多模态3D?CNNs特征提取较经典2D?CNNs而言效果更佳,带有多模态3D?CNNs特征的dice特征系数是87.26%,高于经典2D?CNNs的82.82%。值得注意的是,使用邻域灰度和Haar小波低频系数的分割结果要优于带有经典2D?CNNs特征的分割结果。
造成这一现象的具体原因是:脑肿瘤类似球形,训练获取的2D?CNNs难以应用在不同层次状况的肿瘤图像;理论上分析对4个模态实施特征提取可以获取大量不同模态之间的差异信息,由于特征信息过多导致结果适得其反。本文方法采用的多模态3D?CNNs特征弥补了上述缺点,4个模态的三维结合为不同模态间差异信息协作提供了便利,淘汰多余信息,达到脑肿瘤CT图像特征高精度分类的状态。为了证明本文方法采用的多模态3D?CNNs在脑肿瘤CT图像特征提取方面的显著效果,在实验环境一定的前提下,给出了基于邻域灰度和Haar小波低频系数、本文方法采用的多模态3D?CNNs特征以及真值三种分割结果。结果表明肿瘤与非肿瘤之间的界限不明确,采用邻域灰度和Haar小波低频系数的分割结果把部分水肿误认成了肿瘤,而本文方法采用多模态3D?CNNs特征后获取的结果几乎接近于真值,没有把水肿规划成肿瘤,比前者的分割效果明显增强。上述问题得到很好的解决,说明本文方法对脑肿瘤CT图像特征具有较高的分割准确度。
为证明本文方法采用的SAE结构在脑肿瘤CT图像特征提取方面的显著优势,对不同SAE结构进行实验分析。实验对SAE结构输入4种不同大小的图像,采用10个不一样的隐层神经元对各图像块下的SAE结构实施分割测试。值得注意的是图像块大小一定的前提下,随着神经元数目的增加其分割准确率越低。这一状况表明基于SAE结构的深度学习算法在压缩神经元数目方面能力更强。产生这一状况的主要原因是图像块越小携带的影响因子越少,且神经元数目少,SAE结构可以发挥其在压缩神经元特征方面的能力。
不同SAE结构对脑肿瘤CT图像特征分割的平均准确率以及分割每幅图像的时间消耗的分析表明:SAE结构获取的平均分割准确率均大于90%,且这一结果是在不同图像块和神经元数目状态下实现的,并且本文方法对于脑肿瘤CT图像平均分割准确率达到了97.3%,若进行二级训练后获取的分割结果会增长0.4%~1.5%。表明本文基于SAE深度学习算法在脑肿瘤CT图像特征分割方面的具有较高准确性。本文方法分割脑肿瘤CT图像特征消耗的时间与隐层神经元数目成正比,在3×3图像块下分割脑肿瘤CT图像特征所消耗的最少的时间为1.3 s,最高时间消耗是5 s,平均消耗时间较低,说明本文方法进行脑肿瘤CT图像特征分割过程中具有较高的效率。3 结 论
本文提出的基于深度学习算法的脑肿瘤CT图像特征分割技术,既能排除各模态的冗余信息又能兼顾肿瘤大小状况的变化,改进了基于数学形态脑肿瘤CT图像特征分割方法存在的准确率低、分割效果不明确的弊端,为相关医学研究提供了强有力的分析依据。参考文献
[1] 马成虎,董洪伟.一种基于深度学習的多尺度深度网络的场景标注算法[J].计算机工程与科学,2016,38(7):1356?1361.
MA Chenghu, DONG Hongwei. A scene labeling algorithm for multi?scale deep networks based on deep learning [J]. Computer engineering and science, 2016, 38(7): 1356?1361.
[2] 徐立,白金牛,李磊民.基于脑部MR图像GMM特征决策分类的肿瘤诊断[J].控制工程,2017,24(8):1718?1722.
XU Li, BAI Jinniu, LI Leimin. Diagnosis of tumor in brain MR images based on GMM features and decision tree classifier [J]. Control engineering of China, 2017, 24(8): 1718?1722.
[3] ROOBINI K, RAMAKRISHNAN T, SANKARAGOMATHI B. Neighbourhood weighted fuzzy C?means (NWFCM) clustering algorithm for segmentation of brain tumors in CT images [J]. International journal of applied engineering research, 2015, 10(20): 15327?15330.
[4] 秦丰,刘东霞,孙炳达,等.基于深度学习和支持向量机的4种苜蓿叶部病害图像识别[J].中国农业大学学报,2017,22(7):123?133.
QIN Feng, LIU Dongxia, SUN Bingda, et al. Image recognition of four different alfalfa leaf diseases based on deep learning and support vector machine [J]. Journal of China Agricultural University, 2017, 22(7): 123?133.
[5] 张人上.基于NSCT?GLCM的CT图像特征提取算法[J].计算机工程与应用,2014,50(11):159?162.
ZHANG Renshang. Features extraction algorithm of CT image based on GNSCT?LCM [J]. Computer engineering and applications, 2014, 50(11): 159?162.
[6] 楚陪陪,魏本征,曲彦,等.基于复合超像素技术的肺部CT图像分割算法[J].合肥工业大学学报(自然科学版),2017,40(3):332?339.
CHU Peipei, WEI Benzheng, QU Yan, et al. A lung CT image segmentation algorithm based on composite super pixel technology [J]. Journal of Hefei University of Technology (Natural science), 2017, 40(3): 332?339.
[7] 汪亮,金福江,陈峻严.基于区域生长和FCM模糊聚类的颅内出血CT图像分割[J].系统仿真学报,2014,26(2):231?235.
WANG Liang, JIN Fujiang, CHEN Junyan. Segmentation of intracranial hemorrhage′s CT image based on method of region growing and FCM fuzzy clustering [J]. Journal of system simulation, 2014, 26(2): 231?235.
[8] CHITRA K, RAMAKRISHNAN T, SANKARAGOMATHI B. Automatic segmentation of brain tumor in CT images using LIPC [J]. International journal of applied engineering research, 2015, 10(20): 15478?15483.
[9] 杨阳,张文生.基于深度学习的图像自动标注算法[J].数据采集与处理,2015,30(1):88?98.
YANG Yang, ZHANG Wensheng. Image auto?annotation based on deep learning [J]. Journal of data acquisition & processing, 2015, 30(1): 88?98.
[10] 王博,郭继昌,张艳.基于深度网络的可学习感受野算法在图像分类中的应用[J].控制理论与应用,2015,32(8):1114?1119.
WANG Bo, GUO Jichang, ZHANG Yan. Learnable receptive fields scheme in deep networks for image categorization [J]. Control theory & applications, 2015, 32(8): 1114?1119.

随便看

 

科学优质学术资源、百科知识分享平台,免费提供知识科普、生活经验分享、中外学术论文、各类范文、学术文献、教学资料、学术期刊、会议、报纸、杂志、工具书等各类资源检索、在线阅读和软件app下载服务。

 

Copyright © 2004-2023 puapp.net All Rights Reserved
更新时间:2024/12/22 17:29:53