基于深度自动编码器的磁共振听力损失图像三种分类外文翻译资料

 2021-12-29 22:28:07

英语原文共 11 页,剩余内容已隐藏,支付完成后下载完整资料


基于深度自动编码器的磁共振听力损失图像三种分类

摘要: 听力部分损失或全部听不见,称为听力障碍。未经治疗的听力损失会对正常的社会交往产生不良影响,并可能导致患者的心理问题。因此,我们设计了三种分类系统来检测听力损失的具体类别,这对患者的及时治疗是有益的。在训练和测试阶段之前,我们使用数据扩充技术来生成一个平衡的数据集。然后利用深度自编码神经网络对脑磁共振图像进行分类。在深度自动编码器阶段,我们使用堆栈式稀疏自动编码器来生成这些特征,并使用softmax来对不同的脑图像进行分类,从而对听力损失进行分类,我们的方法可以获得良好的实验结果。我们的方法的总体精度可达99.5%,每幅大脑图像的耗时为0.078s。我们提出的基于堆栈式稀疏自动编码器的方法在听力损失图像分类中效果良好,其分类精度比目前最先进的方法还高4%。

关键词:数据扩充;栈式稀疏自动编码器;正则化;mini-batch量化共轭梯度

1 相关介绍

听力损失也称为耳聋和听力水平,会导致不同程度的听力敏感性降低、听阈升高和听力障碍,这是由噪声、遗传、耳毒性胫骨或随着年龄的增长神经传导紊乱等多种因素引起的。由于症状过程缓慢,某些类型的疾病是很难被及时认识和治疗的。对于医生来说,智能快速的听力损失检测系统非常有用,因此,我们设计了一种新型的基于自动编码器的听力损失检测系统来识别三种不同类型的疾病。

到目前为止,学者们提出的方法很多:李(2016)提出了分数傅立叶变换(FRFT)、主成分分析(PCA)、单隐层前馈神经网络(SFN)和Levenberg Marquardt(LM)检测听力损失的方法,其准确度超过95%。然而,这种方法对总体人群的精确度较低。Nayak(2017)提出了一种由平稳小波熵(SWE)和单隐层前馈神经网络(SLFNN)结合的方法,实现了健康对照组、左听力损失组和右听力损失组的准确率分别为96.94%、97.14%和97.35%,同时该方法不具备生成能力。Chen和Chen(2016)开发了一种新的系统来检测感音神经性听力损失。首先,利用三层Bior4.4小波对原始脑图像进行分解;然后,他们使用主成分分析(PCA)来降低特征的维数;最后,采用基于Tikhonov正则化的广义特征值近端支持向量机(GEPSVM)分类器对失聪图像进行分类。然而,在这种方法中,图像采集仅由15张左侧感音神经性听力损失图像、14张右侧感音神经性听力损失图像和20张健康对照图像组成。大脑图像的总数只有49张。李(2017)提出了一种基于纹理分析方法的计算机辅助诊断(CAD)系统。首先,他们使用分数傅立叶熵(FRFE)从磁共振脑图像中提取12个元素的特征。然后采用适应度尺度自适应遗传算法对多层感知器进行训练。该方法的总准确度为95.51%,与前面的方法类似,此方法的数据集中的图像数只有49个而且并不具有一般性。Lu(2017)使用离散小波包熵(DWPE)和自适应学习速率反向传播(ALBP)。

在上述方法中,我们可以发现以下三个问题。首先,他们提出的方法必须手动从磁共振图像中提取特征,这可能需要很多时间,并且会导致一些有用的特征信息丢失。第二,由于采集到足够多的图像存在困难,这些方法中的数据集大小相对较小,这将导致该方法缺乏一般化能力。第三,上述方法的整体精度较低。

针对上述三种方法的不足,提出了一种新的方法。首先,我们使用深度自动编码器神经网络自动提取图像中的特征,与手动操作相比节省了很多时间,并且不会丢失有用的特征信息。第二,我们使用数据增强技术来增加我们数据集中磁共振脑图像的数量,在数据扩充之后,我们的方法可以处理更大的数据集,可以得到广泛的应用。第三,利用正则化、mini-batch量化共轭梯度(MSCG)和微调技术对所提出的方法进行优化,提高了算法的精度。因此,我们提出了一种新的检测系统将磁共振脑图像分为不同类型的听力损失。

深度自动编码器可以通过无监督的方式设置隐藏层中的神经元数量来手动提取和选择特征。原始的磁共振图像可以直接输入到自动编码器中,自动编码器利用神经网络产生的低维输出来表示高维输入,避免了因维数过高而引起的灾难。

本文的以下部分由五个部分组成。第二章介绍了实验中使用的数据,并对数据增强前的脑磁共振图像进行了理论分析。此外,本部分还对数据增强后的图像处理实验的总数量进行了说明。第三章介绍了稀疏自动编码器的基本原理和堆栈式稀疏自动编码器的结构。在第四章中,我们可以学习在方法中使用的训练方法,包括正则化、mini-batch量化共轭梯度和微调技术。第五章详细描述了我们的实验和结果。在这一部分中,我们可以看到我们方法的总体实验过程、分类性能、学习的特性、混淆矩阵和时间分析。我们可以很容易地看到所提出方法的性能。最后第六章总结了我们提出的方法,并列出了下一步应完成的工作。

2 预处理

2.1 实验数据

我们收集了49张磁共振脑图像,可分为三类,其中健康图像20张,左耳聋图像15张,右耳聋图像14张。所有受试者均获得书面同意。不同类型的听力损失图像,如图1所示。

图1 不同种类的大脑图像

代表健康图像,代表左耳听力损失,代表右耳听力损失

2.2 数据扩充

针对每类听力损失图像的不平衡性,采用数据增强技术将每类图像的数量增加到420张。因此,我们实验中使用的图像总数是1260。表中显示了我们使用数据扩充技术前后使用的图像数量。表1显示了不同预处理阶段的脑图像数量。

表1 使用数据增强技术前后的脑图像数量

健康

左听力损失

右听力损失

总计

数据扩充前

20

15

14

49

数据扩充后

420

420

420

1260

2.3 自动编码器

自动编码器可以解释为一个试图恢复原始输入的系统,它包括以下两部分:编码器和解码器(如图2所示)。对于自动编码器,我们关心的不是输出,而是编码器中间层(从输入到编码的映射)。

前馈

自上而下

反馈

自下而上

解码器

编码器

特征表达

输入图像

图2 自动编码的信息流

2.4 稀疏自动编码器

在传统的监督学习方法中,我们需要在数据中添加大量的标签,这将是相当困难的。然而,我们使用的自动编码器可以从大量未标记的数据中学习特征。

考虑到未标记的训练实例集,自编码的目标值等于输入值 (,如图3显示。

层1

层2

层3

图3 自动编码器的结构

在图3中,在自动编码器网络结构中有三层,其中 表示输入,而 是 时对应的输出。节点是偏置项,而表示近似于输入的输出。

在自动编码器中,我们经常添加稀疏性限制来学习一些有意义的输入数据表示。稀疏性限制意味着如果神经元的输出接近1,那么我们认为它是被激活的。然而,如果输出接近0,我们认为它被抑制了。所以,如果神经元大部分时间受到抑制,我们称之为稀疏性限制。我们定义平均激活值为:

( 1 )

其中 表示第二个隐藏层上隐藏神经元单元 的激活,表示一个mini-batch中的样本数。设置 ,我们可以得到稀疏性限制,其中我们可以设置,接近于。但是,我们必须增加一个惩罚函数来实现这一限制,可以表示为:

( 2 )

其中表示第二个隐藏层中隐藏神经元的数量。公式(2)也可以表示为Kullback-Leibler(KL)散度记作:

( 3 )

KL散度的可以被表示为:

( 4 )

KL散度也可以称为相对熵,它度量同一事件空间中两个概率分布之间的差异。当两个概率分布完全相同时,即, 其中相对熵为,代表真实分布,代表的拟合分布。

因此,整体损失函数可由如下公式计算:

( 5 )

其中是可以控制稀疏惩罚因子的权重,可表示为:

( 6 )

式(6)中的第一个括号表示所有样本方差的平均值,第二个括号是一个正则化项(也称为权重衰减项,应介于0和1之间),用于降低连接权重的更新速度,以防过度拟合。

2.5 堆栈式稀疏自动编码器

在本实验中,堆栈式自动编码器由若干稀疏的自动编码器组成。我们使用逐层贪婪的训练算法来获取堆栈式自动编码器的参数,整体流程如图4所示。

输入

稀疏性

稀疏性

特征

解码器

特征

编码器

解码器

解码器

编码器

编码器

类标签

图4 堆栈式稀疏自动编码器的信息流

在堆栈式稀疏自动编码器中,我们应该使用原始输入训练第一个自动编码器,我们可以得到第一个隐藏层的特征表示(即权重),如图5所示。这里,是原始输入数据的数量,是第一个隐藏层中隐藏的神经元的数量,在我们的实验中,,。然后,我们将特征表示发送到下一个稀疏自动编码器中作为输入,用于学习二阶特征,如图6所示。

特征

输出

输入

图5 第一个隐藏层的特征表示

输入

(特征)

特征

输出

图6 第二个隐藏层的特征表示

实验中,等于50

接下来,我们将这些二阶特征作为输入导入到SoftMax分类器中,通过训练映射到数字标签模型中,如图7所示。

SoftMax分类器

输入

(特征)

图7 SoftMax层的特征表示。将二阶特征导入到SoftMax分类器中,可以得到分类结果。表示输入分类为类( =1,2,3)

最后,将这三个层次结合起来形成一个堆栈式稀疏自动编码器来对不同类型的听力损失进行分类。

3 训练方法

3.1 正则化

原始问题的解近似于与原始不适定问题相邻的一组适定问题的解。这种方法被称为正则化。在堆栈式稀疏自动编码器中,正则化被用来避免过拟合,这可能发生在小数据集上。在训练过程中,网络对训练数据的误差逐渐减小,而对验证集的误差则逐渐增大。因为训练后的网络对训练集进行了过度的拟合,使得训练集之外的数据无法工作。针对以上问题,我们采用正则化方法求解。

正则化(权重衰减)是在损失函数中添加一个正则化项,如等式(5)所示。正则项是所有参数的平方和除以训练集的样本大小,再乘以正则项系数,该系数为加权正则项与损失函数项的比例。此外,为了便于推导,还使用了另一个系数1/2,使得推导将产生一个数字2。

在推导过程中,我们发现正则项对的更新没有影响,但对的更新有影响:它可以降低的值,在某种意义上,较小的权重意味着网络不那么复杂,数据拟合也很好。

3.2 mini-batch量化共轭梯度(MSCG)

量化共轭梯度是Moller提出的一种改进的梯度算法。该算法利用Levenberg-Marquardt(LM)算法处理复杂的二阶导数问题,避免了搜索方向的耗时计算。在一个mini-batch量化共轭梯度算法中,训练样本(称为batch)比所有训练样本都能获得更快的训练速度。

共轭梯度法的基本思想是将共轭梯度法与最陡下降法相结合,在已知点上通过梯度构造一组共轭方向。搜索是沿着一组方向进行的,然后我们可以得到目标函数的极小点。

迭代方向从最深下降方向开始:。

然后,沿当前搜索方向对最优距离进行线性搜索。各搜索点和搜索方向的迭代公式分别为:

lt;

全文共10385字,剩余内容已隐藏,支付完成后下载完整资料


资料编号:[3034]

( 7 )

原文和译文剩余内容已隐藏,您需要先支付 30元 才能查看原文和译文全部内容!立即支付

以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。