基于卷积神经网络的大型JPEG图像隐写式密码解密外文翻译资料

 2022-12-19 17:17:01

英语原文共 15 页,剩余内容已隐藏,支付完成后下载完整资料


基于卷积神经网络的大型JPEG图像隐写式密码解密

钱章,赵咸峰,刘长军

中国科学院信息工程研究所信息安全国家重点实验室,北京100093,中国科学院网络安全学院

100093年,北京,中国

摘要:为了在较大的JPEG图像上检测隐写术,提出了一种基于CNN的有效隐写分析方案。由于gpu内存的限制,大部分CNN方案设计得非常深入,以达到较高的精度,导致无法训练大尺寸图像。现有的网络结构大多采用256times;256或512times;512像素的小图像作为检测对象,远远不能满足实际应用的需要。同时,对隐写操作的大小调整会使隐写术产生的微弱噪声信号难以检测。在我们提出的网络结构中,我们试图通过压缩网络结构的深度来解决这个问题。为了减小数据维数,我们在完全连通层之前,应用直方图层将特征映射转换为特征向量。我们在大小为512times;512、1024times;1024和2048times;2048的图像上测试我们的网络。对于不同的应用场景,我们采用两种方法生成大样本。实验结果表明,该方法可以直接对大图像进行隐写分析检测器的训练。

关键词:JPEG隐写分析·大图·直方图层·卷积神经网络(CNN)

1介绍

隐写术是一种利用多媒体文件隐藏信息的隐蔽通信方法。相反,隐写分析用于检测秘密信息的存在。JPEG格式图像是我们日常生活中最流行的数字媒体之一,针对JPEG格式设计的隐写算法有很多,如F5[14]、JRM[8]、UED[3]和J-UNIWARD[6]。为了对抗这些算法,基于特征的隐写分析方法得到了广泛的应用。隐写分析的特征是一种区分普通图像和秘密图像的统计量,我们可以得到基于离散余弦变换(DCT)系数的统计特征或将DCT系数变换到空间域,然后从空间域残差中形成JPEG-phase-aware特征。后一种方法效果较好。DCTR[5]和GFR[12]是两种具有代表性的具有竞争力的方法。

深度学习在图像处理的其他领域取得了巨大的成功,这使得研究人员将卷积神经网络(CNN)等深度学习框架应用于检测隐写术。但是CNN在空间域隐写分析方面的应用还处于起步阶段。Qian等人[9]提出了一个开拓性的架构,该方法将特征提取和分类集成到CNN框架中,并使用反向传播方法对参数进行优化。钱等。[10]提高检测性能的低负载通过转移学习任务,起初他们pre-trained CNN模型使用隐藏在高负载,然后微调隐藏载荷较低,他们证明了从高负载辅助信息模型可以用来帮助分析隐藏载荷较低。Xu等人通过使用更有效的网络结构单元,如批处理归一化层,来避免陷入局部极小值,从而改进了网络模型的性能。TanH层,用于防止过拟合。Sedighi等人[11]提出了一种直方图层来模拟CNN框架下的PSRM[4]模型。提出的方法表明,利用CNN结构中训练的核可以降低PSRM的维数。

对JPEG图像隐写分析的研究还不够,徐[15]等人借鉴Resnet在计算机视觉领域的优秀方法,构建了一个20层的网络来检测J-UNIWARD。莫[2]等人提出了一种JPEG- phase - aware 卷积神经网络,该网络嵌入PhaseSplit模块,通过JPEG phase分割feature map,提高了检测精度。

为了获得更好的检测效果,现有的方案一般采用深度网络结构,但由于gpu内存的限制,无法使用大图像训练深度CNN网络。我们只能训练小图像的模型,通常是256times;256或512times;512像素。这远远不能满足实际应用的需要。为了对大图像进行隐写分析,[13]提出了一种改进现有CNN检测器的方法。他们输出统计时刻(平均、最小、最大和方差)的特征图谱在进入网络的全层,时刻在小砖训练网络,然后把前面的一部分,网络作为“普遍特征提取器”和重新训练网络的全层,以适应不同的输入图像的大小。这是一种间接检测大图像的方法。

本文提出了一种直接检测大图像隐写术的体系结构。我们降低了网络结构的深度,并应用直方图层来降低数据维数。人们经常从互联网上获取图像作为隐写术的封面,但这些图像通常很小。为了嵌入更多的信息,人们将图像的大小调整到更大的尺寸。另一方面,人们使用照片本身作为隐写术的封面,这些图像通常非常大。为了便于处理和传输,人们将图像的大小调整到合适的大小。所以我们用两种方法来生成大样本。通过对标准数据集512times;512、1024times;1024、2048times;2048的J-UNIWARD检测实验表明,直接检测大图像可以取得较好的效果。

本文的其余部分组织如下。在第二节中,我们将概述丰富的模型,并介绍直方图层的功能。我们的网络结构在第3节中给出。第四节给出了实验和讨论。结论和今后的工作载于第5节。

2丰富模型概述及直方图层的功能

丰富的模型是隐写分析中应用最广泛的方法,可为CNNs网络的设计提供参考。我们将对rich model进行概述,并从中获得一些见解。DCTR和GFR是目前最流行的手工检测JPEG图像隐写术的特征,提取过程如图1所示。

图1 提取过程中丰富的模型特征。

首先,将JPEG格式的输入数据转换为空间域。然后让图像通过一组滤波器组、DCT滤波器或Gabor滤波器。接下来,取残差的绝对值。为了便于计算,对其值进行量化,然后用阈值进一步截断。然后,通过向下采样生成一系列小的特征图。最后,将残差映射投影到直方图中,得到直方图特征。

直方图特征在丰富的模型中被证明是有效的,因此研究人员尝试在CNN框架中使用直方图结构。[11]实现了一个新的层来模拟直方图的形成,以获得CNN中的直方图特征。他们选择高斯核作为直方图bin,允许梯度的反向流动通过该层,然后使用反向传播算法对参数进行优化。直方图的值本B (k)的每个直方图本中心micro;kisin;{minus;3.5minus;2.5,hellip;hellip;,2.5,3.5},值由(1)计算。

xij是feature map的元素,该操作将每个feature map投影到一个只有8个值的向量上(图2)。

图2 使用直方图层减少维数

在以前的网络结构中,使用池化层来减少特征维数,保留输入数据的主要属性,无疑会丢失很多有用的信息。在我们的网络结构中,我们修改了直方图层,把它放在全连通层之前,代替池化层。池化层可以充分利用所有的信息,大大降低参数,使得直接对大图像进行隐写检测成为可能。在下一节中,我们将详细说明直方图层的使用方法。

3网络体系结构

在本节中,我们使用直方图层对两种结构进行了实验,以获得最佳的性能。这两种结构如图3和图4所示。

在这两种结构中,我们首先将图像从频域转换到空间域,然后让图像经过一组滤波器组,将单个输入投射到不同的频段。然后,我们在结构II中使用绝对值激活(ABS)层来方便统计建模和匹配不同的直方图层。两种结构都使用截断层来限制输入数据的范围。最重要的块卷积层用于提取特征图。在结构I中,每个block由3times;3 kernel的卷积层、TanH激活函数层和batch归一化层组成。与结构I不同,我们在结构II中使用ReLU激活函数。在得到特征图后,我们引入了一个平均池层大小为16times;16,step 1,这有助于增强模型的稳定性。然后,我们将特征映射投影到直方图层上。最后放置全连通层,完成分类任务。接下来,我们将介绍网络各部分的功能和详细的参数选择。

3.1高通滤波器

信息隐藏引起的信号远比隐写术中的内容本身要轻。因此,为了捕捉隐写算法引入的细微差别,采用高通滤波器(HPF)来降低内容信息的影响。值得一提的是,HPFs的类型对网络的最终检测精度和收敛速度有很大的影响。在我们的实验中,我们测试了两种HPFs,[15]中使用的4times;4大小的DCT内核和8个方向和5个尺度的Gabor内核。一般来说,小尺寸Gabor内核提取全局特征,大尺寸Gabor内核提取对干扰敏感的细节特征。所以我们使用尺寸为8times;8的Gabor kernel,如图5所示。实验表明,Gabor核的简单应用并没有提高检测性能,反而降低了检测精度,降低了收敛速度。这一问题有待进一步研究。

3.2截断

通过高通滤波器后,我们采取截断操作,它可以限制输入数据的范围,以避免极值的影响。我们测试了全局阈值6、8、12,阈值8达到了最佳的实验结果。

3.3 ABS层

在结构II中,我们在HPF之后添加了ABS层。对每个输入数据进行绝对值运算,可以消除符号的影响,就像传统方法一样。我们不做量化,这会减慢收敛速度。

图3 CNN架构I。

图4 CNN架构2。

图5 8个方向和5个尺度的Gabor核

3.4卷积层

卷积层是CNN的主要组成部分。在我们提出的网络中,我们使用3times;3的卷积层和step 1来捕获输入数据的特征。在丰富的模型方法中,通过向下采样得到小的特征图。为了得到更好的结果,我们使用stride 2的卷积层通过学习得到小的feature map。

3.5批量归一化层

批量归一化层(BN层)被广泛应用于CNN中,用于解决梯度消失和梯度爆炸问题。此外,它可以降低过拟合的危险,加快收敛速度,提高检测精度。它通常放在激活层之前。

3.6激活函数

为了提高模型的表达能力,我们通过eaYch卷积块中的激活函数引入非线性因子。TanH和ReLU是最常用的激活函数。TanH可以有效地限制输入数据的范围,去除统计模型中稀疏或不利的值。ReLu可以避免随着网络的深入而逐渐消失的梯度问题,加快训练速度。根据不同的符号特征,我们在结构I中使用TanH,在结构II中使用ReLU。

3.7平均分担

我们引入了一个平均池层stride 1,它可以避免过度拟合而不会丢失信息。此外,它还能提高学生的差异意识能力。当我们改变一个JPEG图像DCT系数,它将导致改变相应的8times;8解压图像像素,然后更多的变化是引起残余图像通过旋转,如图6所示,但是许多职位仍然不变,所以我们使用池扩散的影响。

图6 修正DCT系数对残差滤波图像的影响

3.8直方图层

在结构I中,我们使用与[11]相同的直方图层,如图7(a)所示,它同时获得正值和负值。在结构II中,我们对直方图层进行了如图7(b)所示的修改,它只得到正值,我们测试了阈值4,6,8。虽然增加阈值可以稍微提高精度,但是训练速度会下降很多,所以我们将阈值设置为4。

3.9全连通层

在网络中,全连通层的作用是实现分类。它将特征映射到样本的标签空间。FC层的参数占整个网络的80%。因此,减小全连通层的参数对大图像的检测具有重要意义。

3.10网络深度

一般来说,网络越深,表达能力越强,能够处理的训练数据也越多。研究人员试图通过使用非常深的网络来获得较高的检出率,这使得模型的参数增加了很多。在计算机视觉领域,有一种观点认为,当深度达到一定程度时,仅仅叠加相同的架构是无法做到的显著提高性能,新架构和新组件是必不可少的。通过压缩模型,可以得到性能良好的小型网络,网络的深度应与任务的难度相匹配。

图7 直方图层:(a)原始直方图层 (b)新的直方图层

显然,在大图像上训练非常深的网络是不可能的。为了将参数的数量减少到可接受的范围,我们必须减少网络的深度。卷积块数为3、4、5和6已经过测试。最后,为了平衡检测精度和内存限制,我们使用了三个stride 1的卷积和两个stride 2的卷积。我们设法将CNN放入一个拥有16GB内存的GPU中。通过汇聚层来降低网络的空间分辨率是CNNs的关键。在我们的CNN中,降维是通过convolutional layers of stride 2来实现的,在step 2之后,数据的空间大小被削减了一半,通道的数量也增加了一倍。

4实验

4.1数据集与设置

在本文中,我们使用了数据集BOSSbase v1.01[1],其中包括10,000张未压缩的封面图像。为了生成JPEG隐写术的封面,使用QF75对图像进行压缩,然后将大小调整为1024times;1024和2048times;2048说明了从512times;512 BOSSbase图像或原生分辨率图像中提取原始格式对生成大样本方法的影响。本研究采用J-UNIWARD作为隐写方法,将数据嵌入压缩图像中,生成相应的隐写算法,这是JPEG域中最安全的隐写算法之一。因此,对于每个分类问题,数据集包含10,000对cover-stego对。在512times;512和1024times;1024图像上,嵌入率分别设置为0.1、0.2、0.3和0.4 bpnzAC。由于大样本图像的制作需要大量的时间,我们在2048times;2048的图像上使用0.2和0.4 bpn-zAC。以GFR获得的相应性能作为对比实验。我们训练所有的网络在NVIDIA Tesla P100 GPU与16G图形内存。使用Caffe toolbox[7]实现CNNs。

在训练中,我们将初始学习率设置为10 - 3,并使用衰减率为0.9的指数衰减函数。此外,学习速率每5000次训练迭代就会发生变化。对于512times;512的图像,训练阶段每次迭代的批大小为32(16对cover/stego),验证阶段为10(5对cover/stego)。对于1024times;1024张图像,训练阶段每次迭代的批大小为16(8对cover/stego),验证阶段为10(5对cover/stego)。对于2048times;2048张图像,在训练阶段和验证阶段,每次迭代的批大小为4(2对cover/stego)。通过标准偏差为0.01的零均值高斯分布初始化卷积层的参数,并禁用偏置学习。使用Xavier方法初始化全连接层。

4.2结果

表1、2、3和4显示了使用CNN在BOSSBase上的最终集成结果,如图4所示。可以看出,所提出的CNN的性能几乎在所有的实验中都优于基于特征的GFR方法,除了对原始格式的原生分辨

剩余内容已隐藏,支付完成后下载完整资料


资料编号:[19938],资料为PDF文档或Word文档,PDF文档可免费转换为Word

原文和译文剩余内容已隐藏,您需要先支付 30元 才能查看原文和译文全部内容!立即支付

以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。