变光照下的鲁棒人脸识别技术外文翻译资料

 2021-11-20 23:13:58

英语原文共 9 页

变光照下的鲁棒人脸识别技术

贾迈勒·侯赛因·沙阿、穆罕默德·谢里夫*、穆达斯·拉扎、马拉扬·穆尔塔扎和赛义德·乌尔·拉赫曼

信息技术学院计算机科学系。Wah Cantt,47040,巴基斯坦*muhammadsharifmalik@yahoo.com

摘要

人脸识别是模式识别领域中一种复杂的生物特征识别技术,它受到人脸图像外观变化的限制。这些外观变化受到光照、表情或遮挡等变化的影响。照明可以被认为是室内和室外模式匹配中的一个复杂问题。文献研究表明,人脸识别中基于纹理的光照处理的两个问题似乎非常普遍。首先,在光照归一化过程中,由于对比度的增加,纹理值发生变化,从而改变了人脸的原始像素。其次,它最小化了类别间的距离,这增加了错误接受率。本文针对这些问题,提出了一种克服这些限制的鲁棒算法。这些限制通过将像素从非照明侧转换到照明侧来解决。结果表明,与现有的相关算法相比,该算法产生了更好的结果。

关键词:脸;照明;像素;识别;纹理特征。

1.介绍

人脸识别是一个非常具有挑战性的研究领域,因为由于遮挡、光照、表情和姿态变化,甚至同一个人的图像看起来也是不同的[1;2 .3 .4 .5]。人脸识别领域的先进研究表明,不同的光照条件会影响不同人脸识别算法[6;7]。另一方面,训练或测试在不同的光照条件下也很敏感。这些因素使得人脸识别变得困难,并且在过去的几十年中获得了很多关注。为了处理光照变化,已经提出了大量的算法。这些算法被明确分为三个主要区别。第一种方法处理图像处理建模技术,这些技术有助于标准化具有不同光照效果的人脸。为此,直方图均衡化[8;9],伽马强度相关[9]或对数变换[10]在不同情况下工作良好。各种建议的模型被广泛用于消除面部的照明效果。在[11],作者通过计算两个可变光照图像之间的相似性度量,然后计算其复杂性,消除了这种困境。

类似地,在[12],作者试图通过利用具有各向异性扩散的低曲率图像简化器(LCIS)来消除照明。但是这种方法的缺点是需要手动选择少于8个多参数,因此其复杂性增加了。其次,即使使用这些全局处理技术,不均匀的光照变化也是非常棘手的。为了处理不均匀照明,使用基于区域的直方图均衡化(RHE) [9]和基于块的直方图均衡化(BHE) [13]。此外,他们的识别率远远高于从高等教育获得的结果。在[9]中,作者提出了一种称为商照明重新照明的方法,以使图像标准化。

另一种处理人脸光照的方法是3D人脸模型。在[14;15]研究人员建议,具有不同面部照明的正面在子空间上产生一个称为照明圆锥体的圆锥体。利用应用于训练数据的生成模型,可以很容易地在低维子空间上进行估计。随后,它需要大量的照明图像用于训练目的。不同的生成模型,如球面调和模型[16;17]用于表征不同光照条件下的低维子空间。另一个分段的线性子空间模型在[被用于简化照明子空间复杂性的相同动机。为此,图像从出现相似表面的区域分成多个部分。然而,基于3D模型的方法需要大量的训练样本或者需要指定光源,这对于实时环境不是理想的方法。

在第三种方法中,从出现光照的面部提取特征,然后将它们转发给识别。一般来说,面部图像ⅰ(x,y)被认为是乘积ⅰ(x,y) = R(x,y)*L(x,y),其中R(x,y)是反射率,L(x,y)是每个点(x,y)的照度[19]。然而,从自然图像中提取特征要复杂得多。[20]的作者提出通过对图像的对数应用高通滤波来提取面部特征。另一方面,[21] 的研究者引入视网膜模型来消除光照问题。该视网膜模型进一步增强为[22]的多尺度视网膜模型(MSR)。这种方法的另一个进步是在[23]引入光照不变商图像(QI)并去除光照变化用于人脸识别。同样在[24;25]气理论被增强为自商图像(SQI),使用布拉乔维奇[26]的相同思想。获得不变光照的另一种方法是将同一幅图像与其平滑版本分开。然而,由于加权高斯滤波器在低维特征子空间中出现锐边,使得该系统变得复杂。[27]也解决了同样的问题,它使用对数全变分模型(LTV)通过图像分解获得光照不变量。同样,作者在[28]揭示了没有照明不变;然而,它是从上述方法获得的。

根据[29],照明变化算法分为两大类。第一类算法处理那些对光照条件不敏感的面部特征,并且使用像边缘图[30]、图像强度导数[31]和像滤波器[32]等算法获得。对于这种类型的类,引导数据库是强制性的,而它当通道组和探针组相对错位时,会增加错误率。

第二类认为照明通常是由于不同姿态下的3D形状模型而发生的。基于模型的方法的局限性之一是它需要不同3D照明图像的大的训练集。由于这个缺点,它的范围在实际的人脸识别系统中受到限制。

2.材料和方法

已经提出了大量的光照不变人脸识别技术,其中每种方法在特定条件和环境下都显示出良好的效果。在消除面部的光照条件后,它可以很容易地被人看见。基于几何的人脸识别的局限性在于它只能在有限的正面人脸数据库上工作。这些方法是传统的,但是现在使用了多种子空间方法,如主成分分析、独立成分分析、支持向量机和线性判别分析等。这些子空间方法依赖于像素级信息,因为该像素级信息用于将高维输入数据转换成低维特征子空间。低维数据根据类间和类内平均值排列。直方图均衡化是从图像中去除光照的最流行和最强大的方法。这种方法的主要缺点是,虽然它是一种从图像中消除光照的可靠方法,但它会破坏面部的实际密度值。实际像素值在直方图均衡化的类间和类内均值估计期间发生变化,增加了一些改变像素值的噪声。本文提出了一种识别率最高的噪声处理技术。更多讨论将在后面部分提供。

2.1直方图均衡化

本部分简要描述直方图均衡化。直方图的优势在于它提供了对比度增强的通用公式,使得由于光照因素而隐藏的信息变得可见。让我们考虑G是灰度级图像,而ni在图像中多次显示灰度像素外观。

类似地,N是图像中的像素总数。数学上,它可以描述为:

(1)

直方图的函数展开最密集的频率像素值。结果,原始像素信息丢失,改变了面部的外观,如图1所示。

2.2面部特征的类型

本节说明了本地和全局功能的各种特征。眼睛、鼻子、嘴巴等。被认为是最具辨别力的面部特征。这些构成局部特征,不受直方图应用的很大影响。原因是每个局部特征在鬼马脸上具有近似相同的几何对应。但是,当考虑到全局特征时,会出现主要的几何变化。因为当应用直方图时像素强度变化,因此导致面部轮廓、边缘和发型的清晰度增加。由于不同的全局人脸特征,不同的子空间分类器错误地将同一个人的图像解释为不同的。另一方面,一些分类器只考虑局部面部特征,这些特征足以将它们报告为同一个人。这一行为背后的原因是同一个人的两幅图像的局部成分大致相同。两个子空间分类器的矛盾结果揭示了糟糕的结果,这表明理想的分类器应该是上述子空间方法的组合。

如已经公开的,局部和全局面部特征在个人识别方面表现不同,基于线性判别分析的特征提取处理整个人脸,因为人脸的每个像素在人脸表示中起着关键作用。让我们把类内和类间的数学表示看作:

(2)

(3)

其中是类的平均值是全局类均值。

全局类均值完全取决于像素x,像素值的Te变化会减少类内之间的距离,同时增加类间散射矩阵的距离。因此,核心特性没有得到遵循。

2.3原始像素保存模型(OPPM)

这里将逐步讨论所提出的OPPM模型。第一步是找到照明方向。为此,让我们用F(x,y)表示面,其中面的大小由Mtimes;N行和列表示。最初将整张脸分为以下几列:

(4)

图1.应用直方图前后左眼部分的3times;3像素值。

其中h是可以根据数据集定义的列的大小。现在,曲线分布的权重可以计算为:

(5)

这里,W用于找到照明方向,也可以通过曲线分布绘制W来计算照明方向的可视化。现在第二步是将直方图均衡化应用于处理后的图像。下一步是根据以下参数分割面,如i)根据照明方向的面中点和ii)面的外边界。对于边缘检测,执行以下步骤:首先,使用以下数学公式将直方图均衡图像转换为六边形图像(如图2所示)。

(6)

其中原始图像fs (m,N)表示具有Mtimes;N行和列的正方形像素图像,fh(x,y)是优选的六边形图像,而h表示用于重建方法的插值核。类似地,(m,n)和(x,y)分别是原始正方形图像和期望的六边形图像的采样点。

图2 .将2D图像转换为六边形网格。

由于六角形图像具有边缘增强的继承性,所以使用六角形图像。一旦边缘被突出,下一阶段可以进行,这导致OPPM模型的边缘检测。样本边缘检测过程如图3所示。使用六边形图像的主要原因是i)用最小错误率和2)将图像分成相等的两半。

(a) (b)

图3 .边缘检测使用

a) 2D原始图像和b)六边形图像。

最后,将非照明部分之间的映射应用于面部的照明部分。这一步通常是标记面部特征点,以补偿照明部分。基本上,这最后一步是分两步进行的。首先,如图4所示,将N个面部标记应用于面部的点标记。

图4 .面上从左到右的点数。

虽然有不同的照明条件,但本文对左右两侧的灯光或黑色照明效果进行了处理。目前,将面部相对于面部中心分成两半。面部的中心位置是根据鼻尖来估计的。最后,将基准网格点从非照明线段映射到照明线段。

前述方法的优点是提供面部特征的突然且良好的分类。如上所述,随着图像增强,实际像素值由于像素亮度的增加而改变。在下一节中,将根据实验结果对建议的系统进行分析。

3.实验与分析

所提出的方法在耶鲁-商学院和CMU-派数据库等最流行的人脸数据集上进行了测试。在特征提取方面,线性判别分析和核判别分析被用来表示低维的正面人脸。在耶鲁商学院数据库[9]中,有10个不同的人,9种姿势,64种不同的光照条件。在我们的数据库中,不同照明图像的64个正面被用来代替姿势和表情,因为主要焦点是只处理照明图像。另一方面,CMU-派数据库由68个不同的主题组成,它们具有不同的姿势、光照和表情。每个受试者包含43幅照明图像和21幅闪烁的环境光。在我们的数据集中,只有43张不同光照条件的正面人脸图像用于评估。

3.1特征表示

表示特征的主要目的是使用本文提出的算法中描述的线性判别分析和KLDA子空间方法,用图形表示数据的分散性。在测试过程中,将每人30个不同样本的4名受试者的面部特征投影到子空间上。图5展示了从两种子空间方法中获得的最重要的特征基础。

图5 .面上从左到右的点数。

3.2欧几里德距离分析

在该实验中,计算从OPPM获得的输出面和原始图像之间的差异,以便分别分析两个图像之间的相似性。欧几里德距离如方程式7所示。

(7)

其中和分别是原始图像和输出图像。此外,使用相同的等式来计算和的直方图归一化。然而,原始图像和输出图像之间的差异以及光照的样本直方图归一化非常大。更具体地说,与简单直方图归一化之间的距离相比,和之间的欧几里德距离非常小。这背后的主要原因是,在OPPM算法中,非照明像素与照明像素的参考侧一起变形。直方图标准化改变了面部的颜色对比度,因此实际像素值会发生变化,从而导致图像之间的差异。

3.3实验结果

利用上述数据库评估了所提出技术的有效性。对于耶鲁大学商学院数据库的每一个主题,随机选择被照亮和未被照亮的面孔。对于不同的实验组测试,我们选择不同数量的图像,例如,从耶鲁商学院的每个人的64幅图像中选择5至10幅图像数据集。相同的过程用于CMU-派不同的图像数据集,对于其他五个不同的数据集,选择每人随机图像。在本实验中,我们分析了随着训练集数量的增加,错误接受率降低。Let:表示显示训练集数量的随机训练子集。值越大,识别率越高。表1和表2显示了每人6到10幅正面图像的不同训练集的识别率。耶鲁-商学院和CMU-派的数据库也进行了同样的实验。两个实验的图形表示如图6和图7所示。仅通过应用直方图归一化,就可以与经典的LDA和KLDA进行比较。

方法d

Exp。1

Exp。2

Exp。3

预期4

Exp。5

经典LDA

59.00 %

62.00 %

68.00 %

76.00 %

84.00 %

经典KLDA

63.00 %

69.00 %

75.00 %

82.00 %

89.00 %

OPPM·LDA

65.00 %

68.00 %

74.00 %

85.00 %

93.00 %

OPPM·KLDA

69.00 %

73.00 %

80.0

原文和译文剩余内容已隐藏,您需要先支付 30元 才能查看原文和译文全部内容!立即支付

以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。