CMA演进策略:教程
关键词:正定矩阵,正态分布,黑盒优化,协方差矩阵
命名法
我们采用通常的向量表示法,其中粗体字母v是列向量,大写粗体字母A是矩阵,A的转置由vT表示。使用的缩写和符号的列表按字母顺序给出。
ES进化策略:
(micro;- law /micro;- law {I,W}, lambda;)-ES,以mu; - law亲本为亲本的进化策略,以所有的mu; - law亲本(中间或加权)和lambda;后代为亲本的进化策略。
希腊符号:
lambda;ge;2,种群大小,样本大小,后代数量,见(5)。micro;le;lambda;父数量,数量的(积极的)选择搜索点的人口数量的严格正面复合权重,(6)。micro;eff =pi;= 1micro;wi2 ?minus;1,方差有效选择质量的意思是,看到(8)。Pwj =我lambda;= 1 wi,和所有的重量,注意wile;0我gt;micro;,参见(30)和(53)。P |wi| = Pmicro;i=1 wi =1,所有正权值之和。P |wi|minus;=minus;(Pwjminus;P |wi| ) =minus;Plambda;i=micro; 1 wige;0,减去所有负权重之和sigma;(g)isin;Rgt;0,步长。拉丁符号:Bisin;Rn,是正交矩阵。B的列是单位长度C的特征向量,对应于D的对角元素。
C(g)isin;Rntimes;n,第g代的协方差矩阵。cii, C的对角元素。cc le;1时,协方差矩阵秩一更新的累积学习率见(24)、(45)和表1。c1 le;1minus;cmicro;为协方差矩阵更新的秩一更新的学习率,见(28)、(30)、(47)和表1。cmicro; le;1minus;c1(16)、(30)、(47),以及表1。csigma; lt; 1,步长控制的累积学习率见(31)、(43)和表1。Disin;Rn,是一个对角矩阵。D的对角元素是C的特征值的平方根并且对应于B的相应列。di gt; 0,对角矩阵D的对角元素,D2i 为C. dsigma;asymp;1的特征值,步长更新的阻尼参数见(32)、(37)、(44)。E期望值f: Rn→R, x 7→f(x),目标函数(适应度函数)最小化。fsphere: Rn→R, x 7→kxk2 = xTx = Pni=1 xi 2。gisin;N0,生成计数器,迭代次数。Iisin;Rntimes;n,单位矩阵,单位矩阵。m(g)isin;Rn, g代搜索分布的均值。nisin;n,搜索空间维数,见f。
N (0, I),均值为零,协方差矩阵为单位的多元正态分布。一个按N (0, I)分布的向量有独立的(0,1)正态分布分量。N (m, C) ~ m N (0, C),均值misin;Rn,协方差矩阵Cisin;Rntimes;n的多元正态分布。矩阵C是对称正定的。Rgt;0,严格正实数。pisin;Rn,进化路径,一个连续的(规范化的)步骤序列,该策略需要经过若干代。wi,其中I = 1,hellip;。, lambda;,重组权重,见(6)(16)和(49)-(53)。
x(g 1)kisin;Rn, g 1代的第k个后代/个体。我们也将x(g 1)作为搜索点,或对象参数/变量,常用的同义词是候选解决方案,或设计变量。(g 1) xi:lambda;, x(g 1) 1中第i个最佳个体,hellip;, x(g 1)lambda;,见(5)。索引i:lambda;表示第i位个体的索引,f(x(g 1) 1:lambda;)le;f(x(g 1) 2:lambda;)le;···le;f(x(g 1)lambda;:lambda;),其中f是要最小化的目标函数。Y (g 1)k = (x(g 1)kminus;m(g))/sigma;(g)对应于xk = m sigma;yk。
概述
本教程介绍了CMA进化策略(ES), CMA代表协方差矩阵适应。1 CMA-ES是一种用于非线性非凸函数的实参数(连续域)优化的随机或随机方法(参见第0.3节)。我们试图从直观的概念和连续域非线性、非凸搜索的要求中激发和推导出算法。要获得一个简洁的算法描述,请参阅附录a。附录C给出了相应的Matlab源代码。在我们开始介绍第1节的算法之前,先总结几个必需的基本原理。
1、正定矩阵的特征分解:
对称正定矩阵Cisin;Rntimes;n的特征是:对于所有xisin;Rn{0}, xTCx gt; 0。矩阵C有一个特征向量的标准正交基,B = [B1hellip;hellip;bn,对应的特征值,d21,hellip;d2n gt; 0。这意味着对于每个bi 持有从(1)得到的重要信息是特征向量没有被c旋转。这个特征唯一地区别了特征向量。因为我们假设正交特征向量是?单位长度的i = j = 1, bi Tbj = delta;ij =, BTB = i(否则显然是0)Bminus;1 特征向量的一组基是实用的,因为对于任意ypvisin;Rn,我们可以找到系数alpha;i,使v = P I alpha; ibi,然后我们得到Cv = id2 I alpha; ib I。C的特征分解服从B是一个正交矩阵,BTB = BBT = i。B的列构成特征向量的一个标准正交基。D2 = DD = diag(d1hellip;hellip;dn)2 = diag(d21,hellip;d2n)是一个具有特征值的对角矩阵。D =诊断接头(D1hellip;hellip;dn)是一个以C的特征值的平方根为对角的对角矩阵矩阵分解(2)是唯一的,除了B的列的符号和B和D的列的排列2 分别,给定所有特征值都是不同的。3给定特征分解(2),逆Cminus;1可以通过
虽然针对多目标优化和精英变量的CMA变体已经被提出,但本教程只专注于单一目标优化和非精英截断选择,也称为逗号选择。给定m个特征值相等,它们的m维子空间的任何标准正交基都可以用作列向量。对于mgt; 1,有无限多个这样的基。
N 0,sigma;2吗?
图1:六个不同正态分布的等密度-sigma;线的椭球,其中sigma;isin;Rgt;0, D为对角矩阵,C为正定全协方差矩阵。细线描述可能的目标函数等高线
从(2)我们自然地将C的平方根定义为
2、多元正态分布
多元正态分布,N (m C),有一个单峰,“钟形”密度,在贝尔的顶部(模态值)对应于分布的意思是,m, N分布(m C)是唯一由其意味着misin;Rn和对称正定协方差矩阵Cisin;Rntimes;N。协方差(正定)矩阵有一个吸引人的几何解释:它们可以唯一地被(超)椭球{xisin;Rn | xTCminus;1x = 1}标识,如图1所示。椭球是分布密度相等的表面。椭球的主轴对应于C的特征向量,轴的平方长度对应于特征值。特征分解表示为C = B (D) 2BT(见第0.1节)。如果D = sigma; i,其中sigma;isin;Rgt;0 I表示单位矩阵,C = sigma;2和椭球是各向同性的(图1,左)。如果B = I,则C = D2 是一个对角矩阵,椭球是轴平行定向的(中间)。在B列给出的坐标系中,分布N (0, C)总是不相关的。
正态分布N(m,C)可以写成不同的形式。N (0, I)产生一个球形(各向同性)分布,如图1(左)所示。D在坐标轴内缩放球面分布,如图1(中)所示。DN (0, I) ~ vidindividual) n0, Dstep-size
3、随机化黑盒优化
我们考虑黑盒搜索场景,在这个场景中,我们希望最小化目标函数。目标是找到一个或多个搜索点(候选解),xisin;Rn,函数值f(x)尽可能小。我们没有说明寻找全局最优的目标,因为这在实践中往往既不可行也不相关。黑盒优化是指在f上仅可访问已求值的搜索点函数值的情况。4.要求值的搜索点可以自由选择。我们将搜索代价定义为执行函数的求值次数,换句话说,就是我们需要从f中获取的信息量 5.任何性能度量都必须考虑搜索成本和实现的目标函数值。6.随机黑盒搜索算法如图2所示。在CMA的演变中搜索分布P是一个多元正态分布。给定所有的方差和协方差,在R中,正态分布的熵是所有分布中最大的n.此外,坐标方向没有任何区别。这两者都使正态分布成为随机搜索的特别有吸引力的候选者。
随机搜索算法被认为在崎岖的搜索环境中是稳健的,这可能包括不连续,(尖锐)脊,或局部最优。特别设计了协方差矩阵自适应(CMA)来处理病态和不可分问题7 问题。
4、Hessian和谐方差矩阵
我们考虑凸二次目标函数fH : x 7→ 21 xTHx,其中Hessian矩阵Hisin;Rntimes;n是正定矩阵。给定一个搜索分布N (m, C), H与C的关系密切:设置CP = Hminus;1对fH相当于优化各向同性功能fsphere (x) = 2 1 x Tx = 21 ix2我和C = I.8 (whereH =我),在凸二次目标函数,设置搜索分布的协方差矩阵逆海赛矩阵等价于椭球函数尺度改变成一个球形。因此,我们假设最优协方差矩阵等于逆Hessian矩阵,直到一个常数因子。此外,选择一个协方差矩阵或选择搜索空间(即x)的一个相应的仿射线性变换是等价的[10],因为对于任何满秩n times; n矩阵a,我们找到一个正定Hessian,协方差矩阵适应的最终目标是接近目标函数f的等高线。对于凸二次函数,这相当于近似逆Hessian矩阵,类似于准牛顿方法。
在图1中,右图中的实线分布最适合地遵循目标函数的轮廓,很容易预见,它将最有助于接近最优。正定矩阵a的条件数通过欧几里德范数定义:cond(a) def= kAk times; kAminus;1k,其中kAk = supkxk=1 kAxk。对于正定(Hessian或协方差)矩阵a持有kAk = lambda;max 和cond(A)。
边界和约束
边界和约束的处理在一定程度上依赖于问题的扩展。我们讨论了一些原则和有用的方法。严格可行域内的最佳解如果最优解不是太接近不可行的域,一个简单和充分的方法来处理任何类型的边界和约束是
1.将适应度设置为fmax 是否大于可行总体或可行域的最坏适应度(在最小化的情况下)和xfeasible 是一个常数可行点,最好在可行域的中间。
(61)
2.对任何不可行解x重新采样,直到它变得可行。修复可用,例如与框约束。在应用更新方程之前,可以对不可行的个体进行简单的修复。不建议这样做,因为CMA-ES对解决方案点的分布做了隐式假设,这可能会被修复严重违反。主要的问题可能是散度或步长收敛过快。然而,在更新中使用的改变或注入的解决方案(重新)修复似乎解决了散度[14]radic;的问题(clippingn 2n/(n Mahalanobis 2)似乎距离足够)。的注意步骤也长度,以修复服从机制kxminus;mksigma;可能2cle;是复杂的实现,特别是如果y或z用于实现的更新方程在原始代码。
我们在修复的搜索点x上评估目标函数repaired,并根据修复的解决方案的距离增加惩罚。
修理后的解决方案被忽略了。
(62)
对于框边界,xrepaired 是否设为距离kxminus;x最小的可行解repaired换句话说,将x中不可行的分量设为x中(最近的)边值repaired.在[18]中描述了一个类似的基于组件自适应alpha;的边界处理。
不可行搜索点x的适应度可以类似地计算到在那里,w.l.o.g。,(非线性)约束i : Rn→R, x 7→ci(x)满足ci(x)le;0,指示函数为11cigt;0 等于1i(x) gt; 0,否则为0,foffset =值kf (xk)等于,例如,中间值或25%-tile或同一代可行点的最优函数值。如果没有其他资料,ci(x)可以计算为x与总体中最佳或最接近可行解或已知最接近可
剩余内容已隐藏,支付完成后下载完整资料
英语原文共 40 页,剩余内容已隐藏,支付完成后下载完整资料
资料编号:[596072],资料为PDF文档或Word文档,PDF文档可免费转换为Word
以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。