基于神经网络的单元承诺调度短期负荷预测外文翻译资料

 2022-05-23 21:15:23

英语原文共 6 页,剩余内容已隐藏,支付完成后下载完整资料


基于神经网络的单元承诺调度短期负荷预测

摘要

由于放松管制,今天的电力行业正在经历许多根本性的变化。在新的市场环境下,电力系统运营将变得更具竞争力。为了有效地运行他们的系统,公用事业公司必须执行最佳规划。未来负荷预测的准确性变得至关重要。 本文介绍了基于人工神经网络的短期负荷预测(STLF),用于单元承诺调度和资源规划。根据目标公用事业系统的负荷特性,仔细调整网络结构以获得令人满意的预测结果。 结果表明,ANN预报器可提供更准确的结果,并可进行修改以满足目标公用事业的要求。

引言

在电力系统行业重组阶段,传统的垂直一体化公用事业环境不可避免地发生了变化。它有助于协调发电和地区交换以满足负荷需求。 它还有助于安全评估,动态状态评估,负载管理和其他相关功能。在过去的几十年中,已经提出了各种短期负荷预测方法。这些方法从简单的回归和外推到高度计算密集和复杂的衰落记忆卡尔曼滤波和基于知识的系统的方法。近年来,人工神经网络(ANN)已被应用于电力系统中的短期负荷预测。 时间序列模型和天气依赖模型都被用于基于人工神经网络的短期负荷预测。

本文提出了一种利用人工神经网络的短期负荷预测方法。 多层前馈(MLFF)神经网络和反向传播学习算法已用于预测次日负载。所提出的方法分两个阶段工作。 在第一阶段,24小时交付时间的负荷预测将用于单位承诺,发电计划等。在第二阶段,使用最新的负荷值和预测中的错误来细化下一小时预测。对神经网络的输入仅基于过去的负载数据,并且以这样的方式进行启发式选择,即它们固有的反映了所有主要组件,例如趋势,天的类型,负载形状以及影响系统负荷的天气 。

负荷预测问题是一个泛化问题,因为预计神经网络可以正确预测输入的输出,这些输入与通过训练学习的输入输出集不同。因此,非常接近地学习所有训练样例的网络在许多情况下可能在预测中表现更差,因为学习示例的“过度拟合”。

人工神经网络

近年来,人们越来越多地将人工神经网络用作解决复杂问题的替代范例。人工神经网络是可估算输入输出函数的可训练动态系统。这是他们学习的样本数据。 由于人工神经网络不使用描述输入输出关系的任何数学模型,相同的人工神经网络结构和动力学可以应用于各种各样的问题。

图1 人工神经网络

人工神经网络中的神经元可以看作是简单的处理元素(PE)。 图1中显示了神经元作为PE的常用表示。PE可以在各种网络拓扑中互连,并且可以为了各种目的而被全局编程(训练),例如,模式识别,组合优化,其形式未知的采样函数的估计等。取决于各种网络拓扑,激活函数和学习策略,已经开发了大量的ANN架构。例如,多层前馈网络(MLFFN),递归神经网络(RNN),自适应共振理论网络(ARTN),Kohonen网络(KN)等。

从图1可以看出,每个PE执行两个函数:将加权输入信号与PE相加,并且产生作为加权和的函数的输出。因此,PE具有以下两个重要特征:(a)PE只需要本地信息。 PE生成输出所需的所有信息都可以在其输入端获得并驻留在PE中。 有关网络中其他值的信息不是必需的。(b)PE只产生一个通过互连链路传输到其他接收PE或作为网络输出的输出值。

这两个特质允许ANN的PE并行运行。 PE生产的产出是加权投入总和的函数。PE函数(也称为激活函数或压缩函数)将有界输出信号中的无界激活(加权输入的总和)映射为映射。 在无限数量的可能的PE函数中,通常优选S形或双曲正切函数。线性函数不是首选,因为线性函数不会抑制噪声。 非线性增加了计算的丰富性并且有助于抑制噪声,但同时也引入了计算困难性和动态不稳定性。单调连续非线性函数似乎是本质的折衷。 大多数生物神经元具有S形信号特征。

设计多层前馈网络(MLFFN)

下面简要讨论设计MLFFN的一些基本问题,例如选择隐藏层的数量,输入神经元的数量,输出神经元和隐藏层神经元的数量。

选择隐藏层数量

在MLFF网络中,最重要的配置问题之一是选择最佳数量的隐藏层。 已经证明,在MLFF网络中使用齐次Sigmoidal输出函数,一个隐含层足以计算输出的任意决策边界,并且两个隐含层足以计算输出的任意输出函数。大量的实证测试表明,对于简单的应用,使用两个或更多隐藏层对比于单个隐藏层上没有明显的优势。

选择输入和输出神经元的数量

在MLFFN中,输入层中的神经元不是神经元,它们作为简单的输出设备,不做任何处理将输入传递给下一层(隐藏层)中的各种神经元。因此,输入层神经元的数量由输入向量中的标量数决定。 由于每个神经元只提供单个输出,因此输出层中所需的神经元数将等于输出向量中的标量数。

选择隐藏层神经元的数量

选择隐藏层神经元的最佳数量可能是设计MLFFN配置中最有趣和最具挑战性的方面。

已经发现,由于神经元数量太少,网络无法创建复杂的决策边界,因此会在训练期间产生收敛困难。而太多的神经元会产生决定边界,这可能完全封装训练点,因此,ANN将失去其泛化能力。考虑到这些点,建议在单隐层MLFFN中获得最佳神经元数的良好起点是与输入和输出层神经元的数目的几何平均数的最接近的整数,即

其中p是隐含层神经元的数量,n是输入神经元的数量,q是输出神经元的数量。

已经发现,对于泛化问题,隐藏层神经元p的最佳数量通常接近该值并且可以在几个试验中找到。

后向传播(BP)学习算法

人工神经网络从经验中学习或适应。人工神经网络中的学习意味着根据采样数据改变其参数。学习方法决定了在提供新样本(经验)时系统参数如何变化。在可用的不同学习方法中,它是基于误差反向传播学习算法的监督学习方法,其是MLFFN中最普遍和最普遍使用的误差反向传播学习算法。实际上,许多采用反向传播学习算法的MLFFN甚至被称为反向传播网络。 尽管后向传播算法受到很多限制,例如:(i)其收敛性不能保证,并且可能会收敛到局部最小值,(ii)在很多情况下需要非常大量的训练周期(迭代),最多10,000个周期。

尽管有这些限制,误差反向传播仍然是最受欢迎的MLFFN学习算法,主要是因为它的计算简单,易于实现,并且通常在许多不同应用领域中获得了大量问题的良好结果。BP学习算法根据每层PE的期望值和计算值之间的差异成比例地调整PE之间的连接权重。

自适应BP算法

已经发现,将与前一次体重变化量成比例的动量项与体重调整量相加可以显着提高训练时间和t以及过程的稳定性。 BP算法的权重调整等式由下式给出

其中wij是层m中的神经元i与层m 1中的神经元j之间的连接权重,eta;是学习系数,alpha;是称为动量系数的常数。 动量项有助于平滑连续平方误差曲面之间的局部曲率,从而改善BP学习算法的收敛特性。

学习系数和动量系数对BP算法的学习速度有非常显着的影响。大数值的学习率会导致更快的收敛,但使网络振荡。而小的学习系数值可以稳定这个过程,但会导致收敛速度变慢,并增加网络的易受攻击性,从而陷入局部最小值。类似地,当连接权重以正确方向更新时(即,当误差正在减少时),动量系数的增加将会改善收敛性。 另一方面,如果更新方向错误(即,相对于先前的迭代,误差增加),应该减小动量系数的值。基于这种方法,自适应BP学习规则已经制定如下:

E A(k)是第k个时期的平均总和平方误差。

该算法从学习系数的大初始值开始并随着学习的进行而逐渐减小。 为了减少在学习后期陷入局部极小值的网络易感性,规定了学习系数的最小值,并且学习系数不低于这个值。

基于人工神经网络的短期负荷预测的实现

基于人工神经网络的预测模型的实现包括两个阶段:(i)发展人工神经网络模型及其学习和测试 - 这是一个脱机过程; (ii)在线过程中,训练的人工神经网络同时开发 - (i)用于预测日常运行中的负载。

负载数据的预过滤

可用的原始负载数据可能包含由于测量错误,数据输入中的人为错误,通信故障等造成的错误。预过滤的目的是检查有效性并纳入更正。需要保持数据的一致性。 数据集中的错误可以通过限制检查,签名检查,与过去数据的比较,统计分析等来检测。在本文中,采用的预过滤方法如下:发现负载数据是周期性的,周期为168小时(一周)。找到数据集中所有星期的每个168小时数据的平均值和标准偏差,并根据该平均值检查每小时数据。 任何数据超过5 std。 该小时的平均值偏差被平均值代替。

缩放输入和输出数据

如果直接使用实际的小时负载数据,神经网络的输入和输出变量将具有非常不同的范围。 这可能会导致学习过程中的收敛问题。为了避免这种情况,输入和输出负载数据被缩放,使得它们在范围内(0,1)。 为此目的,使用以下关系来缩放实际负载。

其中:L 为实际负载;Ls为用作网络输入的比例负载;L max为最大负载(峰值负载的1.5倍);L min 为最小负载(谷值的0.75倍负载)。

注意:L max和L min的选择是这样的,在任何情况下L都不会超过1.0或小于0.0。 它还确保了大部分数据的激活函数斜率最高时的值接近0.5。

多层前馈网络

所使用的MLFF网络是具有一个输入层,一个输出层和一个隐藏神经元层的三层前馈结构。 通过反复试验发现隐藏神经元的最佳数量,这是输入和输出层神经元数量的几何平均数的最近整数。

输入变量的选择

在开发基于人工神经网络的负荷预测模型中最重要的工作是选择输入变量。没有一个通用规则可以用于此目的。它在很大程度上取决于工程判断和经验。 使用自相关因子,发现负荷数据显示与前一天(同一天类型)相同的小时负荷和前一周同一天的同一小时负荷具有非常高的相关性。因此,对于每小时负荷预测,使用两个输入:前一天(同一天类型)的相同小时负荷和前一周同一天的同一小时负荷(即48个输入用于24小时负荷预测)。

多层前馈网络模型

单个网络可用于预测24小时负载。 但是这样的网络会很大(48个输入神经元,34个隐藏层神经元和24个输出神经元),并且需要大量时间进行训练。 通过将24小时负荷曲线分成四个或五个5至6小时的更简单形状的段(具有增加的负荷或减小的负荷的段)可以简化问题。 这需要培训更多的人工神经网络,但这大大减少了总训练时间。

仿真和结果

测试系统

所建议的基于MLFFN的STLF模型的性能使用以下系统的小时负载数据进行测试:

  1. 塔塔电气公司。
  2. IEEE 24总线可靠性测试系统
  3. CESC系统。

这三个系统的日负荷模式有很大不同。对负荷数据的详细分析表明,每周(周一至周五)的日负荷模式与每个负荷模式相似,但与周末的负荷模式大不相同 (星期六和星期日)和假期。 因此,每个系统的负载数据分为两组:正常工作日和周末及假期。两组的数据分开处理。

监督学习

从每小时加载数据为每个系统组织输入输出数据集。 每个数据集分为训练集和测试集数据。 表1列出了训练和测试集数据(特定小时)的详细信息。

表1 培训和测试集数据的详细信息

学习系数和动量系数

对于自适应BP学习算法,eta;和alpha;的起始值选择为eta;= 0.95和alpha; = 0.9,而alpha;根据(4)每个时期改变,eta;的值根据(3)在每五十个时期后改变。 为了确保良好的收敛速度,将alpha;限制在0.25 le;alpha;le;0.99的范围内,并且将eta;限制在0.7(即,eta;min = 0.7)。

通过使用未包含在训练集中的负载数据的示例测试集,在学习算法中引入了检测过度拟合模型到过拟合模型的转换点的停止标准。每10次迭代之后学习算法ANN是用测试集数据进行测试的。最初,训练集和测试集示例的拟合误差随着学习算法的迭代而不断下降,但是在某些时候,测试集示例的拟合误差达到最小值并开始增加或者随着学习算法迭代次数的增加而不会提高(图2)。例如,拟合测试误差的最小值代表了从模型的拟合到拟合过程的转换,因此当达到测试集的最小误差时停止学习算法(段2的CESC平日负荷预测的940次迭代)。

图2 训练集和测试集示例的拟合误差

泛化属性

为了更详细地测试MLFF网络的分散性(外推和非平衡能力),将CESC系统中平日一年的负荷数据分为四组。 使用这些数据组制备了四种不同的训练和测试组。 泛化能力的结果如表2所示。结果表明训练的MLFFN能够很好地执行插值和扩展。 所有情况下的平均误差均小于3%,只有少数流浪病例的误差超过5%。 网络的外插能力是特别令人感兴趣的,因为它表明即使对于没有学习的那些例子(即,不是来自训练集域的例子),网络也可以运行良好。

表2 泛化能力

预测能力:阶段1

通过分离训练网络(非周末和周末),MLFFN的预测能力得到证实。每天的负荷曲线被分五段,并且分离的人工神经网络使用每一段的数据进行训练。训练完这些网络后,使用测试集数据对其预测能力进行测试。

预测能力:阶段2

在获得24小时负荷预测后,在第二阶段对下一小时的修正使用前两个小时的预测误差进行。这考虑到了由于天气影响等引起的负载变化。对于每个小时的这个单独网络,用两个输入神经元,两个隐藏层神经元和一个输出神经元来训练。表3给出了第二阶段预测后的测试结果。 结果表明,所有情况下的平均%误差小于2%,并且仅在一些杂散情况下误差超过3%。 图3和图4显示了两个预测阶段的结果。 它表明尽管第一阶段预测相当准确(误差为-2.5%),但在第二阶段进一步校正后约为1%

表3 第二阶段预测后测试结果

图3

图4

网络生活

一旦人工神经网络训练完毕后,他们的比重就会被冻结,然后用于负荷预测。 为了找出它们的有用寿命(即,这些训练过的网络可以在不需要再训练的情况下使用多长时间),训练的MLF

全文共5917字,剩余内容已隐藏,支付完成后下载完整资料


资料编号:[11886],资料为PDF文档或Word文档,PDF文档可免费转换为Word

原文和译文剩余内容已隐藏,您需要先支付 30元 才能查看原文和译文全部内容!立即支付

以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。