英语原文共 55 页,剩余内容已隐藏,支付完成后下载完整资料
STOCK MARKET FORECASTING US
RECURRENT NEURAL NETWOR
基于回归神经网络的股市预测
翻译节选
第2章相关工作
金融市场预测
在过去的几十年里,金融市场预测已成为机器学习领域新的热门研究课题。借助SVM(支持向量机),前馈神经网络和递归神经网络等强大的模型,研究人员克服了许多困难,取得了长足的进步。他们的研究成果启发了我们的论在本节中,我们将介绍这些研究中的代表性研究。
财务预测简介
1996年,Yaser S. Abu-Mostafa [4]简要介绍了金融市场的预测,重点是商品期货和外汇。他解释了预测的基本原理以及财务数据的嘈杂性。选择输入,输出和错误功能的方法。
金融市场数据非常嘈杂。根据Yaser [4]的说法,“将市场视为一个接收大量信息的系统(基本面,新闻事件,谣言,何时购买等等)并产生产出?。模型,例如神经网络,
试图模拟市场,但它需要一个输入x,它只是信息的一小部分。“
图1:金融市场噪声性质的图示
Yaser提出了一种通过使用非常大的训练数据集来最小化噪声[4]的可能方法。然而,由于财务数据的非平稳性,旧数据可能表示与新数据非常不同的模式。为了克服这个困难,特别是增加训练数据集的大小,但是在相对较短的时间内限制时间长度,我们在研究中使用每小时股票价格。因此,我们每单位时间长度(一天)获得六个样本。
基于递归神经网络的金融市场预测
Nijole,Aleksandras和Algirdas探讨了不同时期和神经元数量对时间序列预测结果的影响。在他们的研究[9]中,他们的目的是研究最佳参数设置(如时期数,神经元数),以实现金融市场的良好预测结果。
表1:测试的RMSE与时间数的相关性与数据的关系
美元/日元和黄金
表1表示在递归神经网络的不同时期数设置下的RMSE(均方根误差)。获得的学习RMSE的结果列于表1中。结果表明,少数时期不提供RNN学习。RMSE对时代的依赖表明,在164个时期之后,学习过程变得稳定,并且时期的进一步增加不再受益[9]。
正如作者所声称的[9],神经元的数量是反复神经网络学习过程中的重要参数设置。尽管LSTM的结构比传统的递归神经网络复杂得多,但它是RNN的子架构,神经元的数量原理也适用于它。更大量的神经元可以产生更好的预测结果;但是,它也需要更长的训练时间。受Nijole,Aleksandras和Algirdas的研究启发,我们用不同数量的神经元设置进行了几次实验,以找出最佳配置。
用于股市预测的高效机器学习技术
金融市场预测始终是投资者的重要任务。最近,机器学习方法在这项任务中起着至关重要的作用。已经进行了各种机器学习技术;“时间序列,神经网络及其不同变化(RNN,ESN,MLP,LRNN等)和不同的混合技术(神经网络与不同机器学习技术的结合)(ANFIS,GA / ATNN,GA / TDNN,ICA-BPN) “[10]在众多方法中,除非需要预测股票价格,否则神经网络会产生最佳结果。Zahid Iqbal等人对三种神经网络结构的实验结果进行了比较。al [10],“通过比较所述技术,观察到LRNN比前馈NN表现更好,Wsmpca-NN比LRNN和NN表现更好。”在他们的比较结论中,作者声称不同的技术或神经网络结构设置是可变的,但数据预处理和后处理对预测结果产生了很大影响[10]。在我们的论文中,我们用后处理库存数据训练我们的模型。我们使用几种统计方法处理数据,而不是使用原始库存数据,将在第4章中讨论。
- 商业分析中的神经网络
几十年来,传统统计模型一直主导着对业务相关问题的分析和研究。最近,人工神经网络已经确立了它们的地位。因此,许多应用程序都使用人工
已经研究,研究和生产了神经网络到商业领域。在本节中,我们将回顾业务相关问题中的代表性应用及其为我们的研究所获得的灵感。
商业领域中神经网络应用的介绍
业务领域在定义上具有比金融市场领域更大的子类别,例如:会计,破产预测,信用,保险,营销,管理等。已经为这些类别生成了大量神经网络应用。神经网络广泛应用于商业相关问题的原因是,首先,神经网络非常适合处理不完整,丢失或噪声的数据;第二,神经网络不需要关于数据分布的先验假设,第三,它们能够映射复杂和近似的连续函数[11]。在Vellido,Lisboa和vanghan的调查[11]中,他们使用神经网络在商业相关问题中生成了详细的应用程序优缺点。
表2:神经网络应用中最常引用的优点和缺点表
基于神经网络的信用风险破产预测
在银行系统中,企业破产的预测是至关重要且广泛研究的问题,因为成功的预测与否可能直接影响银行的决策和盈利能力[12]。银行进行信用风险管理的传统方式是使用内部评级系统。该系统考虑了几个因素,如历史收益,经营现金流,利息覆盖率和杠杆率
[13].这种方法的主要问题是预测的主观方面,这可能导致同一公司在不同的银行获得各种信用评分[12]。
在Amir的研究中,引入了一套新的指标,这些指标是从公司的股票价格数据中提取的[12]。通过指标,一个意味着预测模型的输入或特征。为了试验新的新指标集,Amir开发了系统:一个没有股票价格数据,一个没有股票价格数据。实验表明,新指标系统优于旧指标,训练集为89.41%,测试集为85.50%;与训练组的84.52%和试验组的81.46%相比[12]。
在Amir的研究中,指标的组合为灭亡结果带来了惊人的效果。在Amir的论文的启发下,我们将与目标库存相关的各种功能应用为生成最佳预测结果的输入。
求解企业管理预测问题的神经网络
神经网络具有以前未通过已知示例的训练未训练的新对象的能力。此功能使神经网络可以预测过去趋势的新结果[14]。基于传统逻辑的统计或经典数学方法难以模拟业务管理问题,因为这类问题非常复杂,不确定,动态和可变[15]。业务管理问题包括市场需求预测,产品价格,项目成本流,产品质量等[15]。
在Kosa的论文[15]中,总结了三个主要步骤来构建,训练和测试预测模型:
-
-
- 第1步:选择输入和输出。在此步骤中,只有在网络过载的情况下才应选择影响输出顺序的输入;
- 第2步:收集训练数据集。每个训练数据样本包含一对向量,(? ,? ),k = 1,2,...,q,其中q是训练样本的数量,X是输入向量,Y是输出向量。所需的列车样本数量最多取决于输入和输出之间相互关系的复杂性。在
-
一般来说,训练样本越大,结果越好;
-
-
- 第3步:培训和测试。在训练过程之前,需要设计和建立神经网络。输入和输出层上的节点数等于输入和输出数据的维数。但是,隐藏层上的节点数通常取决于输入和输出相互关系的复杂性。一旦错误在指定的时间间隔内,训练过程就完成了,网络就可以进行测试了。
-
在Kosa的模型[15]中,目标是预测一个城市的公寓价格估算。公寓区域,城市区域,卧室数量,室内公寓质量和建筑年龄。阈值为5%,测试精度为85%。Kosa描述了使用神经网络解决预测或预测问题的过程。虽然本文采用递归神经网络模型,但数据准备,构建网络和训练/测试网络的一般程序是一致的。
关于LSTM的相关工作
事实证明,LSTM在处理各种问题(如语音和手写识别)方面是有效的,因为它有能力从输入中学习,即使重要事件之间存在长时间滞后。
递归神经网络非常适合处理顺序问题[16],而递归神经网络优于隐马尔可夫模型(HMM)和离散符号语法学习算法(SGLAs)[17] [18]。与RNN不同,如果发生时间延迟,HMM会忽略重要事件。即使这个问题也可以通过为每个可能的延迟引入单独的内部状态来解决,模型将变得复杂且低效[19]。此外,与RNN不同,SGLA不具备噪声输入[20]。相反,RNN在潜在的抗噪声算法中执行梯度下降,使用分布式内部存储器将输入序列映射到输出序列[19]。传统的RNN有一个主要的固有缺点,即当输入和误差之间的时间滞后增加时,输出误差的梯度基于先前的输入消失[19]。然而,LSTM可以克服这个问题,因为它可以训练跨越1000个离散时间步长的时间滞后[6]。
LSTM学习简单的上下文无关和上下文敏感语言
在Flex和Jurgen论文“LSTM循环网络学习简单上下文无关和上下文敏感语言”[19]中,LSTM网络被赋予一个输入符号
一次预测下一个可能的符号。如果下一个可能的符号包含多个元素,则预期所有符号都被预测。根据Flex和Jurgen [19],“符号由d维二进制向量本地编码,只有一个非零分量,其中d等于语言符号的数量加上输入中的起始符号或”结束符号“字符串“符号在输出中。”三组样本经过培训和测试,
cfl a'b':
图2:CFL?'?'数据集图示
cfl a'b$B$A':
图3:CFL?'?$?$?'数据集图
csl a'b'c':
图4:CSL?'?'?'数据集图
本文使用了具有单输入和输出的三层LSTM模型[19]。该模型具有单个LSTM存储块和单个单元,仅使用一个隐藏层。
图5:三层LSTM
对于所有CFL?'?',CFL?'?$?$?'和CSL?(LSTM模型),基于对三个样本[19]的测试,LSTM模型优于传统RNN模型。 TF356)?'?'样本,LSTM 100%求解所有训练集。当训练集有10个样本用于CFL?'?'时,LSTM模型甚至可以生成n = 1000组。
-
- 使用LSTM的行动分类
Moez,Franck,Christian,Christophe和Atilla使用LSTM提出了没有先验信息的足球动作分类[21]。他们的模型大纲如下所示。输入是具有一组特征的描述符序列,每个样本代表一个图像。输入序列转发到LSTM网络,LSTM根据给定的输入生成动作类型[21]。
图6:动作分类模型
在他们的研究[21]中,已经测试了各种网络设置配置,并且他们认为大量LSTM存储器块导致过度拟合,而少量存储器块导致分歧。发现150个LSTM神经元是该任务的最佳配置。
图7:动作分类结果
结果表明LSTM优于KNN和SVM模型。使用不同的输入功能配置,结果会有所不同。采用BoW和主导运动时,该模型的最佳精度达到92%。在我们的研究中,我们还在各种网络配置下测试我们的模型,以避免过度拟合或发散,但产生最佳结果。
第3章方法
概观
拟议模型的轮廓如下所示。原始库存数据仅包含特定时间点的开盘价,最高价,最低价,收盘价和交易量,不足以培训LSTM模型。在将输入转发到网络之前,我们将原始库存数据预处理为包含竞争对手股票和索引信息的369个特征。然后,处理后的样本被顺序转发到LSTM模型中。顺序的样本数是通过时间收回的最大反向传播步骤数。有关预处理的详细信息将在第5章中讨论。
图8:本文提出的分类大纲
目的是根据当前时间给出的信息预测未来三小时的目标库存表现。根据未来三小时的最高价格与当前小时开放的比例增加来评估未来的表现
价钱。并且性能可以分为三类:增加0%~1%,增加1%以上,不增加(小于0%)。
训练具有长短期记忆模型的递归神经网络(RNN)将股票未来表现分为三类。LSTM-RNN模型的详细信息如下所示。
图9:LSTM-RNN模型结构
我们在RNN模型中应用了一个LSTM块;输入图层后面有一个隐藏图层,输出图层前面有一个隐藏图层。我们还测试了这两个隐藏层中神经元数量的各种配置,以生成最佳性能设置。有关不同配置如何影响实验结果的详细信息将在第5章中介绍。
LSTM
LSTM块的初始版本由Sepp和Jurgen在1997年引入[6]。LSTM的结构如下所示。
图10:1997年引入的初始LSTM模型的架构
Sepp和Jurgen将存储器单元和门单元引入RNN网络。恒定误差卡鲁塞尔(CEC)是LSTM的关键特征。该单元通过独特的自连接单元实现恒定误差,而没有天真方法的缺点[6]。输入门可以控制何时保持或覆盖存储器单元中的信息,输出门可以决定何时访问存储器单元中的存储器[6]。
在这项研究中,我们使用LSTM和Felix,Jurgen和Fred [22]引入的遗忘门。扩展LSTM结构的结构细节如下所示。
图11:具有遗忘门的LSTM的结构
与初始LSTM相比,具有遗忘门的LSTM具有一个额外的结构:忘记门。忘记门使LSTM能够重置自己的状态[23]。实际实现对应于从[23]改编的以下算法:
块输入单位:
其中g是逻辑sigmoid,W是从输入到z的权重矩阵;x是当前步进输入;R是从前一步骤的输出到z的权重矩阵,b是偏置矢量。
输入门单元:
其中sigma;是逻辑sigmoid,W是从输入到i的权重矩阵;x是当前步进输入;R是从前一步骤到i的输出的权重矩阵;b是偏向量。lt;
剩余内容已隐藏,支付完成后下载完整资料
资料编号:[442222],资料为PDF文档或Word文档,PDF文档可免费转换为Word
以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。