神经网络在信贷风险评估中的应用——基于罗马尼亚市场的论证外文翻译资料

 2022-07-13 20:29:20

英语原文共 17 页,剩余内容已隐藏,支付完成后下载完整资料


神经网络在信贷风险评估中的应用——基于罗马尼亚市场的论证

摘要:本文的目的是了解如何将神经网络用于信用风险评估问题。为此,首先介绍了神经学的主要理论概念,并介绍了主要训练算法——误差反向传播算法(BP)的基本原理。我们对专业文献进行回顾,发现神经网络的结果与其他分类技术,如多元判别分析或逻辑回归等相比较能够更好的应用于信用风险评估问题中。我们关注的是几种类型的网络:具有多层的前馈网络,模糊的自适应网络,支持向量机。我们对罗马尼亚的中小企业(财务比率)进行了分析,结果与文献的发现一致:神经网络的结果优于逻辑回归。该研究可以通过分析支持向量机或模糊适应网络来充实。

关键词:神经网络、信用风险、网络训练算法。

引用这篇论文的内容应当按照如下格式: Stoenescu Cimpoeru, S. 2011. Neural networks and their application in credit risk assessment. Evidence from the Romanian market. Technological and Economic Development of Economy 17(3): 519-534

JEL分类: C45, G32.

1.引言

从80年代开始,人工智能(AI)技术已经越来越多地用于预测违约和识别客户的风险类别。神经网络是人工智能技术的一部分,已经被用于各种各样的金融和经济问题,如:识别/分类问题(评估信用风险、有价证券分类、破产预测)。系列预测问题,类似预测股票的价格指数,预测一个投资项目的利润等。

Vellido 等(1999)针对不同的财务和经济问题,对神经网络的利用进行了比较研究。该研究归属于1992年至1998年期间,根据作者的观点,应用神经网络的统计学背景已经发展为一种实用的、基于原则的方法论。所引用的文章主要是分析决策问题,其中还包括信用风险的评估和破产事件的预测。

从Vellido 等(1999)的研究中我们发现了神经网络的主要优点和缺点。首先,我们注意到,在已有的研究中,神经网络的优点比缺点更常被引用。研究中提到的主要优点是:成功地应用神经网络来完成不完整的数据集;神经网络由不需要先验的概率分布假设的非参数的方式组成;神经网络具有转换任何非线性的能力,不管它们有多复杂。Refenes(1994)认为,神经网络技术应该被不断普及,而不能被看作是信用风险建模技术演进的一个临时步骤或阶段。

所有研究中唯一的缺点是神经网络的“暗箱”方法,它不允许对网络产生的某个输出的决策规则的了解。作为“暗箱”系统的结果,一个人不能根据其相关性创建输入变量的层次结构,也不能根据确定所提到模型的规则集来选择不同的模型。

评估公司信用风险的传统方法主要基于信用风险管理人员的经验。这意味着信用过程的某种主观性。考虑到经营环境的动态性,信用管理人员的任务变得越来越复杂。在这种情况下,使用计算机程序来评估信用风险已经变得重要。自上世纪90年代末,神经网络技术已被应用于计算机程序,用于评估金融机构投资组合的信用风险。作为涉及神经微分学的银行所使用的程序,我们提到了由美国大通曼哈顿银行(现在的J. P. Morgan)和宝瓶公司实施的信用观,这是一家专门从事抵押贷款业务的公司。

文章的结构如下:在第2部分中,我们介绍了神经学的主要概念(神经网络的元素,网络结构的类型);在第3节中,我们回顾了学习规则和训练算法,在第4节中我们解释了感知器的概念以及错误反向传播网络的主要思想;第五节回顾在信用风险评估问题中应用神经网络的专业文献;我们提出了多种类型的网络:有多个层的前馈网络,模糊自适应网络,支持向量机。最后,在第六部分中,我们对罗马尼亚的中小企业(财务比率)进行了分析,结果表明,神经网络比逻辑回归的结果更好。

2.在神经学中使用的主要概念:网络体系结构

神经网络是一个学习系统机制,由简单的神经元模型组成,在学习过程中,修改它们的内部参数,目的是执行某一任务。

神经网络的目的是将某个输入配置转换到输出配置中,网络的输出可能对应于网络所做的动作。神经网络实现的主要任务是:分类、模式识别、预测。通常,输出可以是输入空间的任何转换,因此网络是投影的结果,是输入向量转换到输出空间的结果。对神经网络的全面概述可以在Michie(1994)的研究中找到。

构成神经元的元素如下:突触连接的集合和激活函数。每一个突触连接都有一个权重;与神经元相关的信号与权重相乘,权重决定了信息的类型和信息的强度。实际上,在权重的集合中包含了网络用来完成任务的信息。输入和权重的线性组合表示为:

表示输入信号的评估以及激活函数的输入值。

激活函数用一个a(bull;)表示,通过应用这个函数,我们限制了的可能值。在应用激活函数后,我们得到了神经元的输出,有多种类型的激活函数: 线性函数,s型函数(如双曲正切函数),信号函数等。

按照Haykin (1999),神经网络有三种可能的体系结构。首先,有一层神经元的前馈网络,前馈网络假定从一层神经元到另一层的连接只允许在一个方向上。这种网络也被称为“a-周期性网络”,因为没有反馈循环。单层网络是分层网络最简单的形式:只有一层输入节点和输出节点层。第二种类型的网络架构是多层的前馈网络,在这种情况下,有一个或多个隐藏的神经元层。增加神经元的隐藏层的目的是为了实现其任务的准确性。输入层中的源节点作为激活函数的输入值——激活函数的结果表示第一个隐藏层的神经元的输入,如此一直持续到神经元的最后一层。最后一种类型的网络体系结构是循环网络,它允许在层之间存在向后和向前的连接。

3.网络训练bull;学习类型

神经网络学习规则是学习算法的基础。我们提出了三个最受欢迎的训练规则。我们从误差反向传播学习规则(即BP)开始,这是为前馈网络开发监督训练算法所使用的最常见的规则。

在网络的环境中,网络的输出与期望或目标输出相比较,用这些符号表示,错误信号是:

我们的目的是最小化错误,或者用数学语言描述是方程最小化

这个训练规则比“delta规则”或“Widrow-Hoff规则”更为广人所知。delta规则可以写成:

另一种训练规则是基于记忆的训练。所有或几乎所有过去的经历都保存在正确的分类中。基于此规则的所有训练算法都从两个基本元素开始:定义测试向量的邻元素的标准,以及应用于测试向量的本地邻元素的训练集的训练规则(例如:k最近的邻元素规则,等等)。

1985年, Rumellhart 和 Zipser提出了新的训练规则,竞争学习。正如它的名字所暗示的,当应用这一规则时,神经元“相互竞争”以使其变得活跃。只有一个神经元会被激活。因此,网络中的每一个神经元都擅长识别相似的物体。这种学习概念在无人监督的训练算法中被使用,也被称为集群算法。

对于网络的训练算法,我们有两种重要的算法类别:“有老师”和“没有老师”的训练。在第一种情况下是有监督学习,而在第二种情况下:无监督学习和强化学习。这三大类算法都假定:

监督学习-这类学习主要用于分类问题;分类组是已知的,并且有一组正确分类的对象用于训练网络(因此,与老师学习的想法);

无监督学习-在这种情况下,分类不被了解,也没有一组正确的分类案例(“没有老师”的方法);

强化学习-这是一种特殊的学习方式,它涉及使用奖励作为网络反馈的功能。

4.感知器bull;误差反向传播算法( error-back propagation algorithm)

监督学习假设网络接收到足够数量的输入-输出对的例子。网络使用这些正确分类的对象来调整它的突触权重,因此网络的训练就发生了。训练完成后,网络必须能够正确区分和分类新的对象,因为关于分类的信息是不可用的(Twala 2010)。

这个单层感知器基于McCulloch-Pitts神经元,有以下形式:

我们提醒符号,神经元k的输入被指代为:、、hellip;、,突触权重:、、hellip;、,而偏差b将以 1输入包含在突触的权重中。神经元k的输出用表示。

单个层感知器的目的是对一组输入向量的正确分类,分为两组:, 感知器的输出表示输入向量的分类,或者说是决策规则:从几何的角度来看,这两个类代表了m维空间的两个区域,由超平面分隔开,其方程是:

只有当两个有区别的类是线性可分的,感知器才会产生良好的结果。如果它们不是线性可分的,那就是如果有一些点它们彼此非常接近,并且没有超平面来分离它们,那么感知器就没有能力区分这两个类。感知器的训练是通过一个基于误差反向传播规则的迭代算法来调整突触权重的。

我们假设输入向量来自两个线性可分的类,包含属于类的向量的训练集用表示:,,hellip; ,包含属于类的向量的训练集用表示:,,hellip;。

我们需要解决的问题是寻找到权重向量w,以便通过方程=0确定超平面,完美的将C1、C2两种类型分隔开 (Cover s theorem, 1965),给定测试训练集、我们必须寻找到权重向量w,因此

满足上述不等式的向量w的存在,可以确信这两个类是线性可分的。

调整w的算法有如下形式(最广为人知的是由李普曼于1987年引入的):

1.如果在迭代n中,训练集的元素被在这个步骤中计算的权重向量正确地分类,那么在这个迭代过程中没有对权重向量进行校正:

2.否则,如果在迭代n中,训练向量x(n)没有被权重向量w(n)正确地分类,那么必须通过下面的公式进行矫正:

代表训练比率,系数允许权重向量的调整。

前面提到的多层的前馈网络也被称为多层感知器,因为它们代表了单层感知器的一般化。应用误差反向传播算法进行了训练。该算法基于错误修正规则,并于1985年由Rumelhart 和 McClelland首次引入。

这种类型的网络有一个或多个隐藏的神经元层。神经元产生的信号可以是功能性的或错误的信号。函数信号从一层神经元传递到另一层,直到输出层。错误信号从输出层开始,然后通过网络进行传播。这些信号决定了网络的“后向”步骤,需要计算渐变的过程;为了向前,我们必须在不同的输入上应用激活函数。

我们将在后面介绍的反向传播算法是Haykin(1999)提出的方法。

在迭代n中,在输出神经元j中计算的错误信号是:

j是一个输出节点或位于隐含层的节点。

我们为神经元j定义了错误的瞬时值,全部错误的瞬时值为:

C是来自网络输出层的神经元集合,我们可以直接计算这些神经元的信号错误(因此不是“隐藏的”神经元)。

学习过程的目的是调整权重,使一般的平均误差最小。最小的分类错误是等价于最小化成本的。该权重调整是根据网络的每个向量的计算误差进行的。

突触权重,通过修正,修正比例使用导数 ,称为倾斜度的敏感因素,是突触权重改变的乘数。为了得到一个计算表单,我们执行以下操作:

.

上面这个方程右边部分的每个因素都可以被重写

.

通过这种方式我们获得了一个梯度的等价公式。权重的调整是通过在学习速率eta;上运用敏感性因素,因此叫作delta规则。

对于第二个等式,我们已经替换了上面所得到的敏感性因子的表达式,而对于第三个等式我们已经定义了:

我们可以用反式的方法来写这是上面提到的微分方程的公式:

对于神经元j,我们有两种可能的情形:要么是来自输出层的神经元,要么是神经元形成一个隐藏层。如果神经元来自于输出层,那么我们知道期望输出,因此我们可以很容易地计算相关的错误,并进一步计算梯度,以便应用delta规则。然而,如果我们有一个来自隐藏层的神经元,我们不知道,在这种情况下,我们有反向传播错误。当我们需要计算时,问题就出现了,从最后一个公式开始,我们可以这样写:

接下来,我们将在神经元的指数之间做出如下的区分:指数j它将被用于隐藏层神经元,而索引k将被用于输出神经元。

问题延续到计算,我们开始于

重写为

.

我们有一个关于神经元k的错误方程

此外

.

通过在表达式中替换上面的两个结果,我们得到:

如果没有神经元k,在第二个方程中我们使用之前介绍的的定义,通过代替上面在公式中的表达,我们获得

前面写的代表了误差反向传播公式和带有多重隐含层的前馈反向网络的反向传播算法的核心。

5.信用风险评估中的神经网络

Khashman(2010)研究了一个反馈网络的9种不同的学习方案,并通过误差反向传播算法进行了训练。方案的不同之处在于训练集和验证集的观察数量。此外,Khashman(2010年)吸引了人们对输入数据所选择的方法的关注。如果不考虑数据分布而选择该方法,则会导致结果解释中出现重大错误。

我们的案例研究是基于中小企业的财务数据,我们将专门的文献综述集中在与中小企业相关的信用风险评估中神经网络的应用。

尽管被集中的应用于金融和商业分析中,但在吴、王(2000)的一项研究中,神经网络首次被用于评估中小企业的信用风险。他们对神经网络的性能和经典的统计技术进行了比较研究。该分析基于中小企业的信贷数据。

吴、王(2000)在中小企业信用

全文共13735字,剩余内容已隐藏,支付完成后下载完整资料


资料编号:[9549],资料为PDF文档或Word文档,PDF文档可免费转换为Word

原文和译文剩余内容已隐藏,您需要先支付 30元 才能查看原文和译文全部内容!立即支付

以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。