英语原文共 30 页,剩余内容已隐藏,支付完成后下载完整资料
从事故中吸取教训:人为因素、技术和组织之间的相互作用是验证风险研究的核心要素
摘要:许多行业受到重大危害,与其利益相关的群体对此非常关注。因此,在得到改进的计算能力和复杂的安全应用程序以及可靠性模型的支持,越来越多地努力控制这些危害和管理风险。然而,从最近发生的事故来看,这显然是罕见的或看似意外的情况。 人为因素、技术和组织之间复杂的相互作用,能够引发重大灾难。这项工作的目的是加强利益相关的人对风险管理的信任。 通过制定一个框架,以核实风险研究是否适当地考虑了在重大事故中观察到的趋势和模式。本文首先讨论了重大灾难的主要基础理论。然后,一个包含高科技工业领域发生的重大事故的成因的事故数据集作为一种聚类和数据挖掘技术(自组织地图-SOM)的应用基础,允许探索从深入调查中收集到的事故信息。结果关于重大事故的常见模式得到公开,导致制定一份属性列表,以验证风险评估研究,确保人为因素、技术问题和组织方面的影响都得到了适当的考虑。
1. 介绍
1.1事故因果关系模型及其对验证风险评估的影响
事故因果关系模型是在与安全工程有关的所有努力之下的,它们作为事故调查和分析的基础,用来防止未来事故在新设计中发生以及发展风险评估技术(Leveson,2012年)。人们对认识重大事故起因的兴趣越发浓厚和技术问题对社会的重要性也越来越大使得许多学派从不同的角度来处理事故的因果关系问题,在一定程度上导致了关于怎样(以及是否)危险可以适当地处理和控制的相互矛盾的看法。
据Perrow(1984)所说,失败在复杂、紧密联合系统中是不可避免的,因而在一些高科技设备中发生潜在的灾难性事故(如核能和核武器)是不可避免的,构成了一种预料之中或正常的事故。他的理论是三里岛事故后发展起来的, 1979发生在美国一家核电站的部分核心熔毁,这是他的基本案例。长话短说,他只是建议停止例如核电站和核武器等技术(他认为没有希望),因为他明白,不可避免的风险大于预期的利益。运算错误是仔细研究的案例研究中经常出现的因素,强调了一系列失败的复杂相互作用会导致有缺陷的心理模型。Perrow提到,唯一可能安全管理这些设施的方式是:一个军事组织,威权和严格的纪律。然而,他声称这个治理结构在和平时期,对于工业民间活动来说,是社会不能容忍的,是不可持续的。
在正常事故理论之前,Cohen的垃圾桶模型(Cohen等人,1972年;Davis等人,1988年),该模型较早地认识到组织具有高度的不确定性,导致不明确或相互竞争的偏好,模糊的目标,不明确的技术和利益相关者参与决策过程的流动模式。虽然垃圾桶理论表明,由于组织行为极其复杂和不可预测,会发生重大事故,但正常事故理论限制了这一现象的必然性。 系统的灾难,在那里观察到复杂性和紧密耦合。虽然这两种理论对人类预测和控制灾害的能力都有着不热心的看法,但也有一些不同的观点(以及使用方法)。可以从中提取要素:前者明确指出组织问题是造成灾难的根源,后者则将责任归咎于技术方面,尽管假设是: 它可以通过某种特定类型的军事组织来缓解。
Taleb的著作“黑天鹅-极不可能的影响”(2007年)提出了一个流行而广泛的概念(Aven,2015;Aven,2013;Pateacute;-Cornell,2012年),以解释重大问题的发生。他将具有极端影响的事件称为“黑天鹅”,认为它们是不可预见的极不可能发生的事件(或异常值)。他著名的类比是以这样一个事实为基础的。 他说,在英国人抵达澳大利亚之前,“旧世界”里的人们只认识白羽天鹅,在那里,一只黑天鹅的出现让他大吃一惊。他的结论是,预测是基于 在历史数据上,不能预测异常值,声称通常只关注标准操作而忽略了极端或不确定因素。根据他的观点,高科技领域的动态 比预期的要复杂得多,应该排除基于概率模型进行艰苦的预分析和验证,因为它在主要方面几乎没有影响。 危险控制(或防止黑天鹅!)
值得注意的是,许多普遍存在的事故因果关系理论似乎认为,高风险工业设施的成功运营是一件幸运的事,因为重大事故被认为是一种混乱的性质。按照这种方法,目标和偏好是随机确定的,技术没有被管理人员和工人完全理解,复杂的交互管系导致重大事故的事件是不可预测的,利益相关者的团体在工厂的生命周期中波动不定。
相反,高可靠性组织的研究人员(Roberts,1990年,Grabowskiamp;Roberts,1997年,La Porteamp;Consolini,1998年)研究了组织管理高效能运营的案例。 对于灾害,在很长一段时间内取得了很好的可靠性,似乎比其他的更好地发挥作用。根据对成功案例的观察,他们认为,即使在非常危险的环境中,也有可能识别出科学方法来维持几乎没有错误的操作。值得注意的是,用于批准高可靠性组织原则的例子包括核电站,这与正常事故理论形成了鲜明对比。根据Perrow(1984)的说法,这正是一种易受不可避免的失败影响的设施,因此社会应该考虑立即放弃它。
Sagan(1993)对正常事故和高可靠性组织理论进行了深入的分析,提出了一些相互竞争的观点。
尽管这些思想流派之间存在着明显的差异,特别是关于防止重大事故发生的可能性,萨根却发现了一些关于频率的共同点。 我们的活动。虽然正常事故理论指出重大事故是不可避免的,但极罕见、高可靠性的组织理论假设了几乎没有错误的操作。 CED安全管理。隐含的是,人们对灾难性事件的可能性很低的认识是相互承认的。在评估了几个涉及美国核武器系统的安全事件研究案例之后 Tems,Sagan(1993)的结论是,收集到的证据为正常事故理论提供了更有力的支持。他的观察表明,诸如过分的纪律等因素 极端忠诚、保密、掩盖、蔑视外部专门知识和其他自我保护机制的证据)、相互冲突的利益和学习的限制,都是有限的核功能。如果情况稍有不同,可能会导致重大灾难。
因此,Sagan的这些理论的分析可以说比一般的事故理论更加悲观。尽管有人声称事故是不可避免的,珀罗还是离开了手术室。 一种社会矛盾但安全高效的管理方式:一个纪律严格的军事组织。然而,他的指控受到萨根核武器处理系统的质疑。 这其中包括了令人震惊的密切联系。
其他研究人员承认在预防重大事故方面存在困难,但将重点放在制定减少重大事故可能性的策略上。遵循这一原则,James Reason发展了一种广受欢迎和广为人知的事故因果关系方法,它是在海因里希等人的基础上发展起来的.。(1980)多米诺理论。理性(1990)首先提出了将主动故障和潜在条件结合起来来解释复杂系统如何失效的思想,后来又将其扩展到一个多屏障概念,称为瑞士奶酪事故模型(理性,1997),被学术界和实践者广泛用于描述事故因果关系的动态。连续的奶酪片代表了层层的防御、屏障和防护措施,所有这些都有洞,象征着主动失败和潜在条件所造成的破坏。在极少数情况下,洞是完全对齐的,所有的保护层都被克服了,组织事故就会发生,通常会带来毁灭性的后果。该理论强调了个人事故与组织事故之间的一个重要区别,特别是组织可能会倾向于依赖LTI(丢失时间伤害)或鸟类金字塔式的方法,以证明安全性能,忽视潜在的条件,降低障碍,导致重大事故。许多风险管理方法源自理性发展的多屏障概念,认为导致组织事故的潜在机制可以被正确地识别和支持并且 精心管理。人的可靠性方法,如人的因素分析和分类系统-HFACS(Sappell等人,2007年),系统发生分析方法-SOAM(licu等人,2007年)和顺序概述和后续综合分析-索菲亚(blajev,2002年),事故原因分析方法,如Bow-Tie(Zuijderduijn,2000年)和因果图(尼尔森,1971年)。 举几个例子,说明风险评估技术与理性的方法有很大关系。
当代事故因果关系模型方法试图应用系统理论和系统思维(例如Leveson,2011),通过增加更高的层次来揭示事故的深层因素。 超越直接事件的创造性水平,分析因素和更广泛的环境之间的相互作用。例如,公众舆论和政府的行动如何影响安全文化工业部门。如果某些组成元素之间的交互违反了一组保证系统安全完整性的约束,则可能会发生事故。这个系统处理事故因果关系的方法的重点是理解为什么强制执行限制是不成功的。
拉斯姆森(1997)关于系统性能控制的思想以前曾设想过类似的观点。而不是不断约束单个元素以适应预定义的操作。 他侧重于系统控制理论的两个特点:第一,系统运行边界的适应性,即增加从正常运行到亏损边际的控制;第二,通过使利益攸关方了解这些界限,提高对业务限制的认识水平。拉斯穆森还指出,技术变革的速度要快得多。 管理结构的修改时间比管理结构的修改时间更长,而且在更高的层次,如政府、法规和社会,出现了更长的变化滞后现象。这种异步性可以避免风险。 建模和挑战使用详细方法和工具分析单个组件或子系统的理由,因为在系统部分中令人满意的结果可能不能反映 整个系统的安全状况。
当最大的目的是在一个动态的、快速变化的环境有害的工业过程植物风险评估验证,系统元素之间的相互作用的复杂性 我们必须认识到,组织行为的不可预测性以及预测极其罕见、低概率的事件的内在困难,如事故原因所强调的那样。 关于理论家。此外,设计的安全屏障不是静态的,而且随着时间的推移会退化。老化、维修不足、预算限制、人员变动和 仅举几个例子,提高成本效益的压力可以帮助克服障碍,从而促进深入防御概念,这在很大程度上是风险评估研究的基础。
1.2根据重大事故确定共同模式并制定风险评估验证框架
事故因果关系理论对重大事件是否可以预防存在分歧,这使得风险评估、验证和风险管理信任成为一个具有挑战性的研究课题。虽然任何一个模型都意味着降低了作战现实的复杂性,但可以从事故因果模型中提取一些属性,从而建立一个可以接受的框架。 检验风险管理策略的适用性和准确性。对于成功案例的研究,如高可靠性的组织理论家所主张的,是否能给出一些关于在重大事故中观察到的不寻常的、罕见的界面的见解,这是有争议的。相反 如果成功案例的研究,如高可靠性组织理论学家所讨论,将有助于深入了解在重大事故中观察到的罕见、罕见的接口。在对比 在灾难性事件中,确定人类因素、技术方面和组织之间的相互作用所产生的共同模式,似乎是一种合理的支持方法。风险分析的核查战略,至少证明从以前的事故中吸取的经验教训是在目前的研究中考虑到的。这种新的方法可能有助于缩小差距。
Skogdalen和Vinnem(2012年)在分析挪威石油和天然气行业的一些定量风险分析时提出的建议。他们发现人类和组织因素(Hofs)是 在估计井喷的概率时没有考虑到。相比之下,深水地平线井喷与Hofs有着密切的联系,如工作实践、培训、沟通等。 关于程序质量控制和管理。此前对238起重大事故的分析(莫拉等人,2016年1月)也表明,其中95%起事故在组织上起到了一定的作用。 对于不理想的结果,和57%直接相关的人为因素,强调了考虑这些重要的特点,以发展现实的安全研究的重要性。在灾难性事件中,确定人类因素、技术方面和组织之间的相互作用所产生的共同模式,似乎是一种合理的支持方法。 风险分析的核查战略,至少证明从以前的事故中吸取的经验教训是在目前的研究中考虑到的。这种新的方法可能有助于缩小差距。 Skogdalen和Vinnem(2012年)在分析挪威石油和天然气行业的一些定量风险分析时提出的建议。他们发现人类和组织因素(Hofs)是 在估计井喷概率时没有考虑到。相比之下,“深水地平线”爆炸是深入来如工作实践,培训,交流 论程序、质量控制与管理。238重大事故之前的分析(Moura等,2016)表明,95%的这些事件提出了一些组织的贡献 对于不理想的结果,和57%直接相关的人为因素,强调了考虑这些重要的特点,以发展现实的安全研究的重要性。
屏障和防御的深度概念将依赖于设计的障碍的完整性和可用性,以防止危险或将其后果降到最低。解决共同的组织和技术问题 造成关键安全障碍退化的名词性缺陷可能会显示出使其按需失效的趋势。模式识别过程也将支持应用程序。 对反复发生的损坏机制进行安全检查,减少潜在的故障,并提供有用的数据,以便在实际事件中认可屏障的预期积极效果。
披露导致重大事故的共同模式将使利益攸关方了解业务界限,提高对所作决定的信心,并证明使用额外的安全措施是合理的。产出将与实际事件直接相关,这将促进学习进程,并突出解决已查明关切问题的重要性。
因此,本研究的重点将是根据人类因素、技术方面和组织之间的相互作用,制定风险评估验证方案。事件的收集构成了莫拉等人提出的多属性技术事故数据集(Mata-D)。(2016),捕捉到高科技领域发生的重大事故。 工业领域(如航空、石油和天然气上游、炼油厂和核电站),并将其归类在一个共同的框架下,即作为Holinagel(1998)Co的基础的上下文控制模型。 GB/T1597-1989统计可靠性与误差分析方法。之前的工作提出了一项,提出了一些相互竞争的观点。最完整的统计分析的主要事故来自不同的工业部门在开放的文献。
应用人工神经网络方法,特别是Kohonen(2001)的自组织地图(SOM),将把复杂的事故数据转换成二维风险图。事件 将按相似性进行聚类,允许对具有类似交互作用的事故进行综合处理,但处理的行业各不相同。提供的资料可视化的发展 SOM应用程序将产生一系列的属性、属性和建议,用于验证系统、安全屏障、人机接口和风险研究。 增强风险感知和利益相关者的信任。
2.分析方法
以前的工作已经运用过去的事故数据来洞察不良事件的成因,以便通过为发展提供有价值的贡献来支持研究人员和从业者。 制定风险管理策略,披露事故原因。大多数现有数据集来自事故/事故数据报告系统,这些系统是由国家执行机构/协会自愿开发(如DNV-GL世界海上事故数据库、国际气体生产者协会工艺安全事件数据)或由国家(例如联合国国际民用航空组织)执行组织事故缩进数据报告系统–事故/事件报道系统,伤害英国HSE报告、疾病和危险事件的法规- injuries)。这些收集数据的努力通常仅限于 一个单一的工业部门(拜赛利et al.,2008,伊万斯,2011)或试图拥抱从工伤事故处理安全事件(贝拉米,2007, 2013)。一般来说
全文共7175字,剩余内容已隐藏,支付完成后下载完整资料
资料编号:[15530],资料为PDF文档或Word文档,PDF文档可免费转换为Word
以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。