英语原文共 9 页,剩余内容已隐藏,支付完成后下载完整资料
机器人案件中的有关责任问题
摘要 机器人技术的最新发展给立法机构和法学提出了新的挑战。特别是,面对自主、学习和决策机器人,对特定个体的责任承担起来变得更加困难。讨论如何解决受害方的问题,必须证明损害的原因和责任人导致的原因。一种可能的解决办法是,将特定的法律地位赋予自主机器,类似于法人(公司)的地位。在这方面讨论责任还应包括我们故意将决策权交给机器的后果问题。这种转移以及机器人技术的发展,都会对我们社会赖以规范的概念产生影响。这些变化的空间必须有意识地创造。
关键词:损失,责任,法律地位,电子人格,规范概念
1、引入
机器人技术是当时最重要的技术之一,在未来几年里,机器人技术将变得更加具有相关性。至少在某些情况下,机器会通过接近人类思维模式而变得越来越'自主'(Weng等人,2009年),例如,通过让机器人在太空中了解自己和自己。因此,机器人应该能够适应他们将建立的非结构化环境,如交通、商品生产、家庭或战争。这些机器将促进日常生活,延长时间,老年人可以住在家里,并可能在一定程度上,甚至取代社会(人类)接触和满足情感需求,后一个想法已经识别在机器人PARO的使用安慰,例如,老年患者。这些机器人将免除人类的具体任务和决定,并且有可能,对于某些任务,机器的决定甚至比人可能更快,更合理,更了解。与任何其他技术发展一样,机器人的进步将给社会、道德和法律的规范体系带来新的挑战,例如,由于机器的自主性,责任的承担将变得更加困难。必须制定人类行为条例,包括这些机器的编程和使用,必须调整现有规范。
在下面,我将概述由于机器人技术的最新发展而出现的法律责任问题,并讨论一些可能的解决方案。重点将放在侵权法和产品责任上,作为机器人的主要实际挑战之一,并作为法律责任规定问题和可能的解决方案的突出例子。作为一名德国法学家,我将从德国和欧洲的法律角度讨论这些问题。最近讨论的一个法律解决方案是为机器创建特定的法律地位;这一可能性将在论文的第二部分进行分析。最后,我将讨论机器人的进步和基本规范概念之间的影响。
2、责任规定问题
机器人技术的最新发展给法律制度带来了巨大的困难。正如我们在下面看到的,机器人是一个合作项目,其中一些责任甚至转移到一台机器上,但传统上,法律制度是面向个人责任的,因此难以应对这项技术。
2.1.1机器人因制造缺陷造成损失
一种可能的情况是,损坏是由制造缺陷造成的。在这种情况下,责任规定不会给机器人带来任何额外的问题,例如,在欧盟层面上可以显示:产品责任指令 85/374 规定,如果损害是由有缺陷的产品造成的,则对生产者规定了严格责任(无过错责任)的原则。如果多人(制造商、供应商或进口商)对同一损害负有责任,后果是连带责任。
虽然此情形的主要挑战是,实际损害的举证责任、产品缺陷以及损害和缺陷之间的因果关系在于受害的一方 ,但是无需证明生产者或进口商存在过错,因为他们的严格责任。严格责任的依据是立法者的决定,即使无法证明诉讼的社会不足,一方应对具体损害负责。作出这一决定的原因通常是,这个一方是获利最多,控制过程,在大多数情况下,实际上造成损害的一些错误。但是,即使缺陷本身的证据在机器人的情况下可能是困难的,特别是如果计算机程序是复杂的,不能读后。
在特定情况下,生产者可以免除其严格责任,例如,如果他能够证明(第7条):e)当他将产品投入流通时,科学和技术知识的状态不能使发现的缺陷的存在;或 f) 对于部件制造商而言,该缺陷可归因于安装该部件的产品的设计或产品制造商的说明。这两种情况都可能与机器人有关。由于研究活动强劲,新发现很可能显示以前版本的AI程序存在缺陷,从而也表明生产者不可能采取不同的做法。并且,因为在大多数情况下,不同的制造商(和程序员)对机器人做出了贡献,因此,组件的制造商之一很可能表明设计或说明会导致缺陷从而免除自己的责任,并将其转让给设计师或发明者。很难为制造商提及最先进的防御措施划清界限——对于这一点,我们将不得不等待关于自主机器主题的判例。但人们必须记住,研究、生产和使用机器人的人知道这些机器的不确定性。
虽然这些方面对现行法律在新领域的归属存在挑战,但有意识的解释或许能够解决这些问题,从而使法律适应机器人作为产品的特点。然而,人们必须意识到,在像'自主'机器人那样复杂的程序中,要证明错误是很困难的。因此,可以说,机器人越复杂,机器动作越自主,受害方就越难证明所涉一方的具体错误与损害之间的联系。
2.1.2 机器人作为产品?错误作为缺陷?
但是,在调整现行法律时,人们就会质疑,把机器人仅仅当作产品的前提是否令人信服。这一前提的挑战在于,机器人很快就能具备适应能力和学习能力。这些特征必然涉及机器人行为的一定程度的不可预测性和不可控制性:由于机器人自身获得的经验增加,机器人的行为无法完全规划。
这不仅导致对机器人产品质量的怀疑,也导致机器人的每一个'错误'是否必然是由法律意义上的缺陷引起的疑问(Boscarato 2011)。如果具有自适应和学习能力的机器人8 在无人监督的环境中可以自由地与人类互动,他们就可以以不可预知的方式对收到的新输入做出反应。如果机器人由于这些反应而对第三方造成损害,那么机器人存在缺陷就很难说;它做了它应该做的事情:它对新的投入做出反应,并调整了它的行为——因此机器没有缺陷。
目前,对此类案件没有侵权规定。有时讨论与动物主人条例的类比;这种类比的一个论点可能是,潜在的冲突是足够相似的-在这两种情况下,动物/机器的行为是部分不可预测的,但可以受训练和控制的影响。此外,物体和动物之间的限制——主要是在周围空间中自由移动的能力——已经被机器人克服了。人们甚至可以考虑假设家长模式,将认知机器人与那些在自己成长过程中学习的孩子进行比较。未成年人的行为是由于他们的成长,并应该由他们的父母,机器人的行为,因为他们被教导,必须由用户的指示。更抽象地说,人们肯定可以设定处理这类机器的某些准则:机器人的学习能力越高,生产者的责任就越低;机器人指令的时间越长,其所有者的责任就越大。这仅考虑所获得的能力(由教学产生),因此应严格区分与学习或教育无法改变的编程特征。
除了这些准则之外,人们还应考虑可能的法律概念,以更抽象的方式解决潜在的冲突(在将上述法律概念转移到这里的情况的概念背后,人们显然也发现了抽象的原则)。
机器人(与正常产品对立)可能由用户培训、可能不可预测且在特定情况下造成损害且不存在缺陷或必然被误用的问题,最相关的概念解决方案是
- 一方当事人一般被视为应承担责任,例如用户。例如,这是法律目前如何处理停车距离控制系统的方式。适用有关宠物主人或父母的法律的解决方案也基于这一理念。此解决方案背后的理由是,用户是训练机器人的人,决定在特定情况下使用它并依赖它(例如,没有充分控制它)。另一方面,这不仅仅是在损坏确实是一个缺陷的情况下有问题的,而且通常也与使用机器来缓解用户的负担(如果用户必须控制它)的想法相矛盾。
- 只有人方才有责任,证明他犯了错误。这一法律概念基于这样一种观念,即一般人只对一个人故意或疏忽造成的损害负责。这一原则的法律例外通常是明确的,涉及必须平衡不成比例的社会权力的情况。这一解决办法将举证责任加重给第三方(受害)方,这强烈妨碍了他们获得损害赔偿的可能性。因此,此解决方案可能是最值得怀疑的,因为在这些情况下,对计算机的控制及其使用优势实际上至少与所有其他从购买中获益参与方(程序员、生产者、用户),如同第三方一样。
- 后一个方面和传统解决方案的不足的后果可能是,机器人(研究人员、程序员、生产者、用户)的所有人类当事方'背后'都转变为一个新的法律实体('电子人'),更取决于这个概念后)。这本身并不解决所有问题,也不一定排除其他解决办法,但给第三方一种解决方法,至少对其财务索赔而言是这样。因此,这一概念旨在使受损方减轻负担,必须证明所有当事方中谁对所涉损害负有实际责任。因此,财务恢复是有保证的:例如,可以认为,与生产者相比,机器人的用户无法收回所有损失。在这种情况下,其他一方也可以有义务支付损害赔偿金。然而,人们必须意识到,这个概念可以作为责任个人的藏身之处(例如,公司责任)。因此,必须确保这种解决方案不妨碍选择其他法律方式,无论是对于第三方还是针对其他参与者,当有人确实犯了错误时,就有权判断该责任人。还必须在法律上表明,这种可能性和金融存款不能成为建造危及他人的机器人的理由。从法律上讲,这样做的一个办法是加强这一生活领域的刑事制裁,以追究(严重)过失行为,并确保在实践中进行起诉。
- 人们甚至可以,例如对于对社会有用的机器人(例如垃圾收集机器人),考虑将部分损害转移到社会本身,这意味着纳税人将不得不帮助在错误的根源无法证明的情况下。其依据是,无论谁从机器的使用中获利,也应承担第三方的任何财务劣势,至少部分承担。同样,与电子人的情况一样,人们不仅应注重这一结构,而且还应鼓励那些使个人对其行为和决定负责,如果不够危险的话。
这些只是一些法律建议(主要侧重于私法),这些建议并非都同样有说服力,但其中一些建议可以以各种方式加以结合。它们都源于与损害(财务)责任决定相关的某些方面的具体平衡:因果关系、责任范围(生产过程控制;使用决定)、风险可预测性和社会充分性。风险、使用优势等。这些只是一些方面,显示了责任问题的复杂性——尽管这里的问题只是'自主'机器人造成损坏后会发生什么。
2.2风险和副作用的风险
除了询问损害赔偿责任问题外,人们还必须讨论另一个责任规定问题:谁负责(预期)决定人们实际应该使用机器人的生活领域?显然,对于任何新产品,这是对进一步开发机器特定能力感兴趣的单一研究人员的决定,也是将产品推向市场的生产商之一,也是客户之一。有兴趣购买与否。但是,其他机构也应对这一决定做出贡献,特别是研究基金(仅通过资助特定研究)、保险公司(通过确保在一定条件下)和政治机构(通过发放许可证)。此外,立法者可以促进或阻碍将机器人引入某些生活领域,例如,决定支持上述损害赔偿责任解决方案之一(程序员和生产者必须获得的赔偿越少害怕不得不付出,越有可能引入市场)。同样,每种新技术都是一样的。然而,这些关于这一领域社会发展的决定造成了责任——这不仅仅是因为机器人的开发成本很高,而且因为在许多方面,这些发展将与社会公正的各个方面(健康)有关。、照顾、老年人流动、教育等)。
最后,在哪些领域可以接受机器人取决于它们潜在的损坏。因为即使一个人可以解决经济赔偿的问题,并非所有的非物质损失都能得到充分的赔偿。因此,如果机器人的社会优势不够高,那么在某些领域实际暴露第三方风险可能是不够的。当然,这不仅是机器人遇到的问题,也是所有使第三方面临风险的技术所遇到的问题。然而,人们必须意识到,必须详细讨论谁应该做出这些决定,以及如何确保它们反映社会的利益。
这一点很重要,因为'风险'在此背景下不仅意味着对第三方的损害:还有某些不需要的副作用的风险。同样可以说,大多数新技术都伴随着对可能滑坡的怀疑(无论是由于机器人而失去了许多工作场所、减少社会联系以及恐怖分子使用自主武器系统)。然而,在机器人技术中提出这些担忧并不奇怪,必须认真对待:机器人护理老人或照看孩子、接管人类交流、提供建议或发动战争,必将改变我们对社会的看法。互动,并挑战我们对'社会'的理解。
2.3 责任转移
事实上,责任问题一个重要原因是,越来越多的自主机器的发展背后的理念是把责任转移到这些机器上:被有时被称为'选择暴政'的'暴政'所压倒。在复杂的情况下,日常生活带来无限和不可预见的损害第三方的风险,我们现在倾向于对技术做出反应:我们制造机器不仅仅是为了决定如何找到交通的最佳方式,或者让我们的车进入停车位,不仅仅是提醒我们在冰箱空着时立即服用药物或购买食物——我们正在制造机器来决定其他人的生死。在我看来,这种发展本身带来了一个责任问题:当机器接管决策时,新的问题不仅会出现问题,而且对于机器做出的每一个决定:谁是响应实体?机器能否以对社会和法律责任构建所必需的方式做出反应?
这种责任转移的问题可以通过观察机器决策的潜在社会反应(和韦伯,2014年)。在某种程度上,社会问题可能由于对人类和机器的不同看法而出现。对于大多数人类来说,如果机器做出影响人类生活的决定,那么原谅它似乎就更难了——不仅仅是如果这个决定是错误的,而且如果一个正确的决定有负面影响,例如,如果机器人会因为计算一个计算机程序,他失去了他的工作(或写一封电子邮件,谁知道它是由机器写的),或——回到激烈的示范的例子的军事——如果机器人决定不涉及人类,人的生命必须结束。由于社会怀疑机器是否真的能够做出这样的决定,因此,人们争论让机器出这种生死决定是否侵犯了人的尊严(Heyns,2013年)。论点认为,人的尊严包括人类必须决定生命终结的权利,人必须忍受和'回应'这一决定的后果的权利。
但是,军事并不是人类反应的必要性能够排除决策转移到机器上的唯一领域,即使事实上可能,有时甚至机器犯的错误可能比人类少。这种必要性也很可能——仅举几个例子——医疗领域、教育、照顾老年人和法律。人类的反应是目前某些决定的社会条件,并不意味着当社会观念发生变化时,这种情况将失去重要性(在一分钟内就更多)。如果现在必须尊重这种情况,如果这种情况已经改变,人类的反应在特定情况下意味着什么,那么,在每种情况下都必须讨论这个问题。
2.4 临时结论
如图所示,机器人的发展确实带来了责任问题,不仅在机器人对第三方造成损害的情况下,而且在对这一发展方向的责任方面,也许最重要的是,在故意将责任转移到机器上。对于其中一些问题,可以找到或多或少务实的法律解决办法,如下文所述。不仅这些解决方案(例如引入新型法人),而且开发用于接管具体决策的设计
剩余内容已隐藏,支付完成后下载完整资料
资料编号:[239954],资料为PDF文档或Word文档,PDF文档可免费转换为Word
以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。