将伦理学纳入人工智能外文翻译资料

 2022-06-14 21:45:49

英语原文共 16 页,剩余内容已隐藏,支付完成后下载完整资料


将伦理学纳入人工智能

作者:阿米泰埃兹奥涅1奥伦埃兹奥涅2

(Amitai Etzioni1 bull; Oren Etzioni2

摘要

本文回顾了学者们认为无人驾驶汽车以及许多其他配备人工智能的机器必须能够作出合乎道德的抉择。这种方法面临困难。这表明汽车没有道德的代理,而且通常应用于这些机器的术语“自主”具有误导性,并导致这些机器无法保持道德的结论。这篇文章最重要的主张是配备人工智能的机器可以通过以下方式进行道德选择。因此,如果能做到这一点的话,人类甚至不需要教授机器伦理。文章最后指出,这是一个严重错误的借鉴极端离群的场景——如电车难题——作为概念化的解决伦理问题的基础。

已经行驶了几百万英里的无人驾驶汽车装备了人工智能( AI ),使这些汽车能够自主决策。这些决定具有道德和社会意义暗示,尤其是因为汽车会造成相当大的伤害。事实上,在5月份2016年,一辆特斯拉汽车在自动驾驶模式下出现事故,乘客死亡。因此,出现了一个问题:如何确保这些汽车做出的决定将符合道德标准?一般来说,温德尔·瓦拉克和科林·艾伦认为世界正在走向毁灭,“创建机器人,使其独立于直接的人类监督是科幻小说对人类福祉的潜在影响。”( Wallach和Allen 2009 : 3 )也就是说,同样的问题问无人驾驶汽车代表许多其他自主机器,包括选择它们的武器和自己的目标;机器人外科医生;提供儿童、老人和保健的机器人;如同以及相当多的其他人。这一初步审查是利用无人驾驶汽车解决伦理问题(包括道德和社会价值)。(与许多其他文章一样,本文将“道德”一词视为同义词)。

具体而言,本文首先简要概述了背后的推理学者们的断言,由人工智能引导的机器需要作出伦理决定;比较学者们所认为的,可以实现这一目标的两种主要方式:自上而下和自上而下自下而上的方法;论述智能机器是否具有或可以获得作出道德决定所需的属性——从而成为道德代理人;最后检查配备人工智能的机器在多大程度上实际上是自主的(1 )。

文章接着试图表明,道德挑战的一个非常重要的部分由装备有人工智能的机器构成,可以通过两种不同的形式来解决伦理指导:执法和个人选择,几千年来这两者都为人类所用。因此,即使可能,也没有必要首先教授机器伦理(2 )。

必须注意到,在选择受以下因素制约的情况下,法律规定——例如,汽车必须完全停在有停车标志的地方标志——什么是集体作出的道德的决定,这需要通过一个非常完备的法律法规的制定过程。在这里,很少需要口头审议和决策(尽管需要“教授”无人驾驶汽车遵守)。至于那些法律制定者没有限制的决定——例如汽车是否应该停下来载一个搭便车的人——答案留给每个人个人。对于这些决策,面临的挑战是他们为无人驾驶汽车在这些问题上提供指导,但不是为了道德上的强制选择由某个集体或第三方执行。诚然,正如我们将看到的那样,许多决定涉及一种混合集体决定和个人选择,但这两个要素中的每一个当决定以纯粹的形式面对时,仍须受到同样的考虑。

1关键概述

1.1智能机器需要道德规范的原因

无人驾驶汽车,作为典型的自主机器,学习的机器。他们被编程来收集信息、处理信息、得出结论,并相应地改变他们自己的行为方式,而无需人为干预
干预或指导。因此,这种汽车可以用程序启动,该程序包括一条指令不要超过车速限制,只有当知道其他车超过这些限制时,它也可以而且应该加速。特斯拉的车乘客以超过限速九英里的速度行驶。

鉴于这些车辆可能造成伤害,学者们认为无人驾驶汽车需要能够区分“错误”和“正确”决策。在其他指令、计算机应该成为“明确的道德推理者”。(瓦拉克和艾伦2009 : 6 )苏珊·利·安德森和迈克尔·安德森写道,“理想情况下,我们希望能够信任自主制造的机器自身的正确的道德决定。许多人工智能研究人员似乎认为如果这些机器能自己决定——什么时候减速,什么时候停止,什么时候屈服等等,他们还应该能够做出合乎道德的决定。这个假设是对那些认为两者之间没有根本区别的人来说,尤其是合理看待事实问题和道德问题,因为他们都认同由理性驱动的心理过程。2正如约翰·斯图亚特·米尔著名地写道:“我们的道德教师是我们理性的一个分支。”( 2008年mill)

对这些汽车(以及其它装备AI的,所谓的“智能”机器)在施加伤害的情况下在两种伤害之间进行选择,有些伤害是无法避免的。这些讨论通常从以下内容的改编开始,其中小车不能及时刹车而被迫在继续前进和撞到行人之间选择,或者转弯进入对面车道上迎面而来的车辆。(邦纳丰等人。2016 )另一变体是一个小孩在单行道隧道入口前跑过马路,迫使汽车在继续和撞到孩子之间做出选择,转向隧道的一边又会杀死乘客。简而言之,无人驾驶汽车——以及其他配备人工智能的机器——似乎需要道德指导从而做出决定。

1.2使“智能”汽车能够作出合乎道德的决定的两种方法

提出了两种总体办法,作为实现无人驾驶的汽车和其他智能机器能够自己做出道德选择:自上而下和自下而上。在自上而下的方法中,道德原则被编程到汽车的引导系统中。这可能是阿西莫夫的机器人三定律,十定律戒律或其他宗教戒律——或一般道德哲学,如康德的绝对命令、功利主义或另一种形式的结果主义。主要的一点是在程序员指示下,汽车能在具体条件下以采取最合乎道德的方式,汽车能够做出这样的合乎道德的事情基于道德哲学的选择被植入其人工智能程序。(瓦拉克和艾伦2009 : 16 )

自上而下方法的批评者(以及一些支持者)承认坚持任何特定道德哲学的内在困难其中之一是将在某个时候导致许多人采取的行动和取得的成果在道德上是不能接受的。举两个熟悉的例子: ( 1 )本杰明进一步指出,绝对命令会迫使某人告诉一个凶手猎物的位置,因为禁止出现任何情况。(Constant1797 ) ( 2 )以下情况会引起明显的关切结果,一辆汽车得出的结论是,最好撞上更少的人,相邻车道上两辆车的价格昂贵,以减少损坏它造成不可避免的破坏。(古德2014 )

诚然,这些(和其他)道德哲学已经发展出了尝试来解决这些缺陷。然而,在这些道德流派之中,有突出强调在利用特别作为智能设备的道德指导系统的哲学。例如,在是否和如何量化“效用”,边沁和密尔的,是否有不同程度的效用(磨坊的“高”和“低”)。结果主义者继续面临这些挑战:例如,估计长期后果和确定应考虑哪些后果。大部分电车问题思想实验假定物体是一个人,因而杀五人显然比一人更惨。然而,人们并不对身患绝症的老年公民和对身患绝症的儿童具有同样的道德价值观念,或者对特蕾莎修女,就像对一个被定罪的重罪。

没有必要在这里重复各种道德学校。这足以表明,鉴于这些差异,这是非常重要的,很难对一台能够独立做出道德决定的机器进行编程,无论是使用这些道德哲学中的一种还是其组合。但有可能问,lsquo;如果人类能做到,为什么智能机器不能做到?rsquo;?#39; #39;作为回应,第一时间人类能够处理细微差别和模糊决策,但是计算机程序员觉得这样的决定特别费力。此外人们可以争辩说,个人在这个或那个基础上作出道德选择哲学上,真正的人首先从养育他们的人那里获得道德价值,然后当这些值暴露于来自新群体、文化和亚文化,逐渐形成自己的个人道德混合。此外,这些价值观受到特定社会原则的影响,这些原则并不局限于任何一种道德哲学。简而言之,自上而下的方法是非常难以想象的。

在机器伦理的第二种方法,即自下而上的方法中,人们期望机器学习如何通过观察实际情况中的人类行为来做出伦理决定,而无需被教导任何正式的规则或被教导装备有任何特定的道德哲学。这种方法已经应用于无人驾驶汽车学习的非道德方面。例如,卡内基梅隆大学的研究人员发明的早期自主车辆经过2 - 3分钟的人类驾驶员训练后,能够在高速公路上行驶;它的泛化能力使它能够在四车道公路上行驶,尽管它只在一车道或两车道公路上接受过训练。(巴塔维亚等人。1996 )机器学习也被一些研究人员用来提高汽车的对行人检测的能力。此外,NVIDIA公司的一个团队最近展示了一款无人驾驶汽车,它采用了“端到端”的机器学习,只需观察72小时的人类驾驶数据就能自行驾驶。(博雅斯基等人。2016年)

然而,把这些作为学习道德行为的先例,是假定学习对绿色、红色和黄色交通灯作出不同反应之间没有重大区别,而且——学习理解和理解道德上的义务,即特别注意不要撞到与汽车在同一车道上行驶的自行车,更不用说不要骚扰或故意撞击自行车者,以免使其愤怒。(麦克德莫特2011 )然而,人们要求汽车解决的道德问题是——在汽车上杀死或伤害谁,在不可避免的情况下——实际上是非常罕见的。根据美国交通部的数据,2013年每行驶1亿英里,就有77人受伤,1.09人死亡。(国家公路交通安全管理局2013 )而且,每一个这样的挑战性情况都与下一个不同:有时是小猫造成事故,有时是校车,等等。无人驾驶汽车必须跟随一个人好几辈子才能以这种方式学习道德。

因此,有人建议,无人驾驶汽车可以通过某种聚合系统,作为一种群体思维或利用人群智慧,从数百万人类驾驶员的道德决策中学习。然而,人们应该注意到,这很可能导致汽车获得一些相当不道德的偏好,因为目前还不清楚大多数驾驶员是否会制定一个值得新型自主汽车效仿的标准。如果他们学会了很多人做的事情,智能车很可能会加速、加塞,并在路上大发雷霆。我们还必须注意到,当人们面对电车问题提出的那种选择时,他们可能会依靠自动反应,而不是依靠道德上的考虑和决策。也就是说,观察人们教不会这些机器什么是道德的,而是什么是普遍的。

让-弗朗索瓦·邦内丰、阿齐姆·沙里夫和伊亚德·拉赫万进行的一项实验支持了这种担忧,他们测试了参与者对于无人驾驶汽车是否应该做出功利主义道德决定的态度,即使这意味着为了拯救更多的行人而牺牲乘客的生命。他们发现,大多数受访者希望无人驾驶汽车在自身不参与的情况下做出实用的决策;他们希望自己的汽车能以牺牲他人的利益为重。(邦纳丰等人)。正如哲学家帕特里克·林( Patrick Lin )所说,“没有人想要一辆能照顾更大利益的车。他们想要一辆照顾他们的车。”对于谷歌、特斯拉或任何其他汽车制造商来说,这几乎不是一种规划符合道德标准的汽车的方法。他们最好不要听群众的声音。

简而言之,自上而下和自下而上的方法都面临非常严重的困难。这些困难不是技术上的,而是与人类使用的伦理哲学的内在结构有关。即便如此,与智能机器能否首先成为道德代理人的问题相比,这些困难还是相形见绌。

1.3智能机器的自主性如何?

在许多关于无人驾驶汽车和智能机器所带来的道德挑战的讨论中,这种机器通常被称为“自主的”。首先,我们必须记住,并非每个学者都愿意理所当然地认为,即使是人类也是自主行动的。有些人认为,所发生的一切都是由充分的先决条件引起的,这些条件使得所述事情不可能产生不同(或不发生);这种因果决定论使道德责任无法分配。4这里没有必要重复反对这一立场的论点;只要注意到,我们向那些认为人有某种程度的自由意志是理所当然的人提出了疑问,尽管他们的大部分生命确实可能由超出他们理解和控制的力量决定。( 1969年,法兰克福)

然而,无论机器多么智能,这并不意味着机器也是如此。事实上,一位读过这篇文章初稿的同事认为,智能机器似乎只能自己做出决定——实际上,这些机器行为方式的变化仅仅反映了外部力量。他指出,人们可以说导弹偏离了原来的路线,因为一阵强风“决定”改变方向,但这只是一种误解或错觉。

在我们看来,自主性是一个存在于连续体中的变量。有些工具没有自主权——人们可以充分说明它们的行动是由外部力量造成的。锤子击中钉子,即使它打不中,也没有自主权,因为人们可以证明,打不中是由于使用它的人缺乏经验、视力差或其他一些外部因素造成的。基本的GPS系统可以说具有非常小的自主性,因为当被要求从点A到点B的最佳方式时,它比较几个选项并推荐一个,但是它的推荐基于计算最短路线的人工算法,或者将花费最少时间行进的算法,或者一些其他植入标准。当机器被赋予大量的指导方针(有些指导方针相互冲突),并被命令利用其在前进过程中获取的信息,并自行得出结论(例如更先进的GPS系统,该系统可识别即将到来的交通或事故,并相应地改变路线)时,就会出现大量的自主性。配备人工智能的机器被认为能够比不配备人工智能的机器更自主地工作。

莫妮卡·罗赞菲尔德写道:深度学习是一种相对较新的人工智能形式,它提供了一种古老的技术——神经网络,这种技术是由大数据、超级计算和高级算法实现的。网络的每个神经元拥有的数据线彼此通信。不可能为无限数量的情况编写代码。没有正确的代码,机器就不知道该做什么。然而,通过深入学习,这个系统能够自己解决问题。该技术使网络形成与每个新情况最相关的神经关系。(罗赞菲尔德2016 )

卡内基梅隆大学( Carnegie Mellon University )的一群计算机科学家指出,“机器学习算法越来越多地在信用、医疗诊断、个性化推荐、广告和工作机会等方面做出决策,但具体如何决策仍然是个谜。“”( Spice 2016 )

有些人认为,机器可以实现完全自主:例如,武器系统在没有人为干预的情况下选择自己的目标,其任务不能中止。事实上,即使是这些机器也只限于人类为它们设定的任务,它们只有“自由”选择目标,因为人类以这种方式对它们进行编程。他们的自主权是有限的。

军事伦理学家小乔治·卢卡斯指出,关于机器伦理的争论往往被混淆机器自主与道德自主;Roomba真空吸尘器和爱国者导弹都是自主的,因为它们执行任务,以最少的人为监督适应和应对不可预见的情况,但如果它们有道德上的反对,它们也不能改变或中止任务。

佩德罗·多明戈斯写道:他们可以改变他们所做的事情,甚至想出令人惊讶的计划,但只能为我们设定的目标服务。一个机器人的编程目标是“做一顿美味的晚餐”,它可能会决定做牛排

全文共12959字,剩余内容已隐藏,支付完成后下载完整资料


资料编号:[11008],资料为PDF文档或Word文档,PDF文档可免费转换为Word

原文和译文剩余内容已隐藏,您需要先支付 30元 才能查看原文和译文全部内容!立即支付

以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。