杀手机器人(Killer Robots)有什么不好外文翻译资料

 2021-11-24 22:29:07

英语原文共 18 页

杀手机器人(Killer Robots)有什么不好?

ALEX LEVERINGHAUS

摘要 机器人战争已经成为现实。一个引起激烈争论的问题是“杀手机器人”的发展。这些武器一旦编程,就能在没有人类操作人员监督的情况下找到并攻击目标。从概念上看,关于杀手机器人的争论相当混乱,尤其是因为不清楚如何界定这些武器的核心要素。这篇文章对相关的概念问题给出了一个精确的观点,认为杀手机器人最好被看作是执行由人类程序员做出的目标决策的执行者。然而,从规范的角度来看,杀手机器人执行目标决策应该让我们感到担忧。这篇文章认为,杀人机器人在道德上的缺点在于它们在战争中用人工智能机构取代了人类机构,这种发展是应该被抵制的。最后,本文认为,代理问题指向正义战争理论中的一个更广泛的问题,即道德权利在我们对武装冲突的道德论证中的作用。

引言

迈克尔bull;沃尔泽写道:“战争是政治实体与其人类工具之间的关系,也就是说,与士兵之间的关系。” 然而,令人怀疑的是,在未来的武装冲突中,政治实体- -尤其是国家- -是否将完全依靠人类的战争工具。这是因为一些国家正在开发技术复杂程度不同的军用机器人。因此,在未来的战争中,常常被称为杀手机器人的武器化机器人——我在这里也将使用杀手机器人这个术语——很可能将补充甚至取代战争的“人类工具”。一些评论者对这一前景表示欢迎,原因有二。首先,杀手机器人使军队能够履行对其成员的照顾义务。虽然军队没有义务保护服役人员不受一切可能危及生命和肢体的威胁,但它有义务采取合理步骤减少其士兵的危险。因此,有人可能会说,在部署杀手机器人是替代“派遣地面部队”的可行选择的情况下,军队必须使用机器人。其次,据称,杀手机器人的部署增强了对战争规则的遵守。因此,杀人机器人具有重要的人道主义目的,即减少武装冲突期间的痛苦。鉴于交战各方有责任使用最有效但危害最小的方法来实现目标,部署杀手机器人在道义上是强制性的——至少有人可能会这么说。这两种观点都不是全新的。在关于无人驾驶飞行器(“无人机”)的辩论中,照顾义务发挥了广泛的作用。同样,精确制导武器(包括无人机)的人道主义防御也很常见。话虽如此,支持杀人机器人的人道主义论点,为目前有关武器技术的辩论增添了一个有趣的转折。士兵犯下的战争罪行的持续存在证明,人类往往不遵守战争规则,特别是在紧张的情况下。他们不再冷静,变得好战。相反,机器人学家罗纳德·阿金(Ronald Arkin)指出,机器人不容易受到类似的心理压力。他们的“动力”来自算法。如果有可能以不违反战争规则的方式为机器人编程,那么部署机器人,而不是部署“容易犯错”的人类士兵,在道义上是可取的。换句话说,让机器人而不是人类来扣动扳机更安全。

在本文中,我对杀手机器人的人道主义论点提出了质疑。虽然我认为,从概念上讲,杀人机器人在技术上并不是前所未有的,因为它们与其他精确制导武器共存,但用机器的“人工代理”取代战争中的人类代理存在严重问题。为了展开这一批判,我将进行如下工作。在文章的第一部分,我对正义战争理论和我对杀手机器人争论的分析之间的关系做了一些初步的评论。在第二部分中,我将简要讨论概念问题。在第三部分和第四部分,我将分别转向对杀手机器人的两种规范批评。在文章的第五部分,我为我对杀手机器人的主要规范批评辩护,反对四个潜在的批评。

  1. 序言

本文从当代正义战争的角度来探讨杀人机器。最近关于正义战争理论的一场辩论,我将在本文后面对其进行简要讨论,它涉及战斗人员的道德地位。一方面,正统的正义战争理论家声称,所有战斗人员都有平等的权利在战争中杀死敌方战斗人员,不论他们的原因是什么。沃尔泽称这是士兵的道德平等。另一方面,新古典正义战争理论家否定了军人的道德平等。他们认为只有为正义而战的士兵才被允许战斗和杀戮。总而言之,正统理论家和他们的新古典主义批评家对规范武力使用的两大规范框架之间的关系存在分歧,即“jus ad bellum”和“jus in bello”。前者规定宣战,后者规定敌对行动的进行。新古典主义正义战争理论家认为,允许在战争中使用武力(jus in bello)取决于战争的正义(jus ad bellum),而这一主张被正统理论家所否认。尽管在战争中杀人的伦理问题上存在根本分歧,但我认为,正统派和新古典主义正义战争理论家在杀人机器人问题上有可能达成一致。

更一般地说,可以从“jus ad bellum”和“jus in bello”的角度来探讨杀手机器人的争论。关于前者,有人可能会说,新武器的可用性,以及一般武器研究,可能会转化为更多的非正义战争。这种推理可能过于简单。虽然技术在战争中发挥着重要作用,但战争往往有多种原因。然而,如果因为这个或相关的原因,武器研究在道德上是不被允许的,那么就没有必要参与关于杀手机器人的辩论。仅仅因为杀人机器人是武器,就可以不允许开发杀人机器人。杀手机器人在这里没有引发任何独特的问题。在这篇文章中,我假定开发某些类型的武器在道义上是不允许的。如果开发和最终部署杀人机器人在道德上是不可接受的,那么其原因必须与这种特定类型的武器有关,而不是针对武器研究的一般原因。

从我在此集中讨论的jus in bello的观点来看,问题是新的武器技术是否加强或威胁遵守其三项核心原则:

  1. 区分:交战双方在道义上有义务区分战争中的合法和非法目标,特别是在人的问题上。在战争中,一些人是合法的目标,而另一些人不能受到伤害。
  2. 手段相称性:交战双方在道义上有义务在追求军事目标时避免造成过度伤害。
  3. 军事必要性:交战双方在道义上有义务避免为追求军事目标而造成不必要的伤害。

遵从性的问题使我区分了两种类型的论证,偶然的和内在的。偶然的争论集中在技术发展的特定状态。特别是针对杀手机器人的偶然争论,可能会指向军事机器人的技术缺陷,这意味着部署杀手机器人很可能违反jus in bello原则。然而,未来的技术发展可能使偶然的论点变得多余。相比之下,反对杀手机器人的内在论据并不取决于技术发展的某个特定阶段。人们可以想象一个技术完美的杀手机器人,有可能完全符合jus in bello的三个原则,但又反对这种类型的武器。我将在本文中提出的反对杀手机器人的主要论点本质上是固有的。

  1. 什么是Killer Robots?

在我们分析杀手机器人带来的伦理挑战之前,让我先简要地谈谈概念问题。首先,“机器人”一词被用来描述人工设备,这些设备能够感知并有目的地与环境互动,以便执行有用的任务。为了完成他们的任务,机器人有传感器套件,使他们能够感知周围的世界。他们的传感器套件通常集成到一个身体,翅膀,车轮,机械腿或手臂可能是附加。这些使机器人能够与环境互动。机器人的行为来自于机器与其环境的相互作用。自然,机器人需要能量来完成任务,它们通过电池、太阳能电池板或电源接收能量。最重要的是,机器人有微处理器和控制它们行为的控制软件。没有这个软件,机器人将无法做任何事情。如果把这些不同的元素结合起来,就有可能把机器归为人工智能体。机器人感知环境,与环境互动,并在其中引起变化。

以上对杀手机器人的定义为机器人可以执行的各种有用任务留下了余地。由于机器人用于不同的目的,重要的是要意识到关于杀手机器人的争论只涉及机器人的很小一部分。它甚至不关心军用机器人本身,也就是说,军方用来执行对军方有用的任务的机器人。例如,使用拆弹机器人拆除“简易爆炸装置”似乎在道德上没有问题。相反,争论的焦点是军事机器人(1)可分类为武器和(2)能够通过提供有效载荷对目标施加动能。在本文中,我通过关注机器人使用致命力量来关注当前关于杀手机器人的争论。

与其他武器相比,一些人认为杀手机器人代表了一种独特的军事技术。这是因为它们(1)能够自主行动,(2)能够决定何时以及如何对目标使用致命武力。这向我们指出了机器自主的关键概念。一些机器人专家认为,从基本意义上讲,如果一个机器人能够在没有人类帮助的情况下完成编程后的任务,那么它就是自主的。显然,这与哲学家们对“自治”一词的理解相去甚远。对于康德来说,一个代理人在道德上是自主的,因为她的行为是出于她所赋予自己的理由。然而,如上所述,机器人是由一个控制软件控制的,该软件由人类编写,使机器人能够执行特定的任务。这意味着机器人的行为,正如康德所说,是异质的。因此,我把机器人更好地分类为“自主操作”机器人。在目前的情况下,这意味着,一旦编写好程序,杀手机器人就可以在没有人类协助的情况下,执行军方所说的杀戮链的五个步骤:

(1)通过传感器获取潜在目标信息,

(2)分析结果数据,

(三)检查潜在目标是否可能被实施;

(4)执行目标决策,

(5)评估使用武力的后果。

不过,杀手机器人在什么意义上“做决定”还不清楚。为了解决这个问题,我建议我们区分执行目标决策(“执行模型”)和生成目标决策(“生成模型”)。根据执行模型,在机器人部署之前,程序员应用jus in bello准则。也就是说,程序设计人员决定允许机器人与哪个目标交战。在这个模型上的问题是,是否有可能以一种不违反任何程序员评估的方式部署杀手机器人。在生成模型上,机器人必须能够在不需要人工帮助的情况下解释和应用区分jus in bello的标准也就是说,它必须能够评估某一特定对象或人是否有资格成为道德上合法的目标,以及某一特定军事行动是否在道德上被允许。在这两种模型中,机器都会做出决策,但它们在本质上是不同的。

根据执行模型,机器人能够独立完成杀伤链的各个步骤。例如,它能够搜索潜在的目标,分析它通过传感器接收到的信息,并与适当的目标交战。但正如我们刚才看到的,道德上合理的目标是由程序员决定的也就是所谓的元目标决策。一个高度复杂的机器人可以在执行过程中做出进一步的决策,但最重要的是,这些决策发生在元目标决策设置的参数范围内。假设P为KB编写了攻击敌人坦克的程序。部署完毕后,KB探测到三辆敌人坦克。如果坦克3比坦克1更容易到达,KB可以通过选择坦克3而不是坦克1来执行P的元目标决策。从这个意义上说,KB做了一个决定。然而,与道德相关的一点是,KB只决定P已经认为在道德上合法的目标之间的选择。KB不确定敌人的坦克,而不是敌人的边境哨所,是道德上合法的目标。

相比之下,生成模型假设机器人可以生成类似于元目标决策的东西。但我认为,在可预见的未来,这种发电模式是不现实的。Jus in bello的标准在这里提出了主要的问题。从区别原则开始,很难看出杀手机器人是如何确定一个人是否是合法目标的。例如,从一个杀手机器人的角度来看,一个拥有玩具枪的孩子,一个非法的目标,可能看起来非常像一个合法的目标,例如一个全副武装的战斗人员。这一点可能也会削弱上面所说的杀手机器人可以用来执行目标决策的说法:它们将无法识别被编程来攻击的目标。诚然,执行模型在技术上的要求已经高得令人难以置信。真正的问题是,机器人是否能够生产出一种杀手机器人,能够在执行模型下运行。但是,给机器人编程以确定一个人是否是合法目标,似乎比给机器人编程以使它能够攻击特定的人更困难。

当人们考虑杀手机器人是否能够应用相称性和必要性的标准时,情况就显得更加暗淡了。无论一个人遵循正统还是新古典主义的战争法,对某一特定行动过程是否可能造成过度伤害的任何计算将包括评估军事行动对合法人类目标的影响以及对那些不能被伤害的人(至少是不能故意伤害的人)的影响。因此,无论人们如何详细地设想区别的标准,它都与相称性和必要性的标准直接相关。但是,由于杀手机器人一开始就无法应用这一原则,它们将缺乏一个合理的基础来作出适当的相称性和必要性判断。

另一个问题是必要性和相称性标准本身的模糊性。即使能够确保遵守歧视原则,杀手机器人也会发现很难解释什么构成了相称的和必要的伤害。这是因为这两个标准的应用高度依赖于上下文。为了说明这一点,想象一下,为了阻止格林的侵略,黄色在格林的领土上摧毁一个具有重要战略意义的兵工厂是军事上必须的(必要性)。假设在t1,黄色即将输掉这场战争,正在考虑是否攻击工厂。如果在t2,黄色轰炸了工厂,作为罢工的副作用,100名平民将会死亡。摧毁工厂是必要的,而且考虑到事态发展到如此糟糕的地步,100名平民的伤亡可能不会不成比例。然而,由于t2天气恶劣,黄色不得不停止进攻。在t3机场,天气状况有所改善,黄老板考虑再次袭击工厂。幸运的是,在t2比赛中,黄衫军在另一条战线上取得了重大胜利。为了防止格林生产更多的武器,可能仍然需要从军事上摧毁工厂,但是由于t2的增加,这个目标的重要性已经下降,现在在t3造成100名平民死亡可能是过分和不成比例的。这个例子表明,不能为潜在的目标分配固定的值。我们不可能给杀手机器人设定一个通用规则,即针对x类目标造成的z伤害总是过多的,而针对x类目标造成的y伤害则不会过多。从本质上说,比例标准的应用涉及作出道德判断,而这是机器目前无法作出的。为了避免混淆,我应该强调,这些判断不只是象上面的例子那样,涉及追踪有关的经验资料。这是机器可以做到的。相反,真正的问题是,在比例计算中,生活的“加权”和“平衡”的方式并不是固定的,而是受到当地环境的更广泛变化的影响。在上面的例子中,在t3时的黄色,由于其情况的改善,可能决定比t1时更强烈地权衡格林平民的生命。这在机器上很难复制。

如果这是合理的,杀手机器人,就目前而言,将无法产生合乎道德的目标决策,这是不允许的,如果不是实际上不可能,开发和部署这样的机器人。但重要的是,开发和部署杀手机器人来执行目标决策,而不是生成目标决策,可能不是不允许的。在本文的后面两部分中,我将对这种说法进行批判性的评估。

  1. 杀手机器人与责任的鸿沟

对自主技术的一个普遍批评是,它造成了所谓的责任缺口。在这些情况下,没有人对机器的工作负责。操作上自主的机器有时会以一种不可预测的方式运行。一些批评者认为,让程序员和设计师为操作上自主的机器行为的不可预见后果负责是不合适的。特别是对罗伯特·斯派洛来说,责任鸿沟的可能性是反对开发杀手机器人的一个重要原因。我揭穿了下面的责任鸿沟的概念。

原文和译文剩余内容已隐藏,您需要先支付 30元 才能查看原文和译文全部内容!立即支付

以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。