算法的民事法律风险防范研究外文翻译资料

 2022-08-09 09:57:46

英语原文共 10 页,剩余内容已隐藏,支付完成后下载完整资料


摘要

随着算法越来越多地用于做出影响人类生活的重要决策,从社会效益分配到预测犯罪再犯风险,人们开始关注算法决策的公平性。上述的大多数工作是关于算法公平的,通常规定了如何做出公平的决定。相反,在此,我们对用户进行描述性调查,了解他们对算法决策公平性的看法和理由。

这项工作的一个关键贡献是我们提出的框架,以理解为什么人们认为某些特征在算法中是公平的或不公平的。我们的框架确定了特征的八个属性,如相关性、意志性和可靠性,作为人们对决策算法中,特征使用的公平性的道德判断的潜在考虑。我们通过对576人进行一系列情景调查来验证我们的框架。我们发现,基于一个人对范例场景中一个特性的八个潜在属性的评估,我们可以准确地(gt; 85%)预测这个人会不会判断这个特性的使用是公平的。

我们的发现具有重要的意义。在高层次上,我们证明了人们对不公平的关注是多维的,并认为未来的研究需要解决歧视之外的不公平问题。在低层次上,我们发现人们对公平的判断存在相当大的分歧。我们找出分歧的根本原因,并指出解决分歧的可能途径。

关键词

算法公平性;算法歧视;机器学习公平性;程序公正;公平的特征选择

1介绍

算法训练数据在过去的对生活有影响的决策中越来越多地用于协助或取代人类决策,如确定如果一个失业的人是否有资格获得一定程度的社会福利或决定一个人是否可以被取保候审。考虑到它们对人类生活的潜在影响,人们对算法决策的公平性产生了担忧。

对算法不公平的担忧,导致了最近许多关于在决策场景中检测和减轻歧视的工作。这项工作包括寻找方法来实施直接和间接歧视的概念,并为非歧视性学习提供机制,也包括审查作出非歧视性决定的可行性。

现有的关于算法公平性的研究在很大程度上具有规范性(说明性)。在美国,他们从定义应该如何做出公平的决策出发,假设在公平决策的定义问题上存在社会共识。在本文中,我们寻求一种互补的比较描述性方法来实现公平决策。受描述性伦理学著作的启发,我们在一个特定的背景下进行了实证研究,以了解人们认为什么是公平决策,目的是揭示他们感知背后的道德推理。在后文中,我们将讨我们的发现可以怎样用来设计公平的决策算法。

由于对公平的感知是多维度的、与具体情况关系紧密的,因此如何描述它们是一个困难的挑战。在这项工作中,我们计划了解人们如何判断在决策中使用每个特征时的公平性。更具体地说,我们试图衡量、分析人们如何回答以下问题:在给定的决策场景(S)中使用特性(F)是否公平?

我们将对公平性感知的调查集中在上述问题上,原因有很多:首先,人们对使用特性的公平性的判断可以用来学习公平的算法决策,正如我们最近的论文所示。第二,“是否公平地使用这个特性”这一问题,是直观和简单的理解,如我们的研究显示,基于他们的判断,人们的回答可以被分析以用于揭示了、不同类型的公平程度考虑,如某个特性是否是最终结果的原因。

我们的贡献。我们从576人的调查中收集并分析了公平判断。我们要求调查参与者评估使用COM-PAS的不同特征的公平性,COM-PAS是一种商业犯罪风险评估工具,目前在美国用于帮助做出关于保释决定的司法决定。

为了对驱动参与者公平判断的因素进行建模,我们提出了一组特征的8个潜在属性,我们假设这些特征包涵了影响人们公平判断的大多数考虑因素。我们的8个属性的框架包括歧视之外的不公平问题,比如一个特性是否对隐私敏感,它是否出于意志(见第2节)。

当被要求使用不同的输入特征来比较保释决定的公平性时,我们的大多数受访者认为有一半的特征使用起来不公平。有趣的是,受访者在做出判断时所考虑的潜在属性大多与歧视无关,这凸显出有必要考虑额外的不公平问题。

不幸的是,我们还发现,受访者对使用一些功能的公平性的判断缺乏明确的共识。我们的分析试图通过将人们的公平判断分为两部分来解释这种缺乏:第一部分有关人们如何评估的潜在属性功能,第二部分有关他们如何使用公平的道德原因。

我们发现,受访者在公平判断上缺乏共识,很大程度上可以归因于他们在如何评估潜在属性方面存在分歧——尤其是那些与因果推理相关的属性,比如某个特征是导致结果的原因,还是由敏感的群体成员关系造成的。然而,我们发现,如果给定一组潜在属性,受访者在做出公平判断时也会使用类似的道德推理。具体来说,我们能够发现一个单一的、简单的分类方法,它可以准确地从受访者的潜在属性评估预测他们的公平判断。

影响。我们的发现是令人震惊的,因为这表明人们的公平判断的差异可能并非从由他们更主观的道德判断的差异引起。这种道德判断是当判断不同的特征时如何衡量不同的特征。但这些差异并非如他们看起来那样的主观。因此,我们的发现为未来的公平算法决策指明了方向(如,它是否导致输出结果),可能是由大量数据客观地决定的,而人们用来将潜在属性映射到公平的道德推理可能是由人们的输入导致的(如,经调查)。

2判断特征使用的公平性

许多心理学决策理论的著作提出,人们使用启发法来评估情况并做出决策。这些启发可能根据具体情况以及人们对情景元素的知识水平而有所不同,这有助于将信息解析为更易于管理和更有意义的片段。

我们假设,当决定一个特征在决策场景中使用是否公平时,人们依靠他们对该特征的某些基本属性的隐式或显式评估作为一种启发。所以我们的框架是由两部分组成的。在第一部分中,我们假设了一个给定特征的八个潜在属性,以求了解人们如何使用这一特征来判断公平性。在第二部分中,我们假设这些潜在属性在不同个体对特征的公平性判断时以不同的方式加权。我们从现有的社会-经济-政治-道德科学、哲学和法律的文献中获得这些潜在的属性,详情如下。

1)可靠性。受法律要求任何可采证据都要经过可靠性评价的启发,公平判断可能会受到可靠性评价特征潜力的影响。例如,比较再犯风险预测的一个输入特征是被告对犯罪的信念,通过回答“你认为一个饥饿的人有偷窃的权利吗?”那些不能从这些问题中得到对犯罪行为的看法可靠评价的人,可能会认为这个功能使用起来不公平。”

2)相关性。受法律要求的启发,任何可接受的证据都与案件相关,公平判断可能会受到特征与决策场景的相关性的影响。例如,比较再犯风险预测的一个输入特征是被告在学校的教育和行为,通过回答“你在高中的普遍成绩是什么?”那些认为在学校的表现与再犯风险评估无关的人可能会认为这个功能使用起来不公平。

3)隐私性。法律规定,通过非法侵犯隐私获得的证据(如未经授权的搜查或未经授权的窃听)是不可接受的,受此启发,公平判断可能会受到该功能是否依赖于隐私敏感信息的影响。例如,比较再犯风险预测的一个输入特征是被告的药物滥用史,通过回答“你在青少年时期使用过海洛因、可卡因、快客或冰毒吗?”那些认为青少年吸毒是隐私敏感信息的人可能会认为这个功能使用起来不公平。

4)意志性。受哲学观点上运气平等主义的启发,人们应该对自愿的选择负责,但在非终极惩罚的情况下(极幸运),公平的判断可能会影响一个人的评估的程度的特性是意志,即,这是行使自己意志的结果。例如,比较累犯风险预测的一个输入特征是被告家庭的犯罪史,通过回答“你的父亲或母亲曾被逮捕过吗?”那些认为家庭犯罪史是非意志性的人可能会认为使用这个功能是不公平的。

5)导致的结果。受到公平应用因果推理的论据的启发,公平判断可能受到一个特征是否可能改变人实施危险行为的机会的影响。例如,比较累犯风险预测的一个输入特征是被告当前的指控,通过回答“你目前是否被指控犯有轻罪、非暴力重罪或暴力重罪?”那些认为被告目前的指控会导致他再次犯罪的人可能会认为这个功能值得使用。

6)导致恶性循环。受到避免犯罪和贫困恶性循环观点的启发,一个特征是否可能将人们困在一个风险越来越大的恶性循环中,可能会影响公平判断。例如,比较累犯风险预测的一个输入特征是被告的朋友的犯罪历史,通过回答“你的朋友中有多少人被捕过?”认为朋友有犯罪记录的人可能会创造一个恶性循环可能会认为这个功能使用起来不公平。

7)导致结果的差异。受到不同影响反歧视法的教义要求,统计校验结果的人属于不同的种族或性别敏感的社会组织,公平的判断可能会受到一个特性是否会导致保护小组成员接受不利的治疗。例如,比较累犯风险预测的一个输入特征是被告居住的社区的安全性,通过回答“你的社区犯罪多吗?”那些认为社区安全可能会增加结果上的差异的人,可能会认为这个功能使用起来不公平。

8)由敏感的组成员关系引起。受间接歧视的概念的启发,在政治和经济科学、社会团体的成员在哪里存在间接歧视。例如,比较累犯风险预测的一个输入特征是被告的朋友的犯罪历史,通过回答“你的朋友中有多少人被捕过?”有些人认为朋友的犯罪史可能是由某些社会群体的成员身份造成的,他们可能会认为这个功能使用起来不公平。

观察报告1:潜在属性的充分性和必要性。我们并不声称上面列出的潜在属性是详尽或完整的。也就是说,可能存在影响用户公平判断的其他属性。然而,正如我们在3.1.2中所展示的,在我们的调查中,这八个属性总的来说是充分和必要的,来解释用户的公平判断。具体来说,只有不到3%的被调查用户报告说,他们在做出判断时使用了我们列表之外的房产;此外,在我们调查的8个属性中,每个属性至少占15%用户报告说,他们在判断是否公平时,会把它作为一个考虑因素。此外,当我们试图分析预测用户的公平判断时,仅仅基于他们在第5.2节中对潜在属性的评估。我们发现,这8个性质不仅足以使预测具有较高的准确性,而且这8个性质中的6个也具有统计学意义用于预测公平判断。

观察报告2:歧视之外的不公平。我们的潜在属性列表捕获了一组不同的关于算法决策的不公平问题,它们超越了歧视,这是大多数现有算法公平文献的传统基础。事实上,在我们上面讨论的预测分析中,这两个属性在统计学上并不显著,它们导致了结果的差异,并且是由敏感的群体成员关系造成的,它们与一个特征引起歧视的潜在可能性有关。因此,我们提出的框架捕获了许多不公平的方面,这些方面以前在公平学习社区中很少受到关注,但可能会显著影响用户对算法决策的公平感知。

3方法论

为了收集人们对算法公平性的判断以及我们提出的潜在属性,我们在2017年9月和10月进行了一系列的在线调查。我们的方法得到了我们机构的道德审查委员会的批准。

3.1 调查设计

我们要求参与者在一个已经在现实世界中使用的特定场景的上下文中回答问题。

3.1.1场景。我们考虑了COMPAS系统,该系统分析被告对一份大型问卷的回答,问卷的问题涉及一系列类别,以预测犯罪活动的风险。COMPAS已被美国多个司法管辖区采用,以协助司法领域的任务,包括关于保释、量刑长度和假释的决定。

我们的调查以以下内容开始:“佛罗里达州布劳沃德县的法官已经开始使用计算机程序来帮助他们决定哪些被告可以在审判前获得保释。他们正在使用的计算机程序考虑了有关某某特征的信息。例如,计算机程序将考虑被告对以下问题的回答:某某回答。”这些项目被要求提供与COMPAS工具相关的十个特性,如表1所示。这些特征是从COMPAS问卷的类别中提取出来的,该特征的例题是从问卷中相应的类别中提取出来的。我们在两个试点调查和主要调查中使用这个场景,如下所述。

3.1.2 试点调查1:公平判断及其潜在原因。在试点调查1中,我们试图了解受访者是否认为上述情况是公平的,以及为什么他们认为是公平的或不公平的。

我们要求人们从“非常不同意”到“非常同意”,用李克特7分制来评估这种情况是否公平。

(表1内容略)

表1:在我们的调查中评估的十个特性,以及作为场景示例提供的问题。这些特征和问题来自于COMPAS问卷。

(图1内容略)

图1:试点调查1中作为公平判断正当性依据的属性。对于每个属性,图中显示了使用它作为公平判断的理由的响应的百分比。请注意,可以使用多个属性作为单个判断的理由。

具体来说,我们的问题是:“请评价你在多大程度上同意以下陈述:这是公平的,以确定一个人是否可以在保释时使用有关他们的某一功能的信息。然后,我们要求他们选择他们认为公平或不公平的理由,提供8个潜在属性作为回答选项(如下所述,用于试点调查2),同时提供一个带有文本输入框的“其他”选项。那些认为场景不公平的参与者(1-3分)只被问及为什么不公平,而那些认为场景公平的参与者(5-7分)只被问及为什么公平。参与者给场景一个中立的评级(4),两个问题都问。对于表1中的10个特征,参与者被随机要求回答这组问题,并按特征在被调查者之间呈现的顺序排列。

其他。我们使用试点调查1来评估我们在第2节中提出的属性是否有必要和充分来捕获人们关于公平的推理。我们发现,至少有15%的受访者使用每个属性来解释为什么他们认为某个特性使用起来公平或不公平(图1)。有趣的是,最常被用来解释公平判断的属性与歧视的概念无关:相关性是最常被使用的属性,74%的回复使用了相关性,其次是因果关系和可靠性,超过40%的回复使用了相关性。

此外,只有不到3%的受访者选择了“其他”选项来解释他们为什么认为某个场景公平或不公平。对“其他”类别中提供的答复的主题分析揭示了这一点。这些反应中的大多数仍然映射到我们的八个属性之一。对我们提出的每个属性的频繁选择,以及“其他”响应的比例较低,表明我们不太

剩余内容已隐藏,支付完成后下载完整资料


资料编号:[239816],资料为PDF文档或Word文档,PDF文档可免费转换为Word

原文和译文剩余内容已隐藏,您需要先支付 30元 才能查看原文和译文全部内容!立即支付

以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。