人工智能和行政自由裁量权 对公共行政的启示外文翻译资料
2022-08-08 19:56:21
英语原文共 20 页,剩余内容已隐藏,支付完成后下载完整资料
人工智能和行政自由裁量权
对公共行政的启示
摘要:人工智能(AI)领域的进步正在导致计算的新水平,其中系统将具有充当自治代理的能力,并学会独立学习,评估其环境以及以价值,动机和情感进行思考。对人工智能文献中对话的反思及其对公共行政的影响,引发了与行政自由裁量权相关的许多经典难题的问题,包括响应能力,判断力和问责制。在对人工智能领域进行简要概述以提供背景之后,本文依次解决了每个主题,并在总结性讨论中总结了人工智能在公共管理领域的潜在利益和危害。
“我的目的不是使你感到惊讶或震惊。但是,我可依用最简单地概括,世界上存在着思考,学习和创造的机器。而且,他们做这些事情的能力将迅速提高,直到在可见的将来,他们可以处理的问题范围将与人类思维所应用的范围共同扩展”。
——《西蒙在德雷福斯》(1994年,第81页)
从其他学科的角度重新审视公共管理领域的长期问题可能是有启发性的。这样的问题之一就是公共管理者的独立决策,这一直是治理理论家的争论点。尽管在现代行政状态下不可避免地具有一定程度的行政自由裁量权以执行法律,但是在不破坏立法权威和问责制的前提下,多少是适当的或合法的问题是一个经典问题。例如,库克(1995)指出了詹姆斯·Q·威尔逊的论点,即官僚的自由裁量权是应对激进民主制所追求的模糊,多中心的问题所必需的。相比之下,西奥多·洛伊(1993)警告说,增加自由裁量权对于赞助政府和法治之外的不负责任的官僚机构来说是一个特定的公式。
但是,这些理论上的争论不应该是凭空考虑的。随着不断产生越来越先进的技术工具来增强决策能力,重要的是不断地重新研究这些论点并考虑新兴技术的潜在影响。
的确,本文是由公共管理(MPA)硕士课程的一名研究生担任的,他是一名专业的通讯工程师。在回应行政伦理课的读物时,他指出,随着人工智能(AI)技术的出现,行政自由裁量权的论点将变得毫无意义。他指的是计算机的新水平的发展,人工智能专家声称它将具有充当自治代理的能力,这些代理可以学习独立学习,评估其环境以及以价值,动机和情感进行思考。
尽管如今这种机器智能似乎令人难以置信,但对人工智能领域对话与发展的反思却将注意力集中在与行政自由裁量权相关的许多难题上,例如响应能力,判断力和责任心。在简要介绍了人工智能以提供环境后,本文依次讨论了每个主题,并在总结性讨论中总结了人工智能在公共管理领域的潜在利益和危害。
人工智能的概述
顾名思义,人工智能指的是对机器或计算机智能的追求,其近似于人脑的能力-或“使机器完成人类需要做的事情的科学”(马文&纳拉亚南(1984)。 人工智能的本质体现在以下陈述中:“如今,机器主要根据我们内置的原理来解决问题。不久,我们可能会学习如何让他们着手解决非常特殊的问题,即提高他们解决问题的能力”(Minsky in Dreyfus,1994,第81页)。
与任何新兴技术一样,关于人工智能的潜在功能和局限性也有很多争论。 Dreyfus(1994)是被引用最多的人工智能批评家之一,他认为,任何人工实体最终都将缺乏人类的智能,因为它永远无法最终模拟人类的体验。他指出:“计算机只能处理事实,但人(事实的来源)不是事实或一组事实,而是在生活过程中创造自己和事实世界的生物。特莱菲尔(1997)认为,由于大脑皮层与数字计算机之间的根本性,功能性差异,机器永远无法接近人脑的功能。其他人则认为这种观点不必要地悲观,并指出了在人造系统上的无可否认的进步,这些人造系统实际上是自治代理,即可以独立思考,学习和解决问题的机器(Franklin,1995; Kurzweil,1990)。真的,速派总结道,经过数十年的挫折,人工智能的爱好者也在一次对其产生积极心态。尽管它们距离复制人类心理的复杂性还有很长的路要走,但现在很少有理论家声称机器智能是不可能的”(第85页)。此外,这些系统还可能具有融合诸如价值,动机和目标等人类特质的能力(Crevier,1993; Gill,1986; Kurzweil,1999; Waldrop,1987; Yazdani&Narayanan,1984)。即使在这个舞台上,人工智能的批评者也没有质疑这种机器的技术可行性,而是质疑这种努力的道德性(Sack,1997)。
为了将人工智能的发展放到上下文中,考虑计算机功能的三个级别是很有用的。我们了解使用计算机作为决策支持,将计算机用作复杂的高速计算器。如今,通常在财务管理领域中,通常会在组织中看到这种第一层计算。我们也越来越熟悉将计算机用作专家系统,我们可以将其视为计算的第二级,在此计算机可以应用复杂的基于规则的系统。当今流行媒体中专家系统的一个例子是Deep Blue,它是IBM系统,最近击败了世界象棋冠军(加里)。对几个领域的当前应用程序的采样提供了专家系统第二层的感觉。
在医学领域,正在开发诸如MYCIN的专家系统,该系统具有快速吸收有关特定患者病例的信息(例如病史,症状,实验室检查结果)的能力,以帮助医师提出假设,建立证据并提出问题(温斯顿) (1992年)。在军方,诸如综合防御系统(IDS)之类的系统正在设计中,以确定最佳的响应时间,采取适当的对策,并模拟敌机和敌机(Daily Defense News Capsules,1995; Hunter,1995; Miller,1994)。在执法中,被称为Brainmaker的软件被用作一种自动警告系统,该系统使用专家系统来识别显示可能导致犯罪和腐败行为的警察(Seibel,1994)。最后一个例子是心理健康,其中使用了一个名为“好心情程序”的专家系统来帮助用户通过他们遇到的个人问题进行交谈(Ansley,1994)。
人工智能是计算机的新层次:
在前两个级别中,尽管计算机正在应用复杂的逻辑并独立进行连接,但它们仅根据它们所提供的信息来提供信息。 尽管令人印象深刻,但即使是专家系统的第二级也不是人工智能领域的最终目标。富兰克林关于具有价值和动机的自治代理的概念完全是另一个层次,因为它意味着机器具有超越初始编程能力并学会学习的能力。例如,Artilects是一家致力于下一代人工智能的商业发展的公司,其一种先进的叫做OSCAR的技术的特别许可权。但是公司说明,在现阶段,OSCAR正准备用于支撑药物决定和信用分析。
我们计划在未来的五年内让OSCAR自己学习,利用他在可行推理方面的当前技能作为归纳式机器学习系统的基础,从而OSCAR将从原始数据中创建自己的知识,然后随着他的发展而学习。(全球资讯网)
此外,随着情况的变化,独立学习的能力也暗含了进行判断的能力。 沃德罗普(1987)指出,即使是最复杂的专家系统也缺乏常识的表象。回到Mycin专家系统的示例中,他解释说,
红霉素对诊断疾病了解很多。但是它对解剖学或生理学一无所知,并且不能认为患者是人类。它的一项规则告诉它避免给八岁以下的患者服用四环素。所以从来没有。但是Mycin无法知道该规则为何有效。(四环素会在牙齿发育过程中产生牙齿染色,并可能抑制骨骼生长。)因此,Mycin无法向用户解释该规则或不知道何时违反该规则(例如,当孩子的生命受到威胁时,美容方面效果可以忽略不计)。 (第44页)
认识到专家系统的这种局限性,人工智能研究人员正在探索人类如何通过使用类比,反复试验和默认推理来发展常识。 格鲁佩和欧朗 O.(1995年)描述了模糊逻辑的概念和模糊系统的发展,这些技术使人工智能技术能够适应不断变化的条件,并且擅长将对情况的部分准确,定性的评估结合到决策中。这种发展正在引起人们对人工智能的假设优势和劣势的讨论,这些领域以前被认为对计算机过于主观和敏感,例如在解决法律领域的社会科学纠纷时使用人工智能的法官和调解人(Raghupathi ,1991年; Spagnoletti,1987年),用机器人代替宇航员(Southerst,1992年),对学术论文进行分级(Pappas,1998年),管理监狱判决程序(Peterson,1993年)以及提供投资建议(Pech,1999年)。 。
将讨论人工智能研究和应用的更多示例,但本文的目的不是分析有关人工智能的大量文献或评估关于人工智能的科学局限性的争论。相反,以下讨论假定了向第三级计算的进步,并考察了公共管理领域的含义,特别是在行使行政自由裁量权方面。这种反思不仅仅代表学术上的精神锻炼;最近的历史表明,直到事后才考虑到新技术的全部社会和政治影响,从而产生巨大的社会压力。此外,正如人工智能研究正在鼓励哲学和心理学等相关领域的学者重新审视人类的思维,推理和学习方式一样,这种探究也激励公共行政领域的学者重新审视我们如何治理,做出决定,并向公众提供服务。
从行政自由裁量权的角度来看,可以在三个主题下理解第三级计算的潜在重要性。首先,利用价值和动机对机器进行编程的能力表明,有潜力通过可以应用已知或指定范围的价值或偏差(响应主题)的工具来提高决策的合理性。第二,开发能够感知环境中细微方面或变化的机器的能力提出了可以进行政治或情境评估(判断主题)的工具。最后,可以学习独立学习的机器建议使用一种无先例的工具,该工具可能超出人类扫描环境,评估情况和及时做出决策的能力,而无须人工监督(问责制主题)。通过人工智能的角度对每个主题的反思揭示了许多问题,好处和危险,因为决策技术的发展常常以无法预测的速度不断发展。
责任感
公共管理者行使酌处权的主要难题之一是,当我们知道个人和机构可以出于自身利益而受到激励时,公众必须依靠管理者的“公共利益”。的确,罗伊(1993)指出:“自私利益的假设可能是所有政治学家都同意的唯一内容”(第262页)。因此,在詹姆斯·麦迪逊(James Madison)的领导下,创始人创立了制衡政府和民众大选,以应对自私的行为。令人担心的是,未经慎选的未当选管理员超出了这些检查的范围,因此必须仔细加以约束。此外,即使他们不是出于有意识的自利动机,也不可避免地会产生偏见。威尔逊(1989)指出,
在定义[对于一个机构]的核心任务并挑选出适合或不适合该任务的任务时,管理人员必须意识到他们的许多竞争对手对其定义的权利。具有专业背景的运营商将为代理机构带来他们的技能,同时也带给他们偏见:律师,经济学家和工程师以截然不同的方式看待世界。您不能雇用他们,就像他们是熟练的手将完全执行您为他们设置的任务的工具一样。布莱克和德克尔可能会制作类似的工具,而哈佛大学和麻省理工学院则没有。工人同龄人小组还设定了操作员要遵守的期望,尤其是当操作员在具有威胁,不可预测或对抗的环境中工作时。 (第371页)
如果哈佛大学和麻省理工学院可以制造威尔逊所暗示的那种工具,那就是,人工智能系统是理性的而不是自私的,有偏见的,受其环境影响的,或者被编程为仅应用某些价值和动机的?具有此功能的计算机是否可以通过消除不必要的或未知的值或偏差来改善管理员的响应能力?
确实,丹齐格,达顿,克林和克莱默(1982)指出,赫伯特·西蒙(Herbert Simon)将计算机视为“一种非政治性技术,可提高决策的合理性和组织运营的效率”(第xii页)。 AI社区还参与理性和思想本质的讨论。富兰克林(1995)将牛津英语词典中关于心理的定义之一称为“与意志和情感区分开的认知或智力能力”。通常与心脏形成对比”(第22页)。富兰克林(Franklin)将该定义描述为描述了他所认为的“理性思维,沉思思维”。通过引用此定义,富兰克林提出了一种完全合理的机器的可能性,即用赫伯特·西蒙(Herbert Simon)的话说,具有将事实与价值分离的能力的技术。
但是,公共领域的问题不是要从决策中去除价值。我们知道,在公共政策中,没有非政治或无价值的决定。除了最狭窄的技术决策外,所有决策都通过所做的和未完成的方式反映了价值选择或偏见。 人工智能领域令人着迷的是知道和预测潜在价值和偏见的潜力,从而增加了以对商定前提做出响应的方式做出决策的可能性(这些前提是我们稍后将返回的问题)。 富兰克林(1995)在描述阿克力和利特曼的工作时提出了具有编程值的机器的可能性,Ackley和利特曼已经开发了人工代理,它们可以进化并学会处理相对动态和复杂的环境。这是通过在评估网络中建立一个人工神经网络来完成的,该网络“提供了一种值可以影响行为学习的机制”(富兰克林,1995,第206页)。
因此,在AI社区中正在研究的不是传统的没有价值的机器概念,而是开发具有特定价值,动机和目标的人造系统的能力。因此,在某种意义上说,有可能建立一个类似于理想理性人的人工智能系统,从而可以理解潜在的所有假设,从而可以理解决策过程。
从行政自由裁量权的角度来看,这种能力无疑会产生一种忠诚的忠诚体系,对任何强加给它的价值观,动机和目标开放-忠诚的职业官僚的本质是服务于当前政治行政议程而没有 受个人兴趣,偏见或价值观的影响。
具有价值的机器可能将我们带入一个公共管理中的经典辩论:在理想的公共管理者中的个人价值和利益是什么样的的角色才合适。对于那些赞成民主治理是由程序化的管理员(或智能机器)对民选官员及其任命做出无动于衷的反应的人来说,这些系统所提供的可能性是值得欢迎的。对于那些由于众多示例而使管理员不满意可编程管理员概念的人,在这些示例中,管理员行使了“忠诚于问题”并遏制了过多的政治活动,那么这些系统的前景令人恐惧。
也许在这里有一些中间立场,在这种中间立场下,这样的系统可以作为各方检查任何问题或决定中的基本假设的工具。换句话说,可以为人工智能系统编程各种值,目标和动机,以查看不同的组合如何影响分析或决策。
判断力
尽管在适当的界限上存在分歧,但是大多数行政自由裁量权理论家都承认,公共行政人员在执行法律时必须运用合理的判断力。换句话说,没有法律可以涵盖所有情况。已经开发了许多模型来指导良好判断力的锻炼。例如,罗尔(1986)提出了以从属为基础的自治概念,该论点认为,公共行政管理者必须对有时忠于职权的要求持开放态度,可能要求他们在行政部门
剩余内容已隐藏,支付完成后下载完整资料
资料编号:[240221],资料为PDF文档或Word文档,PDF文档可免费转换为Word
课题毕业论文、开题报告、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。