咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >可问责的算法 收藏

可问责的算法

Accountable Algorithms

作     者:约叔华·A.克鲁尔[美] 乔安娜·休伊 索伦·巴洛卡斯 爱德华·W.菲尔顿 乔尔·R.瑞登伯格 大卫·G.罗宾逊 哈兰·余 沈伟伟(译) 薛迪(译) Joshua A. Kroll;Joanna Huey;Solon Barocas;Edward W. Felten;Joel R. Reidenberg;David G. Robinson;Harlan Yu;Shen Weiwei;Xue Di

作者机构:普林斯顿大学信息技术政策研究中心 普林斯顿大学 普林斯顿大学计算机科学与公共政策 福特汉姆大学法学院 耶鲁大学法学院信息社会研究中心 斯坦福大学法学院互联网与社会研究中心 中国政法大学法学院 清华大学法学院 

出 版 物:《地方立法研究》 (Local Legislation Journal)

年 卷 期:2019年第4卷第4期

页      面:102-150页

学科分类:0301[法学-法学] 03[法学] 030103[法学-宪法学与行政法学] 

基  金:国家社会科学基金重大项目《互联网经济的法治保障研究》 (批准号:18ZDA149)阶段性成果 

主  题:自动化决策 可问责性 算法透明 算法审计 程序规制性 

摘      要:许多传统上由人做出的重要决策,现在都是由计算机做出的。算法统计选票、批准贷款和信用卡申请、指定公民或社区进行警务审查、选择纳税人进行税务审计、批准或拒绝移民签证等。然而,监管此类决策流程的问责机制和法律标准,尚未跟上技术的步伐。目前,可供决策者、立法者和法院使用的工具,是为监督人类决策而设计的,当把它们应用于监督计算机决策时,通常会失灵。例如,如何判断一个软件的意图?由于自动化决策系统可能会输出不正确、不合理或不公平的结果,因此,我们需要采取其他手段,以使此类算法具有可问责性和可操控性。本文提出了一套新的技术措施,它能够以法律公平为准绳,来验证自动化决策。法学界的主流文献认为,算法透明可以解决这些问题。本文对这一主流观点提出挑战。通常而言,源代码的公开,既不必要(由于计算机科学中的替代技术),也不足以证明决策流程的公平性(由于分析代码时所存在的问题)。此外,算法透明也可能是不可取的,例如,它可能会披露个人信息,也可能会帮助不法分子或恐怖分子与税务审计或安全检查的系统进行周旋。真正的核心问题是:如何使自动化决策更具可问责性,以确保公民个体和整个社会的利益?本文认为,技术正在创造新的机会——以比算法完全透明更巧妙、更灵活的方式,来设计自动化决策的算法,使其更好地顺应法律和政策的目标。这样做不仅可以改善当前对自动化决策的治理,而且在某些情况下,还可以改善普通决策的治理。人类决策者的内在(或外在)偏见,很难被发现和根除,但我们却可以窥视算法的“大脑:计算过程和目的规范可以在事前声明,并在事后验证。本文介绍的技术可以得到广泛应用。它们可以用来设计私营机构和公共部门的决策流程,并可根据决策者、监管者或公众的需要进行定制,用以验证不同的特性。通过更加仔细地权衡决策规则的影响,它们也会激活政策讨论,以及更细致的法律标准审查。因此,这些工具在整个法律制度和社会制度中,将有深远的影响。文章分四部分。第一部分简单介绍了相关基础计算机科学技术。这些技术可用于检验和证明自动化决策是否符合法律公平,而无须公开决策的关键属性或做出决策的整个过程。接下来,第二部分阐述了这些技术如何确保决策具有程序规制性(proceduralregularity)这一关键治理属性,即决策是根据在每个案例中统一适用的、既定的规则做出的。我们介绍了如何使用这种手段,来重新设计和解决签证抽签的问题。在第三部分,我们进一步探讨了其他计算技术如何确保自动化决策对实质性法律和政策选择的忠实程度。我们论证了如何使用这些工具,来确保避免某些不公正歧视,以及自动化决策的过程如何顺应管理决策的社会标准或法律标准。我们还论证了自动化决策如何使现有的差别对待和差别影响的理论变得更为复杂。除此之外,我们还讨论了,计算机科学——尤其是在大数据和机器学习的背景下——近期在监督和消除算法歧视方面的努力。最后,在第四部分,我们提议进一步加强计算机科学、法律和政策之间的协作,以推进问责制自动化决策流程的设计。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分