咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >算法歧视法律规制研究 收藏
算法歧视法律规制研究

算法歧视法律规制研究

作     者:李雨涵 

作者单位:广州大学 

学位级别:硕士

导师姓名:李秋高

授予年度:2020年

学科分类:0301[法学-法学] 03[法学] 030105[法学-民商法学(含:劳动法学、社会保障法学)] 030103[法学-宪法学与行政法学] 

主      题:算法 算法权力 算法歧视 数据保护 

摘      要:作为人工智能核心的一部分,算法为人类带来诸多便利,但在应用过程中也造成了人类自治危机、算法歧视等问题。算法歧视在内涵上与歧视并无不同,但其发生更为系统,造成的伤害更有针对性。深入探究发现,算法歧视主要是因算法权力在公共决策领域和非公共决策领域的滥用造成。算法权力的滥用致使公权力与私权利之间的平衡被打破,使得商家和消费者之间的权利关系转变为不对等的私权力与私权利。算法权力主体却以技术困境与经济发展为借口,规避现有法律对公权力和私权力的规制。要平衡算法权力与私权利之间的关系,防止算法权力对私权利的侵犯,需要对算法歧视予以法律规制。域内对算法歧视的法律规制分为三部分,其中事前阶段对个人信息及数据安全进行保护,但相关法律未成体系,个人信息及数据安全保护仍存在不少漏洞;事中阶段对算法应用进行约束,但规制对象仅限于精准推荐算法,而未涉及公共决策领域、高风险领域所应用的算法;事后阶段仅以软法明确算法使用者的义务,并不具备法律强制力,算法歧视的事后救济仍然缺位。相较之下,域外在事前阶段以数据为出发点,对数据的收集与处理等进行全程严格监管,特别提出对个人敏感数据的保护;在事中阶段则以算法为中心,强调对算法进行分类监管,除对商业领域所应用的算法进行监管外,还特别注重监管政府领域应用的算法;在事后阶段则要求对算法问责,要求算法权力主体承担算法歧视的责任。完善域内对算法歧视的法律规制,可以立足于当前实践中的不足,吸纳合适的域外经验。事前阶段可以借鉴域外对个人敏感数据的特别保护,强化对个人信息权与数据权的保护;事中阶段则应当限定不同算法的应用范围,可以吸收域外对算法进行分类监管的方式,限制公共决策领域对算法的应用,同时设置高风险算法审查评估机制;在事后救济阶段,则可以将软法中规定的算法使用者的义务上升至法律层面,建立算法解释制度,明确算法歧视责任主体的解释责任。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分