咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >“数据喂养型”算法歧视的法律规制 收藏
“数据喂养型”算法歧视的法律规制

“数据喂养型”算法歧视的法律规制

作     者:许亚飞 

作者单位:天津商业大学 

学位级别:硕士

导师姓名:吴春雷

授予年度:2022年

学科分类:0301[法学-法学] 03[法学] 030107[法学-经济法学] 030103[法学-宪法学与行政法学] 

主      题:算法歧视 数据喂养 数据清洁 

摘      要:随着算法技术的发展和应用,算法歧视问题引起愈来愈多的人关注,对算法歧视的法律规制亟需落实。“数据喂养型算法歧视包括所有因数据喂养而产生歧视的自主性算法,在算法歧视的多个类型中更具规制的可行性和有效性,通过梳理当前歧视的法律规制路径发现,国外算法歧视的法律规制以数据和算法为核心,我国在《宪法》、《网络安全法》、《电子商务法》等法律中对歧视作出了法律规制。但这些法律规制路径对“数据喂养型算法歧视而言存在一些规制漏洞,欧盟反自动化决策权的“过度保护、形式上的明示同意,美国反歧视司法审查的局限性,以及我国法律在事前和事后方面的规制不足,包括用于训练算法的数据缺乏深入的处理、对算法投入使用之后的数据喂养缺乏规制、对“数据喂养型算法歧视的结果缺乏系统的问责体系。所以需要重新构建“数据喂养型算法歧视的法律规制路径,根据是否产生了歧视结果分为事前和事后两个阶段对“数据喂养型算法歧视进行法律规制。在事前阶段,提出数据清洁、数据透明和可查以及数据影响评估制度,来解决训练算法的数据处理不够深入的问题,对算法设置歧视数据识别功能以应对投入使用的算法被数据喂养导致产生歧视的问题,并对算法进行审查,约束算法使用者对算法的使用权以达到避免用歧视性数据来喂养算法的目的。在事后阶段,对发生“数据喂养型算法歧视的结果进行法律规制,由于算法系统运行的复杂性,规制方法和技术纠偏无法彻底将算法歧视消灭,所以需要明确“数据喂养型算法歧视损害结果的责任分配和承担,算法解释权的意义就在于歧视发生后如何进行损害分配,增加了算法的透明性,算法问责体系的构建给受算法歧视结果侵害的公众提供了救济途径,根据无过错原则确定造成“数据喂养型算法歧视结果的责任主体是数据训练者还是算法使用者,以承担相应的责任。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分