看不见的“大象”:算法中的性别歧视
作者机构:浙大城市学院传媒与人文学院 浙大城市学院外国语学院
出 版 物:《新闻爱好者》 (Journalism Lover)
年 卷 期:2021年第10期
页 面:29-32页
学科分类:08[工学] 081104[工学-模式识别与智能系统] 0811[工学-控制科学与工程]
基 金:国家社科基金项目“中国影视海外传播塑造国家形象研究”(编号:20CXW010) 国家社科基金项目“人类命运共同体理念与全球传播秩序重建研究”阶段性成果(编号:18BXW062) 杭州市哲社规划课题重点项目“数据新闻:从内容创新到算法革命”阶段性成果(编号:2019JD55)。
摘 要:随着算法的适用场景越来越广泛,各种算法推荐和算法模型日益左右着我们的认知与决策,而算法偏见和算法歧视问题也逐渐暴露出来。从算法偏见、数据库偏差和认知语言及编码歧视等角度分析算法性别歧视的表现和成因发现,算法中的性别歧视将加重对女性的物化和数字化异化,会进一步加大数字性别鸿沟。因此必须在伦理、法律和技术规则方面加强规制,通过算法正义,推动性别平等化。