人工智能决策可解释性的研究综述
A survey of explainable artificial intelligence decision作者机构:浙江大学管理学院杭州310058
出 版 物:《系统工程理论与实践》 (Systems Engineering-Theory & Practice)
年 卷 期:2021年第41卷第2期
页 面:524-536页
核心收录:
学科分类:12[管理学] 120202[管理学-企业管理(含:财务管理、市场营销、人力资源管理)] 0202[经济学-应用经济学] 02[经济学] 1202[管理学-工商管理] 1201[管理学-管理科学与工程(可授管理学、工学学位)] 081104[工学-模式识别与智能系统] 08[工学] 0835[工学-软件工程] 0811[工学-控制科学与工程] 0812[工学-计算机科学与技术(可授工学、理学学位)]
基 金:国家自然科学基金面上项目(61772111) 国家自然科学基金国际合作与交流项目(72010107002)
摘 要:人工智能决策的性能在某些特定领域超过了人类能力,中国、美国等多国都颁布了人工智能发展战略和行动规划,期望人工智能在多个领域得到落地应用.但在人工智能决策过程中,存在着固有算法黑盒和系统信息不透明的问题,导致其结果正确但不可理解,阻碍了人工智能的进一步发展.为了人工智能的商用和普及,对智能决策可解释性的需求越来越迫切,需要将黑盒决策转化为透明过程,建立起人与机器之间的信任.本文从系统应用视角和决策收益者视角出发,重点对人工智能决策可解释性的基本概念、模型解释方法、高风险决策应用解释和解释方法评估等四个方面的国内外相关研究进行综述,并展望了未来研究发展趋势.