基于代理模型的XAI可解释性量化评估方法
Quantitative evaluation method for interpretability of XAI based on surrogate model作者机构:北京邮电大学网络空间安全学院北京100876 北京邮电大学计算机学院北京100876 可信分布式计算与服务教育部重点实验室北京100876 北京航天计量测试技术研究所北京100076 国家市场监管重点实验室(人工智能计量测试与标准)北京100076
出 版 物:《控制与决策》 (Control and Decision)
年 卷 期:2024年第39卷第2期
页 面:680-688页
核心收录:
学科分类:12[管理学] 1201[管理学-管理科学与工程(可授管理学、工学学位)] 081104[工学-模式识别与智能系统] 08[工学] 0835[工学-软件工程] 0811[工学-控制科学与工程] 0812[工学-计算机科学与技术(可授工学、理学学位)]
主 题:可解释人工智能 可解释性评估 评估模型 代理模型 规则模型 定量评估
摘 要:可解释人工智能(explainable artificial intelligence, XAI)近年来发展迅速,已出现多种人工智能模型的解释技术,但是目前缺乏XAI可解释性的定量评估方法.已有评估方法大多需借助用户实验进行评估,这种方法耗时长且成本高昂.针对基于代理模型的XAI,提出一种可解释性量化评估方法.首先,针对这类XAI设计一些指标并给出计算方法,构建包含10个指标的评估指标体系,从一致性、用户理解性、因果性、有效性、稳定性5个维度来评估XAI的可解释性;然后,对于包含多个指标的维度,将熵权法与TOPSIS相结合,建立综合评估模型来评估该维度上的可解释性;最后,将该评估方法用于评估6个基于规则代理模型的XAI的可解释性.实验结果表明,所提出方法能够展现XAI在不同维度上的可解释性水平,用户可根据需求选取合适的XAI.