咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于代理模型的XAI可解释性量化评估方法 收藏

基于代理模型的XAI可解释性量化评估方法

Quantitative evaluation method for interpretability of XAI based on surrogate model

作     者:李瑶 王春露 左兴权 黄海 丁忆宁 张修建 LI Yao;WANG Chun-lu;ZUO Xing-quan;HUANG Hai;DING Yi-ning;ZHANG Xiu-jian

作者机构:北京邮电大学网络空间安全学院北京100876 北京邮电大学计算机学院北京100876 可信分布式计算与服务教育部重点实验室北京100876 北京航天计量测试技术研究所北京100076 国家市场监管重点实验室(人工智能计量测试与标准)北京100076 

出 版 物:《控制与决策》 (Control and Decision)

年 卷 期:2024年第39卷第2期

页      面:680-688页

核心收录:

学科分类:12[管理学] 1201[管理学-管理科学与工程(可授管理学、工学学位)] 081104[工学-模式识别与智能系统] 08[工学] 0835[工学-软件工程] 0811[工学-控制科学与工程] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

主  题:可解释人工智能 可解释性评估 评估模型 代理模型 规则模型 定量评估 

摘      要:可解释人工智能(explainable artificial intelligence, XAI)近年来发展迅速,已出现多种人工智能模型的解释技术,但是目前缺乏XAI可解释性的定量评估方法.已有评估方法大多需借助用户实验进行评估,这种方法耗时长且成本高昂.针对基于代理模型的XAI,提出一种可解释性量化评估方法.首先,针对这类XAI设计一些指标并给出计算方法,构建包含10个指标的评估指标体系,从一致性、用户理解性、因果性、有效性、稳定性5个维度来评估XAI的可解释性;然后,对于包含多个指标的维度,将熵权法与TOPSIS相结合,建立综合评估模型来评估该维度上的可解释性;最后,将该评估方法用于评估6个基于规则代理模型的XAI的可解释性.实验结果表明,所提出方法能够展现XAI在不同维度上的可解释性水平,用户可根据需求选取合适的XAI.

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分