利用可解释人工智能(XAI)改进分类系统的策略

摘要:解释性人工智能(XAI)旨在提供对AI模型决策过程的见解,使用户能够理解其决策背后的结果。XAI的一个重要目标是通过为其决策过程提供解释来改善AI模型的性能。然而,大多数XAI文献关注如何解释AI系统,而较少关注如何利用XAI方法来改善AI系统。在这项工作中,研究了一组通常用于机器学习(ML)分类任务的知名XAI方法,以验证它们是否可以被利用,不仅提供解释,还可以改善模型自身的性能。为此,报告了两种利用解释改进分类系统的策略,并在三个数据集(Fashion-MNIST,CIFAR10和STL10)上进行了实证评估。结果表明,由综合梯度构建的解释突出了可以有效用于提高分类性能的输入特征。

作者:Andrea Apicella, Luca Di Lorenzo, Francesco Isgr`o, Andrea Pollastro, Roberto Prevete

论文ID:2306.05801

分类:Artificial Intelligence

分类简称:cs.AI

提交时间:2023-06-12

PDF 下载: 英文版 中文版pdf翻译中