从鲁棒性到可解释性再回到鲁棒性

摘要:形式可解释的人工智能(XAI)与即席方法相比具有更严格的担保,但形式可解释性在一些分类器族群中的可伸缩性较差,其中最显著的是神经网络。因此,人们担心形式可解释性是否能够在提供可信赖的人工智能方面与其他方法相辅相成。本文解决了形式可解释性可伸缩性的限制,并提出了计算形式解释的新算法。这种新算法通过回答一些健壮性查询来计算解释,而且此类查询的数量最多是特征数量的线性。因此,所提出的算法建立了形式可解释性的实际复杂性与健壮性的直接关系。更重要的是,本文推广了形式解释的定义,从而允许使用基于不同距离范数的健壮性工具,并且还可以以某个目标健壮性程度进行推理。实验证实了所提方法的实际效率。

作者:Xuanxiang Huang, Joao Marques-Silva

论文ID:2306.03048

分类:Artificial Intelligence

分类简称:cs.AI

提交时间:2023-08-01

PDF 下载: 英文版 中文版pdf翻译中