解释方法中质量评估标准的元调查
摘要:透明人工智能(XAI)中的解释方法及其评估已成为一个重要问题,这是由于决策支持系统(DSS)中不透明的AI模型近年来的激增。由于最精确的AI模型透明度低、难以理解,解释对于偏差检测和不确定性控制至关重要。在评估解释方法质量时,有很多标准可供选择。然而,由于现有标准主要关注单一解释方法的评估,因此如何比较不同方法的质量并不明显。尽管很少有关于解释方法的比较评估的文献,但这种缺乏共识导致该领域严重缺乏严谨性。在本文中,我们通过对涵盖可用于解释方法比较评估的现有标准的十五篇文献综述进行了半系统的元调查。论文的主要贡献是建议使用适当的信任作为一种衡量主观评价标准结果的标准,从而实现比较评估的可能性。我们还提出了一个解释质量方面的模型。在模型中,具有相似定义的标准被分组,并与质量的三个方面(模型、解释和用户)相关。我们还注意到文献中的四个常被接受的标准(组),涵盖了解释质量的所有方面:性能、适当的信任、解释满意度和忠实度。我们建议使用该模型作为比较评估的图表,以创建更具普遍性的解释质量研究。
作者:Helena L"ofstr"om, Karl Hammar, Ulf Johansson
论文ID:2203.13929
分类:Artificial Intelligence
分类简称:cs.AI
提交时间:2023-08-30