不同的解释:利用分歧降低模型过度依赖

摘要:不一致性和矛盾性是现代解释方法的问题。解释的语义并不总是完全理解的 - 解释在多大程度上"解释"决策,在多大程度上只是为决策辩护?我们能否通过解释来帮助人类从正确的预测中获得洞见,而不是过度依赖于解释所主张的错误预测?基于这个视角,我们引入了反对解释的概念:伴随着解释的冲突预测。我们首先探讨了反对解释在模型多样性设置中的优势,在这种情况下,具有相似性能的多个模型可能有不同的预测。在这种情况下,提供反对的解释可以通过调用不同模型的解释来实现。通过一个试验研究,我们证明了反对解释减少了对模型预测的过度依赖,而不降低整体准确性。受到反对解释的效用的推动,我们提出了全局和局部方法来生成反对解释。

作者:Omer Reingold, Judy Hanwen Shen, Aditi Talati

论文ID:2307.07636

分类:Artificial Intelligence

分类简称:cs.AI

提交时间:2023-07-18

PDF 下载: 英文版 中文版pdf翻译中