自我解释图神经网络的可信度如何?
摘要:自我解释的深度神经网络是一类最近出现的模型,可以输出与模型推理相一致的前后局部解释,因此在填补表达能力和可解释性之间的差距方面是一种进步。自我解释的图神经网络旨在在图数据的情境中实现相同的目标。这引发了一个问题:这些模型是否在忠实性方面履行了其隐含的保证?在这个扩展摘要中,我们使用不同的忠实性度量分析了几个自我解释的图神经网络的忠实性,确定了几个限制 - 既是模型本身,又是评估指标 - 并提出了可能的解决方法。
作者:Marc Christiansen, Lea Villadsen, Zhiqiang Zhong, Stefano Teso, Davide Mottin
论文ID:2308.15096
分类:Machine Learning
分类简称:cs.LG
提交时间:2023-08-30