人工智能中不信任的重要性
摘要:人工智能(AI)的使用在近年来在越来越多的领域得到普及。随着AI系统在医疗和金融等高风险领域的应用,确保其可信度变得越来越重要。解释性方法的发展和应用旨在增加用户和更广泛社会的信任,以应对与此相关的担忧。然而学术文献的分析表明,过分关注增加信任可能是不必要的,这一点在AI聊天机器人的最新发展中得到了很好的体现,这些机器人虽然高度连贯,但却往往编造事实。本文探讨了信任、可信度和用户依赖的概念。为了促进对AI的适当依赖,我们既需要防止系统的被废弃也需要避免过度信任。通过对人际信任、自动化信任和(X)AI信任的研究进行分析,我们发现了信任和不信任(对AI)之间潜在的区别的价值所在。我们提出,在信任之外,适度的不信任也对防止系统的被废弃和过度信任有额外的价值。我们认为,通过考虑和评估信任和不信任,我们可以确保用户可以适当地依赖可信赖的人工智能,这些人工智能既有用又可能是有瑕疵的。
作者:Tobias M. Peters and Roel W. Visser
论文ID:2307.13601
分类:Human-Computer Interaction
分类简称:cs.HC
提交时间:2023-07-26