我的模型不公平,人们在意吗?视觉设计对机器学习中的信任和感知偏见产生影响
摘要:通过多个受控的众包实验,本文旨在实证回答“可视化设计选择是否会影响利益相关者对模型偏见的感知、对模型的信任以及采用模型的意愿?”通过1,500多名参与者,我们确定了人们在决定信任哪种模型时采取的一套策略。我们的结果表明,男性和女性在公平性和性能上的优先考虑方式不同,并且视觉设计选择显著影响这种优先考虑方式。例如,相比于男性,女性更常信任公平模型;参与者更倾向于在使用文本解释公平性时更看重公平性,而不是使用条形图;明确告诉一个模型具有偏见比展示过去的偏见表现更具有影响力。我们通过对多个文本和视觉设计选择的影响进行比较来测试我们结果的普遍性,并提供了差异化公平感知和信任背后的认知机制的可能解释。我们的研究指导了未来开发机器学习可视化系统的设计考虑。
作者:Aimen Gaba, Zhanna Kaufman, Jason Chueng, Marie Shvakel, Kyle Wm. Hall, Yuriy Brun, and Cindy Xiong Bearfield
论文ID:2308.03299
分类:Human-Computer Interaction
分类简称:cs.HC
提交时间:2023-08-08