挑战机器智能的外貌:在LLMs中的认知偏见和采用的最佳实践
摘要:大型语言模型(LLM)中算法偏差的评估通常致力于揭示基于受保护特征(如性别和种族)的系统偏见。然而,人类推理和决策中存在超过180种认知偏见,而在讨论人工智能的伦理复杂性时往往被忽视。我们展示了LLMs中存在这些认知偏见,并讨论了以专业知识为借口使用有偏见推理的影响。我们呼吁加强教育、风险管理和持续研究,因为这项技术的广泛应用正在增加。最后,我们提出了一套最佳实践,用于在广泛应用持续增长的情况下何时以及如何使用这项技术。
作者:Alaina N. Talboy and Elizabeth Fuller
论文ID:2304.01358
分类:Human-Computer Interaction
分类简称:cs.HC
提交时间:2023-08-30