医疗领域自主AI语音助手的伦理保障案例构建
摘要:保障和广泛道德接受的人工智能系统的部署和使用应该是安全的。以基于原则的道德保证论证模式为基础的伦理保障论证模式是人工智能伦理领域的一个提案,旨在支持和实现这一目标。这个论证模式或框架的目的是为了在复杂的社会技术环境中对具体现实世界的人工智能系统的使用进行推理、沟通和增强对其道德可接受性的信心。本文介绍了一个案例研究的中期发现,该研究将这个伦理保证框架应用于Dora,一种基于人工智能的远程医疗系统,以评估其可行性和实用性作为一种方法。至今的案例研究过程揭示了Dora平台的一些积极的伦理影响,以及意想不到的见解和需要优先评估的领域,例如对一线临床医生的风险,特别是在临床医生自主权方面。伦理保证论证模式不仅提供了一个实用的框架来识别需要解决的问题,而且可以开始在受影响的利益相关者之间调整利益、风险和对人类自治的约束,以减少伦理差异。尽管仍然面临许多挑战,但这项研究代表了向安全和道德可接受的人工智能系统的发展和使用的一小步,并且理想情况下,会朝着更全面和包容性的人工智能系统评估的转变方向迈进。
作者:Marten H. L. Kaas, Zoe Porter, Ernest Lim, Aisling Higham, Sarah Khavandi and Ibrahim Habli
论文ID:2305.14182
分类:Computers and Society
分类简称:cs.CY
提交时间:2023-05-24