AI治理中的法定专业及其对可解释AI的后果

摘要:AI管理框架中的强制和意外伤害已经影响了个人的健康、安全和权利。尽管正在制定监管框架,但就确保AI安全的方法缺乏共识。越来越多的人开始考虑可解释的AI (XAI) 对AI监管的效力的贡献。监管必须包括确保持续遵守的方法,但目前缺乏关于如何实现这一点的实际建议。要成功将XAI纳入监管体系,参与解释/向利益相关者解释模型的个人应具备足够的资质。在可能对个人的健康、安全和权利造成伤害的领域中,法定专业人员普遍存在。最明显的例子是医生、工程师和律师。这些专业人员需要运用技能和判断,并在发生伤害事件时捍卫他们的决策过程。我们建议在AI监管框架中引入一个法定专业人员框架,以确保遵守和监测。我们将这个新的法定专业人员称为AI架构师(AIA)。这个AIA将负责确保减少风险并在发生伤害事件时承担责任。AIA还将依赖于向利益相关者提供适当的解释和解释XAI模型。此外,为了满足对模型是否以满意的方式开发的要求,AIA需要透明度适当的模型。因此,引入AIA系统可能会导致XAI的使用增加,以使AIA履行其职业义务。

作者:Labhaoise NiFhaolain, Andrew Hines, Vivek Nallur

论文ID:2306.08959

分类:Computers and Society

分类简称:cs.CY

提交时间:2023-06-16

PDF 下载: 英文版 中文版pdf翻译中