人工智能和生物滥用:区分语言模型和生物设计工具的风险
摘要:人工智能(AI)在生命科学领域的进展推动了科学的进步,但也可能导致生物制剂的武器化和滥用。本文区分了两类可能产生生物安全风险的AI工具:大型语言模型(LLMs)和生物设计工具(BDTs)。LLMs(如GPT-4)已经能够提供双重用途的信息,从而消除了历史上生物武器研发所遇到的一些障碍。随着LLMs被转化为实验室助手和自主科学工具,它们进一步增强了支持研究的能力。因此,LLMs特别降低了生物滥用的障碍。相反,BDTs将扩展高级行动者的能力。具体而言,BDTs可能会使得创造比迄今为止更为严重的大流行病病原体成为可能,并可能实现更可预测和有针对性的生物武器。LLMs和BDTs的结合可能提升生物制剂的危害上限,并使其广泛可用。一系列干预措施将有助于管理风险。独立的发布前评估可以确保开发人员消除新模型的危险能力。通过为合法研究人员提供有差异的接入权限,可以减轻来自强大科学工具的风险。最后,对基因合成产品进行普遍和增强的筛查将是减轻风险的关键。
作者:Jonas B. Sandbrink
论文ID:2306.13952
分类:Computers and Society
分类简称:cs.CY
提交时间:2023-08-15