摘要:电影《生化危机》让人类第一次在银幕上直面“失控科技酿成末日”的恐惧,《釜山行》亦让我们直观地感受到了碳基生命何等脆弱。这些曾让我们攥紧手心的剧情,总被当作虚构的警示。可当基因序列开始被算法改写,致命病原体的设计门槛随AI迭代不断降低,这是否意味着“生化危机”即
[编者按] 电影《生化危机》让人类第一次在银幕上直面“失控科技酿成末日”的恐惧,《釜山行》亦让我们直观地感受到了碳基生命何等脆弱。这些曾让我们攥紧手心的剧情,总被当作虚构的警示。可当基因序列开始被算法改写,致命病原体的设计门槛随AI迭代不断降低,这是否意味着“生化危机”即将照进现实?
美国战略与国际研究中心(CSIS)的一篇研究报告或可解答该问题。报告指出AI正通过两大路径加剧生化武器袭击风险:一是大语言模型大幅降低生化武器的信息壁垒,部分模型已能提供超越专家水平的病毒学指导,甚至易被“越狱”生成生化武器关键信息;二是生物设计工具能力快速迭代,未来或可设计出高致病性、高传染性的新型病原体。同时,报告揭露美国现有生物安全措施的短板,如生物设计工具安全防护易被用户通过微调绕过,基于清单的核酸合成筛查仅覆盖63种受管制物质(国际订单约150种),无法应对AI生成的新型未知序列,且行业执行标准碎片化。
报告前瞻性地剖析了AI赋能生化武器这一新兴的国家安全威胁,通过结合具体模型案例和政策实践,揭示了科技发展背后的潜在风险及生物安全治理的复杂性与紧迫性。为便于国内各界知己知彼、把握形势之变,欧亚系统科学研究会特编译此文,供读者阅读参考。文章仅代表作者观点。
人工智能时代的生化威胁
图源:Adobe Stock
1 当生化危机走进现实
“在人工智能的帮助下,生物学领域的研究可谓潜力无限……但与此同时,不怀好意之人也能利用这一技术开发新的生化武器。”
——特朗普政府2025年公布的《美国人工智能行动计划》
很长一段时间以来,好莱坞都在不断产出有关疯狂科学家利用邪恶技术引发全球性灾难的影片,而现如今,在人工智能驱动的生物技术时代,这一虚构剧情可能很快就会成为现实。从历史角度来看,美国之所以能够在很长一段时间内保障国家安全,是因为制造大规模杀伤性武器的成本高昂,所需技术又很复杂,例如,研发和部署核弹需要海量的专业知识与资金投入,对普通的犯罪分子而言,这是他们不可能完成的任务。即使是像萨达姆统治时代的伊拉克这样资源丰富的国家,也没能成功研发出核武器。
不过,随着时间的推移,研发某些类型的大规模杀伤性武器,尤其是生化武器的门槛大幅降低。现在,美国官方面临的挑战是,如何在维护生物安全的同时,确保人工智能领域生物技术的蓬勃发展。特朗普政府在2025年7月发布的《人工智能行动计划》中明确指出,要进一步确保美国的生物安全。尽管其中有关加强核酸合成筛查和开发政府人工智能评估能力的建议目前仍未得到细化,但这仍可以称得上是建立美国人工智能时代生物防御体系的一个良好开端。
2 生化武器的低门槛时代
近一个世纪以来,研发生物武器所需的资金成本和技术要求大幅下降。二战期间,美国生物武器计划共雇佣了约4500人,其中相当一部分是技术专家。其预算总额达6000万美元——接近曼哈顿计划(译者注:美国陆军部于1942年6月开始实施利用核裂变反应来研制原子弹的计划。该工程集中了当时西方国家最优秀的核科学家,10万多人参与,历时3年,耗资20亿美元)总支出的3%。同样,二战时期日本的生物战计划雇佣了约3000人,其中包括数百名日本顶尖医学专家。
20世纪90年代,仅有不到20人的技术人员的日本恐怖组织奥姆真理教,曾多次试图利用肉毒杆菌和炭疽杆菌发动恐怖袭击。幸运的是,奥姆真理教并未成功。
2017年,两名加拿大科学家仅花费10万美金就成功复活了此前已灭绝的马痘病毒。而且,这两位科学家并没有自行研发这一病毒,而是将大量初始工作外包出去——通过商业合成实验室定制了相关的DNA片段,这些实验室在完成之后通过邮寄的方式将病毒DNA寄回给了他们。随后,科学家在实验室中将这些片段连接起来,并利用辅助病毒将它们引入细胞,最终制成了马痘病毒。尽管该研究的目的在于改善疫苗研制流程以及癌症治疗,但此举仍引发了人们的广泛担忧,因为这一事件表明,也许一个没什么专业知识的小型科研团队花上半年时间就能成功复活天花。
3 AI: 生化武器扩散器?
如今,人工智能的飞速发展意味着只需几个人就能够开发生物武器了。2025年3月5日,谷歌前CEO埃里克·施密特等人联合发文宣称,人工智能能够一步步地指导犯罪分子完成设计致命病原体、获取材料及优化传播方法等步骤。人工智能实验室Anthropic的首席执行官达里奥·阿莫迪(Dario Amodei)对此也表示认同,今年年初,Anthropic就曾指出,其新开发的大模型Claude 3.7 Sonnet在测试中已“展现出辅助开发生物武器的相关能力,这一点十分令人担忧”。
人工智能已经可以为开发生物武器的犯罪分子提供实质性帮助。首先,众多人工智能实验室都已经发布警告称,流行的商业大语言模型能够大幅降低发动生化袭击的信息壁垒。其次,生化设计工具也能够协助犯罪分子生产新型病原体。
(一)大语言模型降低生化武器的信息壁垒
2025年2月,OpenAI发布了旗下产品“Deep Research”的安全评估报告,报告指出: “我们发现,我们的模型已接近帮助新手发动生化武器袭击的临界点。”在该评估发布不到一周后,一项新的研究显示,OpenAI的o3模型在评估复杂病毒学实验室协议故障排除能力的专业知识测试中,表现优于94%的专业病毒学家。
OpenAI并非唯一一个在提供生物武器开发关键信息方面取得快速进展的实验室。Anthropic对Claude 3.7 Sonnet的评估也显示,该模型能够为发动生化武器袭击之人提供更为实质性的帮助。来自顶尖人工智能实验室的此类评估表明,大语言模型正迅速接近甚至超越为用户提供关键生化武器开发信息的安全阈值——部分模型已展现出超越专家级知识的能力。
(二)生物设计工具(BDTs)催生新型高风险病原体
2025年2月19日,全球最大的生物人工智能基础模型Evo2问世。在训练该模型的过程中,厂家搭建了一个包含超过12.8万个基因组(这些基因组来自人类、动物、植物、细菌及其他生物,甚至包括某些病毒)的数据集。据称,该模型能够识别不同的DNA序列,并设计出全新的生物体基因组。借助该工具,研究人员可输入真实或虚拟的生物DNA序列,并模拟该生物在现实世界中的发育过程。然而,像Evo2这样的生物设计工具很可能也会产生不良的结果。例如,犯罪分子可能会利用具备生成能力的先进生物设计工具,创造出一种既致命,传染性又高的禽流感新变种。
有两家 AI 实验室更新了自身的风险评估,指出现有模型已存在重大且即时的生物安全风险。根据非营利研究机构 Epoch AI 的估测, 2017 年至 2021 年间,顶级生物设计工具的训练计算资源 (衡量 AI 模型性能的常见指标) 平均每年增长近 21 倍,相当于不到三个月就会翻一番 (图 1 ) 。模型训练数据规模 (另一项预测未来性能的指标) 在 2017 年至 2021 年间平均每年增长近 10 倍 (图 2 ) 。尽管这两项指标的增长速度已放缓至每年 2–3 倍,但生物设计工具的进步速度依旧飞快,从而引发人们的担忧。
图1:生物设计工具的计算训练(图源:报告原文)
图2:生物设计工具训练数据集的规模(图源:报告原文)
一位生物安全专家指出,许多专家对生物设计工具的未来发展前景预测太过保守。例如,尽管数据可用性仍是一大瓶颈,但这一问题在不久的将来一定会得到解决。企业已着手创建专门用于训练更强大生物设计工具的生物数据集,以设计新型生物体。这位专家预测,在未来三到五年内,生物设计工具就有望实现显著进步。
其他学者也认为,双用途生物设计工具的能力在短期内可能会得到巨大提升。在2024年8月的一篇论文中,研究人员指出,尽管当前模型在生成能力上仍存在局限性,但“人工智能的快速发展以及投入计算和数据生成资源的不断增加,表明相关能力很可能会加速提升”。
4 AI如何激增生化风险
幸运的是,在当前这个阶段,开发生化武器仍需要克服许多障碍。首先,世界上存在数十亿的病毒和细菌。选择哪种病原体作为生物武器至关重要:例如,若选择繁殖速度过慢的细菌,那么该武器就无法实现快速扩散,从而产生足够的杀伤力。而如果细菌变异速度过快,那么在发动袭击时就有可能表现出与预期不同的特性。实际上,这只是开发生物武器当中的第一步,其简化流程如图3所示。
(图源:报告原文)
为了应对人工智能带来的生物风险,政府有必要在生物武器研制路径当中的多个阶段设置多层防御措施。例如,有效的AI模型安全控制机制可防止模型回答关于部署、执行生物武器攻击的咨询(图3中的步骤0、1、3、4、5)。同样,核酸合成筛查机制可在序列合成前识别有害序列(图3中的步骤2)。此处只列举了两种生物安全措施,还有许多其他措施,如物理安全控制和管理程序等,不过这些都不在本文的讨论范围之内。
然而,随着人工智能的持续进步,部分生物安全措施可能无法有效防范人工智能赋能的生物威胁。以下将重点阐述生物设计工具安全措施及合成筛查机制目前存在的核心问题。
(一)生物设计工具安全保障机制:Evo模型系列中的漏洞
若缺乏适当的安全保障,人工智能就有可能会创建出适合用于生化武器的病毒序列。为应对这一风险,Evo2的开发团队旨在确保其训练数据库中不包含对人类、动物和植物具有传染性的病原体信息。这意味着Evo2难以预测某些有害病毒的遗传序列,且无法模拟这些病毒的遗传密码。Evo2开发团队所做的工作大致相当于向学生教授化学知识时,将教材中关于爆炸物的章节直接撕掉。
然而,若未来类似 Evo2的模型确实能生成全新生物的基因序列,那么开发团队将无法保证该模型不会用来设计新的致病生物。以化学类比,这就像一个学生在学习过程中逐渐成为化学专家,哪怕他从未学习过如何制造爆炸物,他也很有可能会推断出爆炸物的基本原理。
还有一种可能,即用户在后续阶段将被移除的训练数据重新添加回模型当中。此种情况在Evo1模型当中就已发生过。2024年,有学者指出,Evo1模型的开发团队为防止该模型被滥用,选择将“感染真核宿主的病毒基因组”从模型训练数据中排除了出去。随后,他们按照当前学术界的惯例发布了模型权重。而就在Evo1发布数周后,就有科学家利用感染人类的病毒数据对模型权重进行了优化。尽管该案例涉及的病毒属于无害病毒家族,但此案例依旧能够说明,对开放模型进行微调要比训练新的大模型成本更低。
实际上,Evo2模型所采取的生物安全方法与Evo1非常相似,因此这些措施可能会被绕过。至少从目前来看,此类生化武器的制作路径仍需相当程度的专业知识。然而,正如Evo1的案例所示,专家也可将有害病毒序列重新引入模型当中,从而为技术水平较低之人打开大门。
令人担忧的是,Evo系列模型是目前仅有的少数几个具备安全防护措施的生物设计工具之一。Epoch AI在对370个生物模型进行调查后指出,只有不到3%的模型包含风险应对措施。如果Evo系列模型代表了该领域最强大的生物安全措施,但依旧可以被轻易规避,那么这足以说明生物设计工具在应对生物风险方面存在根本性缺陷。
(二)核酸合成筛查:基于现有清单方法的局限性
在生化武器开发的过程中,除了生成具有适当传染性和致命性的病毒序列外,还存在其他障碍。例如,即使像Evo2这样的生物设计工具能够设计出传染性生物体,犯罪分子仍需获取物质层面的DNA链 (如图3所示的步骤2)。
遗憾的是,此类障碍也在逐渐消除。随着合成生物学技术的进步,现如今的商业公司可“打印”定制的合成核酸(DNA或RNA)序列,同时还能将其快递到全球任何一个地方。客户可通过互联网下单,并在两到四个工作日内以每碱基对(核酸的基本单位)几美分的成本获得合成好的核酸样本。
美国政府已发布安全指南,要求DNA合成公司采取相应措施,应对这一行业可能面对的生物安全风险。截至该报告撰写时,美国卫生与公众服务部(HHS)和科技政策办公室(OSTP)已发布三项主要框架,鼓励企业对合成订单进行有害遗传内容筛查
(三)2023年美国卫生与公众服务部合成核酸筛查框架指南
2023年,该部门更新了2010年发布的指导文件,为合成供应链中的各方提出了相应的安全监管建议:
供应商应筛查所有核酸序列(即单链和双链DNA及RNA)与受联邦监管的病原体是否匹配,此外,“在合成时”,他们还应筛查已知会增强病毒毒性的非受监管序列。
供应商和客户应验证、跟踪并记录相关序列的最终用户。
供应商和设备制造商应加强网络和信息安全保障措施,以保护自身的知识产权和客户信息。
设备制造商应对客户进行筛查,并采取安全措施确保未授权实体无法使用相关设备。
图4:2023年美国卫生与公众服务部核酸合成服务提供商筛查框架的简化分步示意图(图源:报告原文)
随着人工智能与生物技术的日益融合,这些措施很快就会过时。也许在不久的将来,我们就会遇到这样一种情况:一家DNA合成公司接到客户请求,要求其合成一段序列。按照最新的政府指南,公司员工认真将序列与公司的数据库(包括受联邦监管的物质和毒素)进行比对,并未发现异常。然而,这段序列可能是客户用人工智能新开发出来的。面对此种情况,员工应如何处理?
2024年12月,多家生物技术公司和生物安全组织代表发表研究指出,现有的AI蛋白质模型“已经能够生成……与已知最接近的天然蛋白质相差数百个突变的蛋白质”。为验证这些AI生成的蛋白质是否能绕过合成公司的筛选工具,研究人员生成了数万个与已知序列功能等同但排列不同的有害序列。随后,他们在安全、保密的环境下将这些序列输入商业生物安全筛选软件进行测试。
研究人员报告称,多家公司的软件(包括主要供应商所使用的筛选方法)“无法可靠地检测出此类由人工智能重新设计出的毒素和病毒蛋白”,其中“甚至有某些蛋白质的变体没有被任何一个软件检测出来”。通过调整筛查软件,研究人员最终将检测成功率提升至97%。然而,该研究仍然认为:“从长远来看,我们不应仅依赖基于序列筛查的生物安全策略,因为用不了多久,人工智能就能生成自然界中从未出现过的序列。”
事实上,上述研究凸显了当前美国政府筛查指南所包含的三大关键局限性。
1.当前列出的63种受监管的病原体清单很可能无法覆盖到未来生物设计工具设计出的新型病原体。2025年4月,美国国会委托国家新兴生物技术安全委员会发布的报告指出,当前美国生物安全措施(如受控病原体清单)过于“粗放且被动”。就连2023年卫生与公众服务部的框架也承认了这一不足,其中指出生物技术的进步可能帮助用户“设计出具有完全新型序列的致病或有毒蛋白质”。
2.扩大合成筛查覆盖范围的努力尚处于初期阶段,且很有可能跟不上技术的发展。近年来美国政府合成筛查指南的最大更新之一,就是鼓励服务商扩大筛查范围,纳入更多有害的、未受监管的遗传序列。尽管这一举措在理论上有利于提升生物安全,但在实践中面临三大关键挑战:
目前,行业和政府利益相关方对哪些序列需受监管尚无共识。
除联邦监管清单外,目前尚无标准化的监管数据库。
未来人工智能生物学模型的生成能力可能导致数据库持续落后。
3.当前政府框架鼓励供应商及其他相关方自行制定安全规范,而这可能会导致生物安全体系碎片化,而且那些忽视安全措施的企业可能会因成本或研发速度优势在竞争中占据优势地位。此外,有企业表示,遵守当前政府筛查指南的成本十分高昂,而且这些成本很可能会成为企业运营的主要成本。因此,高筛查成本可能会促使企业为降低成本而忽视安全规范,客户也可能会利用当前缺乏国际合成安全标准的漏洞,选择不采用安全措施的外国供应商,在境外生产危险序列。
*本文摘译自美国国际战略研究中心于2025年8月6日发表的报告,原题为“Opportunities to Strengthen U.S. Biosecurity from AI-Enabled Bioterrorism: What Policymakers Should Know”,文章有删节,小标题为译者自拟。
Gregory C. Allen作者:格雷戈里·C·艾伦
美国国际战略研究中心瓦德瓦尼人工智能中心高级顾问。
Georgia Adamson作者:乔治亚·亚当森
曾任美国国际战略研究中心瓦德瓦尼人工智能中心研究助理。
被美欧印紧盯的中亚, 为何独独青睐中国?
千万警惕中国出海中东的一个巨大认知陷阱
原来不是稀土? 美国一大命门已被死死拿捏
来源:欧亚系统科学研究会一点号