摘要:2025年9月29日,加州州长加文·纽森(Gavin Newsom)正式签署SB 53法案——这是美国首部针对大型人工智能(AI)企业的标志性安全法案。该法案不仅对OpenAI、Anthropic、Meta、谷歌DeepMind等头部AI实验室提出明确透明度要
2025年9月29日,加州州长加文·纽森(Gavin Newsom)正式签署SB 53法案——这是美国首部针对大型人工智能(AI)企业的标志性安全法案。该法案不仅对OpenAI、Anthropic、Meta、谷歌DeepMind等头部AI实验室提出明确透明度要求,还建立了安全事件报告机制与员工举报保护制度,为全美AI监管树立了新标杆。
SB 53法案于两周前经加州议会表决通过,其条款聚焦“风险防控”与“责任明确”,核心内容可概括为三点:
法案明确要求大型AI研发机构(包括但不限于OpenAI、Anthropic、Meta、谷歌DeepMind)主动披露其AI系统的安全防护协议,确保公众与监管机构能了解技术背后的风险管控措施。这一要求旨在解决此前AI行业“黑箱式研发”导致的信任缺失问题。
法案创新性地设立了“双重报告通道”:
企业与公众双向报告:AI企业和普通公众均可向加州紧急服务办公室(Office of Emergency Services)报告潜在的“重大AI安全事件”;新增特定事件上报义务:企业必须额外报告两类特殊事件——一是“无人类监督下发生的AI相关犯罪”(如AI驱动的网络攻击),二是“AI模型的欺骗性行为”。值得注意的是,后一类事件并不在《欧盟AI法案》的强制上报范围内,体现了加州监管的前瞻性。为鼓励内部监督,法案明确纳入“举报人保护条款”,禁止AI企业因员工揭露内部安全隐患、违规操作等问题而对其进行报复(如解雇、降职),为行业内部风险防控提供制度支持。
SB 53的出台引发AI行业激烈讨论,不同企业立场差异显著,整体呈现“两极分化”态势:
与此同时,法案出台的背景更值得关注:近期硅谷科技精英正通过“超级政治行动委员会(Super PAC)”投入数亿美元,支持主张“轻监管”的政治候选人;OpenAI、Meta等巨头也已成立“亲AI超级PAC”,试图影响后续政策走向。在此背景下,SB 53的通过更凸显了加州与头部企业在“监管力度”上的博弈。
作为全美AI产业核心地带,加州此次立法具有“示范效应”,其影响已扩散至其他州:
跨州联动:纽约州已出台类似法案,目前正等待州长凯西·霍楚尔(Kathy Hochul)签署或否决,标志着“州级AI监管浪潮”正式开启;全国意义:法案被视为对“无节制AI发展”的首次系统性约束,为联邦层面的AI监管提供了“加州样本”——未来其他州可能借鉴其框架,逐步形成全美统一的监管基础。纽森州长在签署仪式上强调:“加州证明了我们能在保护社区安全与推动AI产业繁荣之间找到平衡。AI是创新的新疆域,加州不仅要参与其中,更要通过这部全美首部前沿AI安全法案,成为行业信任的构建者与领导者。”
SB 53并非加州首次尝试AI安全立法。去年,州参议员斯科特·维纳(Scott Wiener)曾提出覆盖面更广的SB 1047法案,但因AI企业强烈反对,最终被纽森州长否决。为推动此次立法通过,维纳主动与头部AI企业沟通,对法案条款进行调整,降低了部分合规门槛,才最终达成共识。
值得注意的是,纽森目前还在审议另一部AI相关法案——SB 243。该法案已获加州参众两院跨党派支持,聚焦“AI陪伴聊天机器人”监管,要求运营商落实安全协议,并明确“若机器人未达标,企业需承担法律责任”。若SB 243最终通过,加州将形成“覆盖通用AI+特定场景AI”的完整监管体系。
SB 53的落地,标志着美国AI监管从“口头讨论”进入“实质性立法”阶段。其创新点在于:既避免了“一刀切”式的严格管控,又通过“透明度要求+事件报告+举报人保护”构建了可落地的风险防控框架。
不过,法案的长期效果仍需观察——如何平衡“州级监管”与“全国统一标准”、如何避免合规成本挤压中小AI企业生存空间、如何应对巨头的游说阻力,都是加州乃至全美未来AI治理需解决的问题。对于全球AI产业而言,“加州模式”的实践经验,或将成为其他国家和地区制定监管政策的重要参考。
来源:洞见畏来