摘要:网络安全研究人员近日披露了一种名为“规则文件后门”(Rules File Backdoor)的新型供应链攻击方式,该攻击影响人工智能(AI)驱动的代码编辑器,如GitHub Copilot和Cursor,导致这些工具注入恶意代码。
网络安全研究人员近日披露了一种名为“规则文件后门”(Rules File Backdoor)的新型供应链攻击方式,该攻击影响人工智能(AI)驱动的代码编辑器,如GitHub Copilot和Cursor,导致这些工具注入恶意代码。
Pillar安全公司的联合创始人兼首席技术官Ziv Karliner在一份技术报告中表示:“这种攻击技术允许黑客通过向Cursor和GitHub Copilot使用的看似无害的配置文件中注入隐藏的恶意指令,悄无声息地破坏AI生成的代码。”
Karliner补充道:“通过利用隐藏的Unicode字符和高级的规避技术,威胁行为者可以操控AI插入恶意代码,绕过典型的代码审查。”这一攻击方式的独特之处在于,它允许恶意代码在项目中悄无声息地传播,从而构成供应链风险。
这种攻击的核心在于AI代理所使用的规则文件,这些文件用于指导AI的行为,帮助用户定义最佳编码实践和项目架构。具体来说,攻击者通过在看似无害的规则文件中嵌入精心设计的提示,导致AI工具生成包含安全漏洞或后门的代码。
换言之,被植入恶意规则的规则文件会诱使AI生成有害代码。这可以通过使用零宽度连接符、双向文本标记和其他不可见字符来隐藏恶意指令,并利用AI的自然语言处理能力通过语义模式生成有漏洞的代码,从而绕过模型的道德和安全约束。
影响范围:供应链风险扩大在2024年2月底和3月的负责任披露后,Cursor和GitHub均表示,用户有责任审查并接受工具生成的建议。Karliner指出:“‘规则文件后门’通过将AI武器化为攻击媒介,呈现出重大风险,这实际上将开发者最信任的助手变成了无意的帮凶,可能通过受感染的软件影响数百万最终用户。”
他进一步解释道:“一旦被植入恶意规则的规则文件被纳入项目仓库,它将影响所有团队成员未来的代码生成会话。此外,恶意指令通常会在项目分叉后仍然存在,从而为供应链攻击提供了媒介,可能影响下游依赖项和最终用户。”
这种新型攻击方式再次提醒我们,人工智能工具的安全性需要得到更严格的审查和保护,以防止其被恶意利用。
在这里,拓宽网安边界来源:FreeBuf