基于 ZK 的 AI 基建 Zypher Network:Make Agent Secure Again

B站影视 2025-02-07 20:22 3

摘要:随着 AI Agent 成为 AI 领域的主要叙事,AI 赛道的发展也逐渐进入到 2.0 时代。聚焦于 AI Agent 概念本身,其是一种具备感知环境、进行决策和执行任务或服务的智能系统,它们通常能够理解自然语言指令,学习用户偏好,并在某些情况下,能够自主地

随着 AI Agent 成为 AI 领域的主要叙事,AI 赛道的发展也逐渐进入到 2.0 时代。聚焦于 AI Agent 概念本身,其是一种具备感知环境、进行决策和执行任务或服务的智能系统,它们通常能够理解自然语言指令,学习用户偏好,并在某些情况下,能够自主地做出决策。

AI Agent 的工作仅需给定一个目标,它就能够针对目标独立思考并做出行动,根据给定任务详细拆解出每一步的计划步骤,依靠来自外界的反馈和自主思考,自己给自己创建 prompt,实现目标。我们可以理解为 AI Agent = 问答机器人(交互入口)+全自动工作流(感知、思考、行动)+静态知识库(记忆)。

一些典型的 AI Agent 用例比如自动驾驶,当用户进行目的地输入时,AI Agent 就会基于 AI 算法和多种视觉技术的组合代替人类完成驾驶任务,在该过程中主动进行决策与执行,展示出真正的自主性和适应性。而游戏领域目前也在积极的尝试 AI Agent 方案,比如使用 AI Agent 模拟真人玩家,充当游戏中的对手、在游戏中自主执行任务(如 NPC 的行为、剧情发展),甚至其还能够根据玩家的表现调整游戏的难度,确保玩家体验不失挑战性。除了上述领域外,生产制造、金融、医疗、农业、网络安全等众多领域也在纷纷尝试应用 AI Agent。

当然,随着 AI Agent 在不同领域的广泛探索,AI 领域的关注点也从最初的算力、算法和数据,逐渐扩展至隐私和安全等更为重要的议题。

AI Agent 的可信隐忧

事实上,现阶段的 AI Agent 通常是半自主性的,即具备一定自主决策和任务执行能力,但其运行过程仍需人类提供明确指令、反馈或监督。通常,AIAgent 能够在预设范围内独立完成任务或调整行为,但遇到复杂场景或超出设定范围时,需要人类干预以确保安全性和准确性。

这就意味着,绝大多数 AI Agent 在很大程度上依赖于 AI Prompt 来实现人类与 AI 之间的有效交互。对于不了解什么是 Prompt 的读者,Prompt 指的是用户提供给 AI 模型的一段输入指令或 Prompt,用于引导 AI 生成相应的输出结果。Prompt 可以是一个问题、一个描述、一段文本,甚至是代码片段。

比如我想让 ChatGPT 来写一篇新闻稿,我以文本的形式向 GPT 描述的要求或者需求,就是一个 Prompt,或者一台具备自动驾驶能力的汽车,我需要向其提出我的目的地以及路线偏好,这都是一个 Prompt。

那么问题,或许恰恰就出在这里。

现阶段半自主的 AI Agent 通常依赖于中心化的实体,作为用户,通常其只关注 Prompt 以及推理执行结果,但用户通过 Prompt 与 AI Agent 交互的过程以及 AI 模型推理的过程是处于 “黑箱”中的,我们无法对其进行可信化的验证。

所以对于用户的 Prompt 在 AI Agent 执行过程中是否被篡改?AI Agent 在搜集信息的过程中是否访问了恶意程序?AI Agent 生成的输出是否符合预定的规则或预期,产生虚假的或不可靠的信息?用户向 AI 模型所输入的 Prompt 所涉及的敏感数据(加密钱包的私钥、医疗数据、个人身份信息等等)是否是能够保证隐私且安全的?这些或许都说不太清楚。

同样,AI Agent 过度依赖于中心化的服务器,并且其部署者,服务器的管理者有着至高的权限,某种程度上实控 AI agent 持有的用户资产和隐私数据,影响 AI agent 的行为。也有一些观点认为,当前的 AI 生态系统正朝着少数公司控制的方向发展,这些上游公司存在垄断 AI 模型的开发和使用动机,这或许会导致 AI 模型更具一定的指向性,并在伦理、道德等方面持续的引发一些担忧。

即便是一些面向 Web3 的 AI Agent 比如 AI16z 的 Eliza、Virtuals 协议等,仅仅是将身份管理、经济活动以及治理等部分放在链上,而 AI Agent 的核心推理与计算、数据存储以及实时交互与反馈仍旧依赖于链下服务器,本质上上述问题仍旧是存在的。

所以对于用户而言,使用绝大多数的 AI Agent 服务时,潜规则时无条件的选择对其信任,并且又无法对任何一个环节进行可信验证。这样导致越来越多的人对于 AI Agent 是否靠谱的问题始终存疑,至少对于一些涉及到钱、人身安全等方面的用例,比如 AI Agent 自动化执行的链上交易通常就不太敢切身尝试。

所以对于 AI Agent 本身缺乏一种机制来验证这些操作的合法性和安全性,在这个问题没有得到完美解决前,该领域将始终处于“乱纪元”状态。

当然,AI Agent 所面临的上述可信隐忧也并非是无解的,Zypher Network 构建了一套基于零知识证明的协处理基建设施,来为 AI Agent 时代所面临的可信困境破局。

Zypher Network:Make Agent Secure Again!

Zypher Network 本身是一个以零知识证明方案为核心的协处理基建设施,能够为所有具备零知识证明需求的应用场景以及设施提供 ZK 服务。

Zypher Network 本身包含了一个由分布式计算节点构成的链下计算网络,以及一个链上引擎 Zytron。当 Zypher 网络中有零知识计算任务时,Zypher 系统会为计算矿工们委派计算任务并生成 ZKP,该 ZKP 能够在 Zytron 链上进行验证,以保证数据、交易、行为等是可信诚实的。Zypher 系统在 Web3 游戏领域已经有所实践,并且已经有数十个 Web3 游戏在运行,这些游戏是由 AI 驱动(由AI Agent 完成游戏的逻辑),并且能够在无需依赖于中心化服务器的情况下保证高效、安全可信的运行。

在近期,Zypher 发布的全新的零知识计算层,通过为 AI Agent 领域提供 Proof of Prompt 和 Proof of Inference 两个主要的核心能力,通过向公众证明 Prompt 和推理是正确且未经篡改的,同时不透露底层敏感数据,以保证 AI Agent 运行过程中 Prompt 以及推理的可验证性与可信性。

值得一提的是,虽然现阶段也有众多的方案试图为 AI Agent 带来可信性,但 Zypher 是唯一一个不依赖于硬件,仅通过 ZK 密码学手段就能达到效果的方案。

Zk Prompt

上文我们提到,在传统的 AI Agent 模型中,最大问题在于无法保证 Prompt 的可信,包括 Prompt 是否被篡改、是否是由准确的 Prompt 驱动模型推理、Prompt 中的敏感信息是否会被泄露等等。

Zypher 正在通过计算层中的 zk Prompt 方案来保证 Prompt 的可验证与可信性,目标是保证 Prompt 的正确性和一致性,同时无需向公众或用户暴露底层数据,其是不仅是为无信任 AI Agent 和去中心化应用逻辑打造的关键产品之一,也是其无信任 AI Agent 开发框架的重要组成部分。

zk Prompt 本身以易用的 SDK 形式呈现,其核心依托于一套先进的加密方案,包括强加密、 Pedersen 承诺和 zkSnarks(Plonk)等原语。它与系统 Prompt 的初始化流程紧密协作,将初始化的 Prompt 作为输入,通过 Zypher 的 ZK 矿工网络生成加密承诺,并构建零知识证明(ZKP)。

这些 ZKP 允许任何用户或第三方进行验证,通过与经过审计的初始承诺对比,确保 Prompt 内容的正确性和一致性。如果系统 Prompt 的实际初始化内容与审计样本存在不一致,验证过程将立即失败,从而快速定位和发现潜在问题,确保系统行为的透明性和可靠性。

从运行过程上看,AI Agent 开发者和 AI Prompt 应用开发者可以利用 zk Prompt 来创建和定义 System Prompt,以确保 AI 模型能够按照预期执行特定任务。

在 System Prompt 初始化后,Prompt 会被传递到 LLM 模型中进行加载,同时通过承诺方案生成一个加密承诺,并借助 Zypher 的 ZK 计算网络生成不可篡改的证明。这一过程将记录 Prompt 的完整性和一致性,确保 Prompt 能够指导模型产生符合预期的行为。

对于使用 Prompt 的用户,他们可以下载承诺的 Prompt 和相应的证明文件,并将当前使用的模型与承诺的 Prompt 进行验证。验证结果会明确 Prompt 用户 Prompt 是否被篡改,从而确保 Prompt 和模型的行为与开发者的原始设定一致。

交互示例

zk Prompt 在 AI Agent、ZK 计算网络、DApp 和智能合约之间构建了一套可靠的交互机制,确保 Prompt 的完整性和一致性,为 AI 模型的行为提供可信保障。

当 AI Agent 开发者通过 zkPrompt 定义并提交 System Prompt 后,Prompt 会被加密处理,生成一个加密承诺(Commitment),同时初始化 AI Agent 并生成与提示相关的加密电路,确保 Prompt 内容在系统中具备不可篡改的特性。与此同时,AI Agent 会将验证密钥发送至 Zypher 的 ZK 计算网络,作为后续验证的依据。

当 DApp 发起消息或交易请求时,AI Agent 将接收请求并委派计算任务至 ZK 计算网络处理。在 ZK 计算网络中,Prompt 的执行结果通过零知识证明的形式被加密验证,该证明不仅记录了任务的执行过程,还保证 Prompt 提示与行为的一致性,生成的证明文件随后被返回给智能合约或 DApp,用于进一步验证。

Zypher 的 Zytron 引擎链上智能合约会核验零知识证明与加密承诺,确认提示内容和执行行为的准确性。如果提示内容被篡改或执行不符合原始设定,验证将失败,从而有效防止潜在问题。这种验证机制,为 Prompt 的可靠性提供了强有力的支持,并保障了 AI 模型能够始终按照开发者的预期运行。

所以通过与智能合约及其他区块链对象协作,Zypher 能够实现更加透明且可验证的安全目标,并能够为诸多 Web3 用例所便捷集成。

从特点上来看,zk Prompt 能确保 AI Agent :

数据隐私:用户可以验证提示的正确性,而无需看到或了解系统提示的具体内容,保护提示的敏感性。可信性与透明度:通过零知识证明,用户可以信任AI的行为未被恶意篡改。分布式验证:任何用户或第三方都可以通过验证过程确认提示和模型的一致性,而不依赖于中心化实体。

以 zk Prompt 为基础,其不仅能够保证 Prompt 的可信性,同时还能进一步向 Proof of Inference 延伸,同样能够确保 AI Agent 的推理过程是可信的,推理结果是基于合法输入生成的。

总体而言,zk Prompt 方案特别适用于关键任务场景,例如涉及财务敏感信息或需要明确行动导向的 AI Agent,以确保可靠性提供了高度安全的保障。

更优的安全性

在构建可信 AI Agent 的赛道中,TEE 方案因其通过硬件构建的隔离环境而被广泛采用,能够在一定程度上实现数据的隐私保护与执行可验证性。尽管 TEE 是一种经过验证并在多个领域广泛应用的主流隐私方案,但在构建可信 AI Agent 方面仍然存在一定的局限性。

事实上,TEE 方案通常依赖于诸如 Intel SGX 和 ARM TrustZone 等硬件厂商提供的可信环境和密钥管理服务。这种中心化的信任机制使得系统的安全性高度依赖特定厂商,带来了集中化的风险,Intel SGX 此前就曾多次被曝光存在漏洞,直接威胁其可信基础。此外,尽管 TEE 提供了隔离的运行环境,其数据隐私保护能力仍存在不足。例如,在数据传输至 TEE 环境过程中可能面临窃听风险,而 TEE 外部的攻击者也可能通过交互接口获取敏感信息。此外,TEE 的设计主要面向预定义的计算任务,缺乏动态调整能力。而 AI Agent 通常需要应对多变的任务和复杂的上下文场景,这种刚性架构同样也难以满足实际需求。

相较之下,Zypher 的零知识证明方案具备去中心化特性,无需依赖任何集中式实体,其安全性源于链下分布式且大规模的计算网络集群。这不仅赋予其轻量化优势,在可扩展性和动态灵活性方面也明显优于 TEE,使其能够更高效地适配 AI Agent 的多样化应用场景。无论是 ChatGPT 还是当前热度飙升的 Deepseek 等大语言模型,Zypher 都能实现无缝兼容。值得一提的是,Zypher 方案完全基于 ZK 设计,以纯粹的密码学创新为核心,在可信 AI Agent 解决方案领域独树一帜。

总体而言,尽管 AI 技术正在以惊人的速度不断迭代和发展,但在安全与伦理问题、实用性考量等方面的限制下,全自主的 AI Agent 要实现全面普及依然面临诸多挑战。相比之下,半自主的 AI Agent 因其平衡了自动化与人为监督的特点,仍将是未来发展的主流方向。同样,这也就意味着 AI Agent 在规模性采用前亟需在可信、隐私上有所进展,而 Zypher Network 凭借其完全基于 ZK 的密码学方案正在加速这一进程,并为 AI Agent 赛道向下一阶段发展提供坚实的基础。

作为 AI 时代最重要的密码学基建设施,Zypher Network 正在 “Make Agent Secure Again”!

来源:区块链八神

相关推荐