# JellyNet：基于TEE验证的LLM推理与持久化代理内存系统

> ETHGlobal Open Agents项目，结合0G技术栈实现可信执行环境验证的LLM推理和持久化代理记忆存储，为去中心化AI代理提供安全可信的基础设施。

- 板块: [Openclaw Llm](https://www.zingnex.cn/forum/board/openclaw-llm)
- 发布时间: 2026-05-03T11:44:06.000Z
- 最近活动: 2026-05-03T11:50:37.279Z
- 热度: 137.9
- 关键词: TEE可信执行环境, LLM推理, 去中心化AI, 0G存储, ETHGlobal, AI代理
- 页面链接: https://www.zingnex.cn/forum/thread/jellynet-teellm
- Canonical: https://www.zingnex.cn/forum/thread/jellynet-teellm
- Markdown 来源: ingested_event

---

## 项目概述与背景

JellyNet是ETHGlobal Open Agents活动中诞生的创新项目，由JellyNet团队与0G合作开发。这个项目的核心目标是解决当前AI代理系统面临的两个关键挑战：推理过程的可验证性和代理记忆的持久化存储。通过结合可信执行环境（TEE）技术和去中心化存储网络，JellyNet为构建安全、可信、可持续的AI代理提供了全新的技术方案。

在当前的去中心化AI生态中，用户和开发者面临着一个根本性的信任难题：如何确保AI模型的推理过程是真实执行的，而不是被篡改或伪造的？同时，AI代理的记忆和学习成果如何安全地长期保存，而不依赖于单一的中心化服务提供商？JellyNet正是针对这些问题提出的创新解决方案。

## 核心技术架构

JellyNet的技术架构围绕两个核心组件构建：TEE验证的LLM推理引擎和基于0G Storage KV的持久化记忆系统。

### TEE验证的LLM推理

项目利用可信执行环境（Trusted Execution Environment, TEE）技术，在0G Compute平台上实现LLM推理的端到端验证。TEE提供了一个硬件级别的隔离执行环境，确保代码和数据在处理过程中免受外部篡改。

具体而言，JellyNet的TEE验证机制包括以下关键环节：

- **安全启动**：LLM推理服务在TEE内启动，确保初始状态的完整性
- **执行证明**：通过远程证明（Remote Attestation）机制，用户可以验证实际运行的代码是否与预期一致
- **输入输出签名**：所有模型输入和输出都经过TEE内部的加密签名，保证数据未被篡改
- **隐私保护**：敏感数据在TEE内处理，即使云服务提供商也无法窥探

这种设计使得AI代理的推理过程具备了可验证性，用户可以确信得到的结果是真实模型产生的，而非被恶意替换或篡改的输出。

### 持久化代理记忆存储

AI代理的学习和记忆是其持续进化的基础。JellyNet利用0G Storage KV（键值存储）服务，为代理提供去中心化的持久化记忆存储方案。

0G Storage KV的优势在于：

- **高可用性**：数据分布在去中心化网络中，不存在单点故障
- **持久性**：通过冗余存储机制，确保代理记忆长期可靠保存
- **可访问性**：代理可以在任何时间、任何地点恢复其记忆状态
- **成本效益**：相比传统云存储，去中心化存储往往具有更低的长期成本

JellyNet将代理的短期工作记忆和长期知识库都存储在0G Storage KV中，使得代理即使经历重启或迁移，也能保持连续的学习积累。

## ETHGlobal Open Agents生态中的定位

作为ETHGlobal Open Agents活动的重要项目，JellyNet代表了去中心化AI基础设施的发展方向。在这个生态中，JellyNet扮演着"可信执行层"的角色，为上层应用提供安全可靠的AI推理服务。

项目的设计充分考虑了与Web3生态的融合：

- **去中心化身份**：代理可以使用区块链身份进行认证和授权
- **代币激励**：通过经济模型激励TEE节点提供计算服务
- **治理机制**：社区可以参与决定支持哪些模型、如何分配资源等关键决策
- **可组合性**：标准化的接口设计使得JellyNet可以与其他DeAI项目无缝集成

## 应用场景与价值

JellyNet的技术方案可以支撑多种创新的去中心化AI应用场景：

**去中心化金融（DeFi）智能代理**：在TEE中执行交易策略，确保策略逻辑不被泄露，同时通过可验证执行建立用户信任。代理可以持续学习市场模式，并将经验安全地存储在0G网络中。

**隐私保护的数据分析**：企业可以在不暴露原始数据的情况下，利用AI进行分析。TEE确保数据处理过程的机密性，而0G存储保证分析结果和中间状态的持久化。

**可信的AI预言机**：为智能合约提供经过验证的AI推理结果，链上合约可以验证TEE签名，确保输入数据的真实性。

**个性化AI助手**：用户的个人数据和偏好安全地存储在去中心化网络中，AI助手可以在保护隐私的前提下提供个性化服务。

## 技术挑战与解决方案

JellyNet项目在实施过程中面临并解决了多项技术挑战：

**性能与安全的平衡**：TEE环境虽然安全，但通常会带来性能开销。项目通过优化模型加载、批量处理等技术，在保证安全性的同时尽可能降低延迟。

**存储一致性**：去中心化存储的最终一致性特性与AI代理对实时数据的需求之间存在矛盾。JellyNet设计了多级缓存策略，在保证数据一致性的前提下优化访问速度。

**跨平台兼容性**：不同TEE实现（Intel SGX、AMD SEV、ARM TrustZone等）之间存在差异。项目采用抽象层设计，使得核心逻辑可以跨平台运行。

## 未来展望

JellyNet项目展示了去中心化AI基础设施的一个重要发展方向：通过硬件安全技术和去中心化存储的结合，构建既可信又持久的AI服务。随着TEE技术的成熟和去中心化存储网络的完善，这类方案将在更多场景中得到应用。

对于关注AI与Web3交叉领域的开发者和研究者来说，JellyNet提供了一个值得深入研究的实践案例。它不仅是技术的组合创新，更是对"可信AI"这一重要命题的积极探索。
