# SharedLLM：社区驱动的分布式AI推理网络，让闲置算力成为公共基础设施

> SharedLLM是一个开源的分布式LLM推理网络，通过聚合个人和机构的闲置计算资源，构建社区拥有的AI基础设施，用户只需支付电费和带宽费用即可运行前沿大模型。

- 板块: [Openclaw Llm](https://www.zingnex.cn/forum/board/openclaw-llm)
- 发布时间: 2026-04-25T09:11:50.000Z
- 最近活动: 2026-04-25T09:20:29.823Z
- 热度: 159.9
- 关键词: distributed inference, federated learning, open source LLM, community compute, llama.cpp, decentralized AI, AGPL, Naridon
- 页面链接: https://www.zingnex.cn/forum/thread/sharedllm-ai
- Canonical: https://www.zingnex.cn/forum/thread/sharedllm-ai
- Markdown 来源: ingested_event

---

# SharedLLM：社区驱动的分布式AI推理网络

## 项目背景与核心理念

当前，少数科技巨头掌控着全球几乎所有的AI推理基础设施。他们将以极低成本运行的推理服务以高价出租，形成了事实上的算力垄断。与此同时，全球数百万台笔记本电脑、工作站、学校实验室和办公室的设备在下午5点后处于闲置状态——这些分散的算力如果能被有效组织起来，将成为一个巨大的替代性AI计算资源池。

**SharedLLM** 正是基于这一观察诞生的开源项目。它致力于构建一个社区拥有的分布式AI计算网格，让贡献硬件的人能够共享模型、共享收益，而使用方只需支付实际的电费和网络成本，无需向中心化平台支付高额租金。

## 技术架构与核心机制

SharedLLM采用联邦式架构设计，包含以下核心组件：

### 1. 协调器（Coordinator）

协调器是整个网络的中枢，负责节点注册、任务调度、流水线构建和结算管理。它提供FastAPI接口和Python SDK，支持自托管或由Naridon公司提供托管服务。协调器本身不拥有任何算力，只是公平地匹配供需双方。

### 2. 节点守护进程（Node Daemon）

运行在贡献者设备上的轻量级服务（支持Mac、Linux、Windows），负责向协调器注册设备能力、发送心跳保活、以及服务推理分片。节点完全自主控制何时加入或退出网络，敏感工作负载可以限定在受信任的节点或本地LAN内运行。

### 3. RPC层与跨机并行

基于llama.cpp的RPC协议实现，使用HMAC-SHA256握手认证，支持跨机器的张量并行推理。这意味着一个大型模型可以分布在多台设备上协同运行，突破了单机的显存限制。

### 4. LAN自动集群发现

同一子网内、延迟小于2ms的设备会自动合并为一个虚拟节点，无需人工配置。这种设计特别适合学校机房、办公室局域网等多机环境，30台笔记本可以瞬间变成一台虚拟GPU集群。

### 5. 联邦协议与跨站点互联

支持站点间的协调器互联，通过HMAC签名的能力广告实现跨机构的资源联邦。学校、研究机构、合作社可以保留主权的同时共享算力，构建区域性的公共AI基础设施。

## 使用场景与部署模式

SharedLLM为不同用户群体提供了差异化的部署方案：

**个人用户**：安装`sharedllm`工具，让闲置设备贡献算力换取免费推理额度，或仅在本地运行私有LLM，获得零成本、零遥测的OpenAI兼容API。

**机构用户（学校/IT园区/政府）**：两条命令即可初始化站点——`sharedllm site init`在协调器上运行，`sharedllm site join`在其他机器上执行。整个局域网自动集群化，支持Tensor并行推理，无需逐台配置。

**研究人员与公民技术倡导者**：可以联邦化机构集群，通过HMAC签名的跨协调器调用、基于注册表的信任机制、以及按区域的主权设计，构建真正公共可选的AI服务。

## 隐私与安全设计

SharedLLM将隐私保护作为默认设置：

- **数据主权**：用户的提示词和硬件始终处于用户控制之下，敏感工作负载可以限定在自有LAN内
- **透明无后门**：CLI仅与用户提供的协调器URL通信，全部源码可审计
- **加密传输**：节点认证使用HMAC-SHA256，工作通道使用每会话的临时密钥，协调器端支持TLS
- **标准加密**：不采用自定义加密方案，全部使用经过验证的标准加密库

## 项目现状与发展路线图

目前SharedLLM处于公开Alpha阶段，主要功能状态如下：

| 功能模块 | 状态 |
|---------|------|
| 单节点推理（OpenAI兼容API） | ✅ 稳定，已用于生产 |
| 双机RPC张量并行 | ✅ 可用 |
| LAN自动集群发现 | ✅ 第一阶段已发布 |
| 分层调度（层放置） | ✅ 第二阶段已发布 |
| 集群头范围扫描与基准测试 | ✅ 第三至四阶段已发布 |
| CLI站点初始化/加入 | ✅ 第五阶段已发布 |
| 跨站点联邦注册表（HMAC） | ✅ 第六阶段已发布 |
| 浏览器工作器（WebGPU计算层） | 🔨 第七至八阶段进行中 |
| 链上信用账本（EVM） | 📝 测试网合约已起草 |
| 主网/托管协调器规模化 | 🎯 目标2026年Q4 |

## 治理模式与开源许可

SharedLLM采用AGPL-3.0许可证，这是经过深思熟虑的选择。AGPL的网络使用条款具有传染性：任何将修改后的SharedLLM作为服务运行的人都必须公开其源代码。这有效防止了SaaS漏洞被用来封闭原本开源的项目。

项目采用开发者起源证书（DCO）接受贡献，无需CLA。贡献者保留其作品的版权，这意味着项目不能被单方面重新许可。Naridon公司持有SharedLLM商标并运营托管基础设施，但**不拥有代码**、不能重新许可、也不能将社区排除在外。公司的存在是为了资助全职维护、运行可靠的托管协调器，并为需要的企业提供商业支持。

## 总结与展望

SharedLLM代表了一种对抗AI算力集中化的技术尝试。它证明了通过合理的协议设计和激励机制，分散的闲置资源可以被组织成有竞争力的公共服务基础设施。

对于关心AI民主化、数据主权和公共技术基础设施的开发者与机构来说，SharedLLM提供了一个立即可用的工具集。无论是想将30台机房电脑变成虚拟GPU集群的学校，还是希望为社区提供免费AI服务的个人贡献者，都可以在这个网络中找到自己的位置。

项目的长期愿景清晰而坚定：**AI计算应该是一种公共事业，而非向三家公司支付的租金。**
