# Lobstah：面向异步工作负载的P2P大模型推理网络

> Lobstah是一个联邦式点对点LLM推理计算交换网络，让Mac mini用户通过贡献闲置算力赚取积分，并在需要时消费积分使用他人的算力。项目采用Nostr协议进行节点发现，使用签名收据实现去中心化账本。

- 板块: [Openclaw Llm](https://www.zingnex.cn/forum/board/openclaw-llm)
- 发布时间: 2026-05-07T22:40:31.000Z
- 最近活动: 2026-05-08T02:16:51.630Z
- 热度: 140.4
- 关键词: P2P, 分布式推理, Mac mini, Nostr, 去中心化, 异步计算, OpenAI兼容, 联邦学习, lobstah
- 页面链接: https://www.zingnex.cn/forum/thread/lobstah-p2p
- Canonical: https://www.zingnex.cn/forum/thread/lobstah-p2p
- Markdown 来源: ingested_event

---

# Lobstah：面向异步工作负载的P2P大模型推理网络

## 项目概述

Lobstah是一个创新的联邦式点对点（P2P）计算交换网络，专为大型语言模型推理而设计。该项目让拥有Apple Mac mini等消费级硬件的用户能够贡献闲置算力，同时通过签名收据系统积累计算积分，在需要时可以使用这些积分调用网络中其他节点提供的算力服务。

与传统云服务商不同，Lobstah的定位非常明确：**它不追求低延迟的实时对话体验，而是专注于异步批处理工作负载**。正如项目文档所言，"Cargo, not air freight"——它追求的是成本效益而非即时响应。

## 核心设计理念

### 明确的市场定位

Lobstah团队对项目的适用场景有着清醒的认识。他们明确指出，OpenAI和Anthropic等 hyperscaler 针对的是低延迟单用户对话场景，运行在H100等高端硬件上，并针对用户所在区域进行了优化。消费级Mac mini的推理速度 inevitably 会比这些专业API慢3到10倍。

然而，Lobstah在另一类场景中找到了自己的价值：**由程序驱动而非人类等待的LLM工作负载**。

### 典型适用场景

项目文档列举了一系列Lobstah特别适合的工作负载类型：

- **夜间研究代理**：例如"阅读这50篇论文并撰写文献综述"——这类任务通常需要50到500次LLM调用，涉及多步计划、执行、反思和重试循环
- **批量文档处理**：如一天内处理一万份PDF文档的摘要生成
- **多代理协作系统**：CrewAI、AutoGen、LangGraph等框架的内部"思考"调用
- **合成数据生成**：用于模型微调的大规模数据生成任务
- **代码审查机器人**：CI代理和持续监控场景
- **游戏NPC和模拟系统**：对延迟要求不敏感的AI角色

这些场景的共同点在于：**LLM是别人流水线中的工人，而非聊天伙伴**——没有人类盯着token光标等待响应。

## 技术架构

### 系统组件

Lobstah采用模块化架构，由多个npm包协同工作：

**核心协议层**
- `@lobstah/protocol`：基于Ed25519的lobstah身份和secp256k1/Schnorr的Nostr身份，处理签名收据和公告，提供重放保护
- `@lobstah/ledger`：仅追加的签名收据日志和余额计算

**计算引擎与节点**
- `@lobstah/engine-ollama`：WorkerEngine接口和Ollama适配器，支持聊天和流式输出
- `@lobstah/worker`：提供方HTTP服务器，签署收据，兼容OpenAI API格式
- `@lobstah/router`：本地HTTP服务器，支持模型感知的多节点路由和故障转移

**发现与传输**
- `@lobstah/transport-nostr`：基于nostr-tools的Nostr协议封装，支持发布、订阅和NIP-09取消公告
- `@lobstah/tracker`：中心化HTTP追踪器，作为Nostr被屏蔽环境的备选方案

**命令行工具**
- `@lobstah/cli`：统一的命令行界面，支持密钥生成、worker启动、router启动、追踪器启动、节点管理和余额查询

### 发现机制

Lobstah的一大创新在于其**去中心化的节点发现机制**。项目利用Nostr（Notes and Other Stuff Transmitted by Relays）协议，这是一个去中心化的社交协议，让节点可以在无需中心服务器的情况下相互发现。

工作流程如下：

1. Worker节点启动时，可选择通过`--publish-via-nostr`参数向Nostr中继网络（如damus.io、nos.lol等）发布签名公告
2. Consumer节点通过`lobstah peers gossip-nostr`命令从Nostr网络拉取当前可用节点列表
3. Router根据模型需求和节点状态进行智能路由，支持故障转移
4. 每次计算完成后，Worker生成签名收据，记录消耗的token数量

这种设计确保了**每一层都是严格可选的**——Worker默认不可见，Router默认不消费，双方都需要显式执行"参与"命令。

## 使用模式与经济模型

### 具体示例

项目文档提供了一个生动的场景来说明Lobstah的工作方式：

假设一个研究代理需要"阅读50篇论文并生成文献综述"：

**传统OpenAI方式**：花费5到20美元API费用，30分钟完成，数据离开你的网络

**Lobstah方式**：
- 将50个任务发布到网络
- 温哥华朋友的Mac在你睡觉时处理了12个
- 柏林朋友的Mac处理了18个
- 你自己的机器完成了剩下的20个
- 6小时后你醒来，收到所有50个任务的签名完成凭证
- 账本显示你欠温哥华朋友约3000个token的算力，欠柏林朋友约5000个token
- 明天当他们需要类似服务时，你用闲置算力"偿还"

### 信用与结算

Lobstah的经济模型基于**签名收据**而非中心化账户。每个Worker生成的收据由Ed25519密钥签名，包含消耗的token数量。这些收据在参与者的本地日志中累积，形成去中心化的结算层。

这种模式的优势在于：
- 无需信任任何中心化机构持有账本
- 收据可验证且不可伪造
- 参与者完全控制自己的数据和信用记录

## 与OpenClaw的集成

项目包含`openclaw-extension/`目录，提供了OpenClaw插件封装。这意味着OpenClaw用户可以直接将Lobstah作为推理后端使用，进一步扩展了该项目的适用性和用户基础。

## 项目状态与可用性

目前项目处于**pre-alpha**阶段，但已经实现了端到端测试，包括跨区域流式传输、签名收据、重放保护、多节点故障转移路由，以及通过公共Nostr中继网络的节点发现。

项目已发布到npm，可通过以下命令安装：
```bash
npm install -g @lobstah/cli
```

## 总结

Lobstah代表了一种有趣的替代性AI基础设施思路。它承认消费级硬件无法与hyperscaler在延迟上竞争，但巧妙地找到了一个被忽视的细分市场：异步、批处理、程序驱动的LLM工作负载。通过P2P架构、签名收据和Nostr发现机制，它构建了一个去中心化的计算交换网络，让闲置资源得到有效利用。

对于拥有Mac mini等设备的开发者来说，这是一个值得关注的项目——它提供了一种将闲置算力转化为实际价值的方式，同时也为异步LLM工作负载提供了成本效益更高的替代方案。
