章节 01
导读 / 主楼:Infernet:去中心化GPU推理协议,让闲置算力变现
开源的P2P分布式GPU推理协议,支持多币种加密货币支付,为AI推理需求方和GPU提供者搭建去中心化市场
正文
开源的P2P分布式GPU推理协议,支持多币种加密货币支付,为AI推理需求方和GPU提供者搭建去中心化市场
章节 01
开源的P2P分布式GPU推理协议,支持多币种加密货币支付,为AI推理需求方和GPU提供者搭建去中心化市场
章节 02
bash\npnpm install\npnpm supabase:start\npnpm supabase:db:reset # 应用所有迁移\npnpm dev # 仪表盘运行在 http://localhost:3000\n\n\n云端模式(快速启动):\n\nbash\npnpm supabase:login\npnpm supabase:link\npnpm supabase:db:push\npnpm dev\n\n\n### CLI节点部署\n\nbash\n# 全局安装\npnpm install -g .\n\n# 初始化配置(交互式引导)\ninfernet init\n# - 输入Supabase URL和服务角色密钥\n# - 选择节点角色(provider/aggregator/client)\n# - 设置节点名称\n# - 生成或导入Nostr密钥对\n# - 配置P2P端口(默认46337)\n# - GPU自动检测\n\n# 注册节点到控制平面\ninfernet register\n\n# 启动守护进程\ninfernet start\n\n# 查看状态\ninfernet status\ninfernet stats\n\n\n### 一键云部署(RunPod集成)\n\n对于希望快速启动提供商节点的用户,Infernet提供与RunPod的深度集成:\n\n1. 在仪表盘访问/deploy页面\n2. 输入RunPod API密钥(服务器代理请求后立即丢弃,不存储)\n3. 选择GPU类型和区域\n4. 系统自动拉取ghcr.io/profullstack/infernet-provider镜像并启动容器\n5. 容器自动注册到指定Supabase控制平面并开始心跳\n\n---\n\n## 应用场景与价值主张\n\n### 对GPU提供商\n\n- 闲置资源变现:游戏玩家、AI研究者、小型数据中心可以将非高峰时段的GPU算力出租\n- 灵活定价:市场机制决定价格,避开云厂商的固定定价体系\n- 加密货币收益:直接获得BTC、ETH、SOL等主流币种或稳定币,无需法币结算的复杂流程\n\n### 对推理需求方\n\n- 成本优化:去中心化市场通常比传统云服务商便宜30-70%\n- 地域灵活性:可以选择特定区域的节点以满足数据主权要求\n- 抗审查性:无需KYC、无需绑定信用卡,加密货币支付保护隐私\n\n### 对开发者\n\n- 开源可审计:完整代码开源,可自行审计安全性\n- 自托管友好:所有组件均可私有化部署,避免供应商锁定\n- SDK支持:提供@infernet/sdk(JavaScript/TypeScript)和OpenAPI 3.1规范,方便构建第三方客户端\n\n---\n\n## 技术栈与生态\n\n前端:Next.js 16.x(App Router)、React 19、Tailwind CSS\n\n后端:Supabase(PostgreSQL + Realtime)、Node.js 18+(ESM only)\n\nCLI:Node.js、Unix域套接字IPC、后台守护进程管理\n\n身份认证:Nostr协议(去中心化社交网络协议)\n\n支付:CoinPayPortal多币种网关\n\n测试:Vitest\n\n分发:npm包、Docker镜像(ghcr.io/profullstack/infernet-provider)、Homebrew公式\n\n---\n\n## 总结与展望\n\nInfernet代表了AI基础设施去中心化趋势的重要尝试。它不仅仅是一个技术项目,更是对"AI算力应该如何分配和定价"这一根本性问题的重新思考。\n\n通过结合成熟的Web技术栈(Next.js、Supabase)、去中心化身份协议(Nostr)和加密货币支付,Infernet为构建一个真正开放、透明、高效的全球GPU算力市场奠定了基础。\n\n对于拥有闲置GPU资源的个人和机构,这是一个低门槛的变现渠道。对于需要大量推理算力的AI应用开发者,这是云服务商之外的有力补充。对于关注数据隐私和抗审查性的用户,这是保持自主控制的可行方案。\n\n随着AI模型持续增大和推理需求持续增长,类似Infernet的去中心化协议将在全球算力供应链中扮演越来越重要的角色。章节 03
背景:AI算力需求与闲置资源之间的矛盾\n\n随着大语言模型和生成式AI的爆发式增长,推理算力需求呈指数级上升。企业和开发者面临两个核心痛点:一是云端GPU租赁成本高昂且供应紧张,二是大量个人和小型数据中心拥有闲置GPU资源却无法有效变现。\n\n传统的中心化云服务商(如AWS、Azure、Google Cloud)虽然提供了稳定的算力供应,但价格体系固定、地域覆盖有限,且需要复杂的账户体系和长期合约。与此同时,全球数以百万计的GPU(包括游戏显卡、工作站显卡和小型矿机)长期处于低利用率状态。\n\n这种供需错配催生了对去中心化算力市场的强烈需求。区块链技术为信任建立和跨境支付提供了基础设施,而P2P网络协议则让分布式节点之间的直接通信成为可能。\n\n---\n\n项目概述:Infernet协议架构\n\nInfernet是一个开源的端到端分布式GPU推理协议,旨在构建一个去中心化的AI算力市场。该项目由profullstack团队开发,采用MIT许可证开源发布。\n\n核心架构组件\n\n整个系统由三个主要层次构成:\n\n1. 控制平面(Control Plane)\n\n基于Supabase构建的后端系统,可选择自托管或云端部署。控制平面负责节点注册、任务分发、状态同步和支付结算。所有节点状态、任务队列和交易记录都存储在Supabase的PostgreSQL数据库中,通过REST API和Realtime订阅实现实时通信。\n\n2. 仪表盘(Dashboard)\n\n采用Next.js 16和React 19构建的现代化Web界面,同时支持PWA(渐进式Web应用)和Electron桌面应用形态。用户可以通过仪表盘监控节点状态、提交推理任务、查看收益统计和管理支付设置。\n\n3. CLI守护进程(infernet CLI)\n\n每个GPU服务器运行的轻量级二进制程序,负责节点注册、心跳维护、任务接收和推理执行。CLI通过Unix域套接字提供本地IPC接口,支持后台守护进程模式和前台运行模式(适用于systemd/Docker/Kubernetes环境)。\n\n---\n\n技术实现细节\n\n节点发现与P2P通信\n\nInfernet采用双轨通信机制:\n\n- 控制平面通信:所有节点通过Supabase REST API进行注册、心跳上报和任务轮询。心跳间隔可配置,默认情况下节点定期向控制平面报告存活状态和当前负载。\n\n- P2P直接通信:节点之间通过TCP 46337端口(可配置)建立直接连接,支持IPv4/IPv6双栈。这种设计让数据密集型操作(如大模型权重传输、批量推理结果返回)可以绕过中心服务器,降低延迟和带宽成本。\n\n节点在注册时自动生成或导入Nostr密钥对,用于身份认证和消息签名。Nostr协议的引入确保了去中心化身份管理,无需依赖传统CA证书体系。\n\nGPU自动检测与规格上报\n\nCLI内置多平台GPU检测能力:\n\n- NVIDIA GPU:通过nvidia-smi获取型号、显存容量、驱动版本、CUDA版本、利用率、温度和功耗数据\n- AMD GPU:通过rocm-smi获取同类信息\n- Apple Silicon:通过system_profiler获取芯片型号和统一内存容量\n\n检测到的GPU规格以JSON格式存储在Supabase的providers.specs.gpus字段中,控制平面据此进行任务匹配(例如"寻找显存≥80GB且CUDA 12.4的提供商")。\n\n多币种加密货币支付\n\nInfernet集成CoinPayPortal支付网关,支持丰富的加密货币选项:\n\nLayer 1币种:BTC、BCH、ETH、SOL、POL(原MATIC)、BNB、XRP、ADA、DOGE\n\n稳定币:\n- USDT:ETH、Polygon、Solana网络\n- USDC:ETH、Polygon、Solana、Base网络\n\n支付流程设计:\n1. 消费者提交推理任务时选择支付币种\n2. 系统生成对应币种的支付地址和发票\n3. CoinPayPortal处理链上确认并通过Webhook回调更新交易状态\n4. 任务完成后,提供商收益记入payment_transactions表\n5. 提供商可随时配置提现钱包地址(infernet payout set
)发起提现\n\n---\n\n部署与使用流程\n\n控制平面部署\n\n自托管模式(适合隐私敏感场景和离线开发):\n\nbash\npnpm install\npnpm supabase:start\npnpm supabase:db:reset 应用所有迁移\npnpm dev 仪表盘运行在 http://localhost:3000\n\n\n云端模式(快速启动):\n\nbash\npnpm supabase:login\npnpm supabase:link\npnpm supabase:db:push\npnpm dev\n\n\nCLI节点部署\n\nbash\n全局安装\npnpm install -g .\n\n初始化配置(交互式引导)\ninfernet init\n- 输入Supabase URL和服务角色密钥\n- 选择节点角色(provider/aggregator/client)\n- 设置节点名称\n- 生成或导入Nostr密钥对\n- 配置P2P端口(默认46337)\n- GPU自动检测\n\n注册节点到控制平面\ninfernet register\n\n启动守护进程\ninfernet start\n\n查看状态\ninfernet status\ninfernet stats\n\n\n一键云部署(RunPod集成)\n\n对于希望快速启动提供商节点的用户,Infernet提供与RunPod的深度集成:\n\n1. 在仪表盘访问/deploy页面\n2. 输入RunPod API密钥(服务器代理请求后立即丢弃,不存储)\n3. 选择GPU类型和区域\n4. 系统自动拉取ghcr.io/profullstack/infernet-provider镜像并启动容器\n5. 容器自动注册到指定Supabase控制平面并开始心跳\n\n---\n\n应用场景与价值主张\n\n对GPU提供商\n\n- 闲置资源变现:游戏玩家、AI研究者、小型数据中心可以将非高峰时段的GPU算力出租\n- 灵活定价:市场机制决定价格,避开云厂商的固定定价体系\n- 加密货币收益:直接获得BTC、ETH、SOL等主流币种或稳定币,无需法币结算的复杂流程\n\n对推理需求方\n\n- 成本优化:去中心化市场通常比传统云服务商便宜30-70%\n- 地域灵活性:可以选择特定区域的节点以满足数据主权要求\n- 抗审查性:无需KYC、无需绑定信用卡,加密货币支付保护隐私\n\n对开发者\n\n- 开源可审计:完整代码开源,可自行审计安全性\n- 自托管友好:所有组件均可私有化部署,避免供应商锁定\n- SDK支持:提供@infernet/sdk(JavaScript/TypeScript)和OpenAPI 3.1规范,方便构建第三方客户端\n\n---\n\n技术栈与生态\n\n前端:Next.js 16.x(App Router)、React 19、Tailwind CSS\n\n后端:Supabase(PostgreSQL + Realtime)、Node.js 18+(ESM only)\n\nCLI:Node.js、Unix域套接字IPC、后台守护进程管理\n\n身份认证:Nostr协议(去中心化社交网络协议)\n\n支付:CoinPayPortal多币种网关\n\n测试:Vitest\n\n分发:npm包、Docker镜像(ghcr.io/profullstack/infernet-provider)、Homebrew公式\n\n---\n\n总结与展望\n\nInfernet代表了AI基础设施去中心化趋势的重要尝试。它不仅仅是一个技术项目,更是对"AI算力应该如何分配和定价"这一根本性问题的重新思考。\n\n通过结合成熟的Web技术栈(Next.js、Supabase)、去中心化身份协议(Nostr)和加密货币支付,Infernet为构建一个真正开放、透明、高效的全球GPU算力市场奠定了基础。\n\n对于拥有闲置GPU资源的个人和机构,这是一个低门槛的变现渠道。对于需要大量推理算力的AI应用开发者,这是云服务商之外的有力补充。对于关注数据隐私和抗审查性的用户,这是保持自主控制的可行方案。\n\n随着AI模型持续增大和推理需求持续增长,类似Infernet的去中心化协议将在全球算力供应链中扮演越来越重要的角色。