章节 01
导读 / 主楼:KeylessAI:零成本、零配置的 OpenAI 兼容 LLM 端点聚合方案
一个无需 API 密钥、无需注册、完全免费的 OpenAI 兼容 LLM 端点服务,通过聚合多个公开的无认证端点,为开发者和用户提供即开即用的 AI 推理能力。
正文
一个无需 API 密钥、无需注册、完全免费的 OpenAI 兼容 LLM 端点服务,通过聚合多个公开的无认证端点,为开发者和用户提供即开即用的 AI 推理能力。
章节 01
一个无需 API 密钥、无需注册、完全免费的 OpenAI 兼容 LLM 端点服务,通过聚合多个公开的无认证端点,为开发者和用户提供即开即用的 AI 推理能力。
章节 02
在 AI 应用开发中,API 成本往往是最容易被低估的开销之一。一个活跃的开发团队使用 Claude Code、Aider、Cline 等工具时,每月的 LLM API 费用可能轻松达到数百甚至数千美元。对于个人开发者、学生、开源项目维护者或预算有限的初创团队来说,这是一笔不小的负担。
KeylessAI 正是为解决这一问题而生。它通过聚合互联网上公开可用的无认证 LLM 端点,为用户提供一个完全免费、即开即用的 OpenAI 兼容接口。用户只需修改一个环境变量,现有的 AI 工具链就能无缝切换到免费模式。
章节 03
KeylessAI 采用代理层设计,在用户的应用程序和上游提供商之间建立了一个智能中间层。这个设计带来了几个关键优势:
多提供商聚合:系统同时对接多个免费 LLM 端点,目前主要包括 Pollinations.ai 和 ApiAirforce。当某个提供商出现故障或限流时,系统会自动切换到备用源,确保服务的连续性。
客户端单飞行队列:免费端点通常有严格的并发限制(如每个 IP 地址 1 个并发请求)。KeylessAI 在本地代理层实现了请求队列,将并行调用序列化,避免因并发超限而被封禁。
响应内容过滤:免费端点有时会在响应中插入广告或弃用通知。KeylessAI 内置了智能过滤机制,自动清除这些干扰内容,向应用程序返回干净的模型输出。
模型名称映射:用户可以继续使用熟悉的模型名称(如 gpt-4o、gpt-4o-mini、claude-3-5-sonnet),代理层会自动将其映射到实际可用的免费模型(如 openai-fast)。这种透明映射让现有代码无需任何修改即可工作。
章节 04
KeylessAI 提供了两种使用模式,适应不同的场景需求:
章节 05
最简单的使用方式是直接将 OPENAI_API_BASE 指向 Pollinations.ai:
export OPENAI_API_BASE="https://text.pollinations.ai"
export OPENAI_API_KEY="not-needed"
这种方式无需运行任何本地服务,适合 CI/CD 流水线、服务器less 环境或任何无法常驻代理进程的场景。缺点是失去了模型名称映射和自动故障转移的能力。
章节 06
更推荐的方式是运行 KeylessAI 本地代理:
npx github:lordbasilaiassistant-sudo/keylessai serve
这会启动一个监听在 http://127.0.0.1:8787/v1 的本地服务,提供完整的功能:
配置应用程序指向本地代理后,即可享受全部增强功能。
章节 07
KeylessAI 的设计目标是与整个 OpenAI 生态无缝兼容。经过测试,以下工具均可通过简单配置与 KeylessAI 协同工作:
AI 编程助手:Aider、Cline、Roo Code、Continue.dev、Codex CLI、Claude Code
开发框架:LangChain、LlamaIndex、LiteLLM
官方 SDK:OpenAI Python SDK、OpenAI Node.js SDK
自主代理:OpenHands 等自动化编程代理
配置方式通常只需设置两个环境变量:OPENAI_API_BASE 指向代理地址,OPENAI_API_KEY 设置为任意非空值。这种极简配置让迁移成本接近于零。
章节 08
除了 API 代理,KeylessAI 还提供了一个功能完整的 Web 聊天界面。用户可以直接在浏览器中与模型交互,无需安装任何软件或配置环境变量。
界面提供了提供商选择、模型切换、参数调整等功能,同时支持查看原始 API 调用示例,方便开发者复制到自己的项目中。这个在线演示既是产品的展示窗口,也是用户快速体验免费 LLM 能力的便捷入口。