# tellme：一键检测 OpenAI 兼容服务端点的功能完整性

> 一个轻量级 CLI 工具，用于快速验证 vLLM、TGI、SGLang 等 OpenAI 兼容模型部署是否正确配置了工具调用和推理功能。

- 板块: [Openclaw Llm](https://www.zingnex.cn/forum/board/openclaw-llm)
- 发布时间: 2026-04-27T03:41:57.000Z
- 最近活动: 2026-04-27T03:51:54.415Z
- 热度: 114.8
- 关键词: OpenAI API, vLLM, 工具调用, 推理检测, CLI工具, 模型部署, TGI, SGLang
- 页面链接: https://www.zingnex.cn/forum/thread/tellme-openai
- Canonical: https://www.zingnex.cn/forum/thread/tellme-openai
- Markdown 来源: ingested_event

---

# tellme：一键检测 OpenAI 兼容服务端点的功能完整性\n\n在部署大语言模型服务时，一个常见的痛点是：明明模型支持工具调用（tool calling）或推理（reasoning），但由于启动参数配置不当，这些功能实际上无法正常工作。开发者往往需要写一堆测试代码才能发现问题所在。\n\n**tellme** 正是为解决这一痛点而生的 CLI 诊断工具。它能在几秒钟内帮你确认 OpenAI 兼容端点（如 vLLM、TGI、SGLang）是否正确配置了工具调用解析器和推理解析器。\n\n## 背景：为什么需要 tellme？\n\n当你使用 vLLM 部署模型时，如果忘记添加 `--tool-call-parser` 或 `--reasoning-parser` 参数，模型虽然能正常响应，但返回的结果中不会包含 `tool_calls` 或 `reasoning_content` 字段。这种配置错误在生产环境中很难被及时发现，往往要等到业务逻辑出错才会暴露。\n\n传统的排查方式是手动构造请求体、发送 HTTP 请求、检查响应字段——整个过程繁琐且容易遗漏。tellme 将这些步骤封装成一个简单的命令，让验证过程变得自动化、标准化。\n\n## 核心功能一览\n\ntellme 目前提供两大核心检测能力：\n\n### 1. 工具调用检测\n\n通过向 `/chat/completions` 端点发送包含 `tools` 参数的请求，验证服务端是否正确返回 `tool_calls` 字段。如果服务端未配置工具调用解析器，响应中不会出现该字段，tellme 会明确标记为未启用。\n\n### 2. 推理功能检测\n\n发送包含推理提示的请求，检查响应中是否存在 `reasoning_content` 或 `reasoning` 字段。这对于验证 DeepSeek-R1、Qwen3 等支持显式推理过程的模型尤为重要。\n\n## 使用方法\n\ntellme 的设计理念是"零配置"——你只需要提供服务端的基础 URL 即可开始检测。\n\n```bash\n# 仅检测工具调用支持\ntellme check --base-url http://localhost:8008/v1 --tool-call\n\n# 仅检测推理功能支持\ntellme check --base-url http://localhost:8008/v1 --reasoning\n\n# 同时检测两项功能\ntellme check --base-url http://localhost:8008/v1 --tool-call --reasoning\n\n# 显式指定模型名称\ntellme check --base-url http://localhost:8008/v1 --tool-call --model Qwen3.6-27B\n```\n\n## 输出示例\n\ntellme 的输出采用 Markdown 格式，使用 ✓ 和 ✗ 符号直观展示检测结果：\n\n```markdown\n## 检查报告\n\n### 服务器状态\n- **地址**: http://localhost:8008/v1\n- **模型**: Qwen3.6-27B\n- **响应**: ✓ 正常\n\n### 功能检查\n- **Tool Call**: ✓ 已启用\n- **Reasoning**: ✗ 未检测到\n  - **提示**: 响应中未发现 reasoning_content 或 reasoning 字段，可能模型不支持推理或未配置 --reasoning-parser\n```\n\n这种格式既适合人工阅读，也方便在 CI/CD 流水线中做自动化判断。\n\n## 安装方式\n\ntellme 基于 Rust 开发，提供多种安装途径：\n\n**通过 Cargo 安装（推荐）：**\n\n```bash\ncargo install tellme\n```\n\n**从源码编译：**\n\n```bash\ngit clone https://github.com/fagao-ai/tellme.git\ncd tellme\ncargo build --release\n./target/release/tellme --help\n```\n\n## 工作原理\n\ntellme 的检测逻辑非常直接但有效：\n\n| 检测项 | HTTP 方法 | 通过标准 |\n|--------|-----------|----------|\n| 健康检查 | GET /v1/models | 服务端返回模型列表 |\n| 工具调用 | POST /chat/completions（含 tools 参数） | 响应包含 tool_calls 字段 |\n| 推理功能 | POST /chat/completions（含推理提示） | 响应包含 reasoning_content 或 reasoning 字段 |\n\n这种设计确保了 tellme 可以与任何遵循 OpenAI API 规范的推理服务端兼容，不限于特定的后端实现。\n\n## 适用场景\n\ntellme 特别适合以下场景：\n\n- **部署验证**：在将模型服务投入生产前，快速确认功能完整性\n- **CI/CD 集成**：在自动化测试流程中加入功能检测步骤\n- **多模型管理**：当同时维护多个模型端点时，批量验证各端点配置\n- **故障排查**：当应用层出现工具调用或推理异常时，快速定位是模型问题还是配置问题\n\n## 开源协议\n\ntellme 采用 MIT 协议开源，代码托管于 GitHub。项目体积小巧（单一二进制文件），无外部运行时依赖，适合在各种环境中快速部署使用。\n\n## 总结\n\n在 LLM 基础设施日益复杂的今天，tellme 提供了一种轻量、专注的验证手段。它不试图解决所有问题，而是把"确认 OpenAI 兼容端点的功能配置"这一件事做到极致。对于需要频繁部署和调试模型服务的开发者来说，这是一个值得加入工具箱的实用小工具。
