Zing 论坛

正文

tellme:一键检测 OpenAI 兼容服务端点的功能完整性

一个轻量级 CLI 工具,用于快速验证 vLLM、TGI、SGLang 等 OpenAI 兼容模型部署是否正确配置了工具调用和推理功能。

OpenAI APIvLLM工具调用推理检测CLI工具模型部署TGISGLang
发布时间 2026/04/27 11:41最近活动 2026/04/27 11:51预计阅读 9 分钟
tellme:一键检测 OpenAI 兼容服务端点的功能完整性
1

章节 01

导读 / 主楼:tellme:一键检测 OpenAI 兼容服务端点的功能完整性

一个轻量级 CLI 工具,用于快速验证 vLLM、TGI、SGLang 等 OpenAI 兼容模型部署是否正确配置了工具调用和推理功能。

2

章节 02

背景

tellme:一键检测 OpenAI 兼容服务端点的功能完整性\n\n在部署大语言模型服务时,一个常见的痛点是:明明模型支持工具调用(tool calling)或推理(reasoning),但由于启动参数配置不当,这些功能实际上无法正常工作。开发者往往需要写一堆测试代码才能发现问题所在。\n\ntellme 正是为解决这一痛点而生的 CLI 诊断工具。它能在几秒钟内帮你确认 OpenAI 兼容端点(如 vLLM、TGI、SGLang)是否正确配置了工具调用解析器和推理解析器。\n\n## 背景:为什么需要 tellme?\n\n当你使用 vLLM 部署模型时,如果忘记添加 --tool-call-parser--reasoning-parser 参数,模型虽然能正常响应,但返回的结果中不会包含 tool_callsreasoning_content 字段。这种配置错误在生产环境中很难被及时发现,往往要等到业务逻辑出错才会暴露。\n\n传统的排查方式是手动构造请求体、发送 HTTP 请求、检查响应字段——整个过程繁琐且容易遗漏。tellme 将这些步骤封装成一个简单的命令,让验证过程变得自动化、标准化。\n\n## 核心功能一览\n\ntellme 目前提供两大核心检测能力:\n\n### 1. 工具调用检测\n\n通过向 /chat/completions 端点发送包含 tools 参数的请求,验证服务端是否正确返回 tool_calls 字段。如果服务端未配置工具调用解析器,响应中不会出现该字段,tellme 会明确标记为未启用。\n\n### 2. 推理功能检测\n\n发送包含推理提示的请求,检查响应中是否存在 reasoning_contentreasoning 字段。这对于验证 DeepSeek-R1、Qwen3 等支持显式推理过程的模型尤为重要。\n\n## 使用方法\n\ntellme 的设计理念是"零配置"——你只需要提供服务端的基础 URL 即可开始检测。\n\nbash\n# 仅检测工具调用支持\ntellme check --base-url http://localhost:8008/v1 --tool-call\n\n# 仅检测推理功能支持\ntellme check --base-url http://localhost:8008/v1 --reasoning\n\n# 同时检测两项功能\ntellme check --base-url http://localhost:8008/v1 --tool-call --reasoning\n\n# 显式指定模型名称\ntellme check --base-url http://localhost:8008/v1 --tool-call --model Qwen3.6-27B\n\n\n## 输出示例\n\ntellme 的输出采用 Markdown 格式,使用 ✓ 和 ✗ 符号直观展示检测结果:\n\nmarkdown\n## 检查报告\n\n### 服务器状态\n- **地址**: http://localhost:8008/v1\n- **模型**: Qwen3.6-27B\n- **响应**: ✓ 正常\n\n### 功能检查\n- **Tool Call**: ✓ 已启用\n- **Reasoning**: ✗ 未检测到\n - **提示**: 响应中未发现 reasoning_content 或 reasoning 字段,可能模型不支持推理或未配置 --reasoning-parser\n\n\n这种格式既适合人工阅读,也方便在 CI/CD 流水线中做自动化判断。\n\n## 安装方式\n\ntellme 基于 Rust 开发,提供多种安装途径:\n\n通过 Cargo 安装(推荐):\n\nbash\ncargo install tellme\n\n\n从源码编译:\n\nbash\ngit clone https://github.com/fagao-ai/tellme.git\ncd tellme\ncargo build --release\n./target/release/tellme --help\n\n\n## 工作原理\n\ntellme 的检测逻辑非常直接但有效:\n\n| 检测项 | HTTP 方法 | 通过标准 |\n|--------|-----------|----------|\n| 健康检查 | GET /v1/models | 服务端返回模型列表 |\n| 工具调用 | POST /chat/completions(含 tools 参数) | 响应包含 tool_calls 字段 |\n| 推理功能 | POST /chat/completions(含推理提示) | 响应包含 reasoning_content 或 reasoning 字段 |\n\n这种设计确保了 tellme 可以与任何遵循 OpenAI API 规范的推理服务端兼容,不限于特定的后端实现。\n\n## 适用场景\n\ntellme 特别适合以下场景:\n\n- 部署验证:在将模型服务投入生产前,快速确认功能完整性\n- CI/CD 集成:在自动化测试流程中加入功能检测步骤\n- 多模型管理:当同时维护多个模型端点时,批量验证各端点配置\n- 故障排查:当应用层出现工具调用或推理异常时,快速定位是模型问题还是配置问题\n\n## 开源协议\n\ntellme 采用 MIT 协议开源,代码托管于 GitHub。项目体积小巧(单一二进制文件),无外部运行时依赖,适合在各种环境中快速部署使用。\n\n## 总结\n\n在 LLM 基础设施日益复杂的今天,tellme 提供了一种轻量、专注的验证手段。它不试图解决所有问题,而是把"确认 OpenAI 兼容端点的功能配置"这一件事做到极致。对于需要频繁部署和调试模型服务的开发者来说,这是一个值得加入工具箱的实用小工具。

3

章节 03

补充观点 1

tellme:一键检测 OpenAI 兼容服务端点的功能完整性\n\n在部署大语言模型服务时,一个常见的痛点是:明明模型支持工具调用(tool calling)或推理(reasoning),但由于启动参数配置不当,这些功能实际上无法正常工作。开发者往往需要写一堆测试代码才能发现问题所在。\n\ntellme 正是为解决这一痛点而生的 CLI 诊断工具。它能在几秒钟内帮你确认 OpenAI 兼容端点(如 vLLM、TGI、SGLang)是否正确配置了工具调用解析器和推理解析器。\n\n背景:为什么需要 tellme?\n\n当你使用 vLLM 部署模型时,如果忘记添加 --tool-call-parser--reasoning-parser 参数,模型虽然能正常响应,但返回的结果中不会包含 tool_callsreasoning_content 字段。这种配置错误在生产环境中很难被及时发现,往往要等到业务逻辑出错才会暴露。\n\n传统的排查方式是手动构造请求体、发送 HTTP 请求、检查响应字段——整个过程繁琐且容易遗漏。tellme 将这些步骤封装成一个简单的命令,让验证过程变得自动化、标准化。\n\n核心功能一览\n\ntellme 目前提供两大核心检测能力:\n\n1. 工具调用检测\n\n通过向 /chat/completions 端点发送包含 tools 参数的请求,验证服务端是否正确返回 tool_calls 字段。如果服务端未配置工具调用解析器,响应中不会出现该字段,tellme 会明确标记为未启用。\n\n2. 推理功能检测\n\n发送包含推理提示的请求,检查响应中是否存在 reasoning_contentreasoning 字段。这对于验证 DeepSeek-R1、Qwen3 等支持显式推理过程的模型尤为重要。\n\n使用方法\n\ntellme 的设计理念是"零配置"——你只需要提供服务端的基础 URL 即可开始检测。\n\nbash\n仅检测工具调用支持\ntellme check --base-url http://localhost:8008/v1 --tool-call\n\n仅检测推理功能支持\ntellme check --base-url http://localhost:8008/v1 --reasoning\n\n同时检测两项功能\ntellme check --base-url http://localhost:8008/v1 --tool-call --reasoning\n\n显式指定模型名称\ntellme check --base-url http://localhost:8008/v1 --tool-call --model Qwen3.6-27B\n\n\n输出示例\n\ntellme 的输出采用 Markdown 格式,使用 ✓ 和 ✗ 符号直观展示检测结果:\n\nmarkdown\n检查报告\n\n服务器状态\n- **地址**: http://localhost:8008/v1\n- **模型**: Qwen3.6-27B\n- **响应**: ✓ 正常\n\n功能检查\n- **Tool Call**: ✓ 已启用\n- **Reasoning**: ✗ 未检测到\n - **提示**: 响应中未发现 reasoning_content 或 reasoning 字段,可能模型不支持推理或未配置 --reasoning-parser\n\n\n这种格式既适合人工阅读,也方便在 CI/CD 流水线中做自动化判断。\n\n安装方式\n\ntellme 基于 Rust 开发,提供多种安装途径:\n\n通过 Cargo 安装(推荐):\n\nbash\ncargo install tellme\n\n\n从源码编译:\n\nbash\ngit clone https://github.com/fagao-ai/tellme.git\ncd tellme\ncargo build --release\n./target/release/tellme --help\n\n\n工作原理\n\ntellme 的检测逻辑非常直接但有效:\n\n| 检测项 | HTTP 方法 | 通过标准 |\n|--------|-----------|----------|\n| 健康检查 | GET /v1/models | 服务端返回模型列表 |\n| 工具调用 | POST /chat/completions(含 tools 参数) | 响应包含 tool_calls 字段 |\n| 推理功能 | POST /chat/completions(含推理提示) | 响应包含 reasoning_content 或 reasoning 字段 |\n\n这种设计确保了 tellme 可以与任何遵循 OpenAI API 规范的推理服务端兼容,不限于特定的后端实现。\n\n适用场景\n\ntellme 特别适合以下场景:\n\n- 部署验证:在将模型服务投入生产前,快速确认功能完整性\n- CI/CD 集成:在自动化测试流程中加入功能检测步骤\n- 多模型管理:当同时维护多个模型端点时,批量验证各端点配置\n- 故障排查:当应用层出现工具调用或推理异常时,快速定位是模型问题还是配置问题\n\n开源协议\n\ntellme 采用 MIT 协议开源,代码托管于 GitHub。项目体积小巧(单一二进制文件),无外部运行时依赖,适合在各种环境中快速部署使用。\n\n总结\n\n在 LLM 基础设施日益复杂的今天,tellme 提供了一种轻量、专注的验证手段。它不试图解决所有问题,而是把"确认 OpenAI 兼容端点的功能配置"这一件事做到极致。对于需要频繁部署和调试模型服务的开发者来说,这是一个值得加入工具箱的实用小工具。