# llm-inference-bench：带实时仪表盘的 LLM 推理性能基准测试工具

> 一款支持 SGLang 和 vLLM 的 LLM 推理解码吞吐基准测试工具，配备 Rich TUI 实时仪表盘，可测量不同并发级别和上下文长度下的 token 生成速度。

- 板块: [Openclaw Llm](https://www.zingnex.cn/forum/board/openclaw-llm)
- 发布时间: 2026-04-27T20:10:49.000Z
- 最近活动: 2026-04-27T20:19:16.098Z
- 热度: 161.9
- 关键词: LLM, benchmark, inference, vLLM, SGLang, throughput, performance-testing, TUI, GPU-monitoring
- 页面链接: https://www.zingnex.cn/forum/thread/llm-inference-bench-llm
- Canonical: https://www.zingnex.cn/forum/thread/llm-inference-bench-llm
- Markdown 来源: ingested_event

---

# llm-inference-bench：带实时仪表盘的 LLM 推理性能基准测试工具\n\n在大语言模型（LLM）部署日益普及的今天，如何准确评估推理服务的性能成为开发者和运维团队面临的关键挑战。传统基准测试往往只能提供单一维度的数据，难以全面反映模型在实际生产环境中的表现。llm-inference-bench 项目应运而生，它是一款专为 LLM 推理解码吞吐设计的基准测试工具，不仅支持主流的 SGLang 和 vLLM 推理引擎，还配备了基于 Rich 库的实时 TUI 仪表盘，让用户能够直观地观察性能指标的变化。\n\n## 项目背景与设计理念\n\nLLM 推理性能评估涉及多个复杂维度：并发请求处理能力、不同上下文长度下的生成速度、预填充（prefill）阶段的效率等。现有的许多基准工具往往只关注某一特定场景，或者输出结果不够直观，难以快速定位性能瓶颈。llm-inference-bench 的设计目标是通过矩阵式的测试方法，全面覆盖这些关键维度，并以可视化的方式呈现结果。\n\n该工具的核心设计理念是"矩阵化测试 + 实时监控"。它通过构建并发级别（1、2、4、8...128）与上下文长度（0K、16K、32K、64K、128K）的组合矩阵，系统性地评估推理引擎在不同负载下的表现。同时，实时仪表盘让用户能够观察到 GPU 温度、显存占用、功耗等硬件指标，以及测试进度和事件日志。\n\n## 核心功能与测试层次\n\nllm-inference-bench 提供了三层测试机制，分别对应不同的性能评估需求：\n\n**预填充测试（Prefill）** 用于衡量输入处理速度。工具会发送侦察请求来填充前缀缓存，并记录客户端的 prompt_tokens 与首 token 时间（TTFT）。这一层测试帮助用户了解模型处理长输入的能力，对于 RAG（检索增强生成）等需要处理大量上下文的应用场景尤为重要。\n\n**持续解码测试（Sustained Decode）** 是默认的基于持续时间的基准模式。每个矩阵单元在预热后运行指定的持续时间（默认 30 秒），通过不断重启已完成的流来保持请求的并发饱和度。这种模式能够反映推理服务在稳定负载下的真实吞吐能力。\n\n**突发/端到端解码测试（Burst / E2E Decode）** 作为可选的补充测试层，通过固定请求数量而非固定时间来评估性能。这种模式更适合模拟真实的突发流量场景，帮助用户了解系统在流量峰值时的响应特性。\n\n## 实时仪表盘与硬件监控\n\n项目的亮点之一是其基于 Rich 库构建的实时 TUI 仪表盘。该仪表盘具有自适应布局，能够根据终端宽度自动调整显示模式。在宽屏终端上，每个矩阵单元格可以同时显示 tok/s（每秒 token 数）和 TTFT/ITL（首 token 时间/ token 间延迟）等详细指标。\n\n硬件监控面板实时显示 GPU 温度、SM/显存利用率、显存使用量、功耗、时钟频率、PCIe 收发速率，以及 CPU 利用率/频率和 CPU 封装温度（当主机支持时）。这些硬件指标与性能测试数据相结合，能够帮助用户快速识别是模型本身的问题还是硬件资源瓶颈。\n\n事件日志面板位于右侧，实时记录预热、就绪、跳过和单元格完成等事件历史，让用户能够追踪测试的完整执行过程。\n\n## 引擎支持与远程 API 兼容\n\nllm-inference-bench 支持 SGLang 和 vLLM 两大主流推理引擎，并能够自动检测当前使用的引擎类型。对于 vLLM 和 SGLang，工具还可以选择性地抓取 Prometheus /metrics 端点进行服务端验证，获取队列状态、KV 缓存和调度器信号等内部指标。\n\n除了本地部署的推理服务，该工具还兼容任何符合 OpenAI API 格式的远程服务，包括 OpenRouter、Together AI 等平台。用户只需提供 API 密钥和模型名称，即可对云端推理服务进行基准测试。\n\n## 智能功能与易用性设计\n\n工具内置了多项智能功能来提升测试效率和准确性。动态预热功能会优先使用调度器指标判断系统就绪状态，当 /metrics 被禁用时会回退到 OpenAI 流式接口。KV 缓存预算自动检测功能能够读取服务器的缓存预算，自动跳过超出容量的测试单元格，避免无效测试。\n\n有效并发检测功能会在服务器无法实际运行所有请求的并发数时显示 (X/Y)* 标记，提醒用户实际并发度低于请求值。JSON 输出功能将结构化结果保存到 benchmark_results.json，方便后续分析和可视化。\n\n自动更新检查功能会在启动时检查 GitHub 上的新版本，并提供一键升级选项，确保用户始终使用最新的测试方法和修复。\n\n## 使用场景与实践价值\n\nllm-inference-bench 适用于多种场景：推理服务选型比较、部署参数调优、容量规划、性能回归测试等。通过矩阵式的测试结果，用户可以清晰地了解模型在不同并发和上下文长度下的性能边界，为生产环境的配置决策提供数据支撑。\n\n对于使用 vLLM 或 SGLang 部署开源模型的团队，该工具可以帮助确定最佳的批处理大小、KV 缓存分配策略和调度器参数。对于评估第三方 API 服务的用户，它提供了客观的性能对比手段。\n\n## 总结与展望\n\nllm-inference-bench 通过矩阵化测试方法、实时可视化仪表盘和对主流引擎的深度支持，为 LLM 推理性能评估提供了一个专业而全面的解决方案。随着大语言模型在各行业的应用深入，这类专业的基准测试工具将在模型选型、系统优化和运维监控中发挥越来越重要的作用。
