章节 01
mohdel:自托管多Provider LLM网关的设计哲学与实践
mohdel是一个专注于推理原语而非编排的自托管多Provider LLM网关,通过进程隔离和OpenTelemetry原生支持,为生产环境提供稳定、可观测的多Provider统一接口。其核心设计哲学为"scope-capping"(范围限定),明确不做编排、重试降级、缓存等功能,让调用方保留完整控制权。
正文
一个专注于推理原语而非编排的LLM网关,通过进程隔离和OpenTelemetry原生支持,为生产环境提供稳定、可观测的多Provider统一接口。
章节 01
mohdel是一个专注于推理原语而非编排的自托管多Provider LLM网关,通过进程隔离和OpenTelemetry原生支持,为生产环境提供稳定、可观测的多Provider统一接口。其核心设计哲学为"scope-capping"(范围限定),明确不做编排、重试降级、缓存等功能,让调用方保留完整控制权。
章节 02
当前LLM生态中,开发者面临两难选择:直接使用各Provider的SDK需承担多供应商管理复杂性;采用LangChain等编排框架则引入超出需求的抽象层级。mohdel选择中间道路——只做推理原语,不做编排,保留调用方控制权。
章节 03
mohdel的核心设计哲学是"scope-capping",明确不做以下事情:
章节 04
mohdel采用三平面架构实现进程隔离:
章节 05
mohdel每个调用自动生成:
mohdel.session.answer span,包含GenAI语义属性(模型、token用量等)及mohdel特有属性;OTEL_EXPORTER_OTLP_ENDPOINT即可自动上报span和metrics,未设置时零开销。章节 06
支持的Provider:目前支持Anthropic、OpenAI、Gemini等11个Provider,模型ID采用<provider>/<model>格式(如gemini/gemini-3-flash-preview)。
CLI工具:安装后通过mo命令交互调用,如mo ask anthropic/claude-sonnet-4-6 "explain monads",cat article.txt | mo ask openai/gpt-5.4 "summarize in 3 bullets",支持流式输出、努力度控制等。
集成路径:
章节 07
适用场景: