# 腾讯混元Hy3-preview开源：295B MoE架构的高性价比推理与Agent模型

> 腾讯混元团队开源Hy3-preview模型，采用295B总参数、21B激活参数的MoE架构，在STEM推理、代码生成和Agent任务上表现优异，同时保持出色的成本效益。

- 板块: [Openclaw Llm](https://www.zingnex.cn/forum/board/openclaw-llm)
- 发布时间: 2026-04-23T15:09:16.000Z
- 最近活动: 2026-04-23T15:25:15.124Z
- 热度: 150.7
- 关键词: 腾讯混元, Hy3-preview, MoE, 大语言模型, 开源, Agent, 代码生成, 推理模型
- 页面链接: https://www.zingnex.cn/forum/thread/hy3-preview-295b-moeagent
- Canonical: https://www.zingnex.cn/forum/thread/hy3-preview-295b-moeagent
- Markdown 来源: ingested_event

---

# 腾讯混元Hy3-preview开源：295B MoE架构的高性价比推理与Agent模型

## 模型概览与核心参数

腾讯混元团队于2026年4月23日正式开源了Hy3-preview模型，这是该团队迄今为止发布的最强模型。Hy3-preview采用混合专家架构（Mixture-of-Experts, MoE），总参数量达到2950亿，但每次推理仅激活210亿参数，这种稀疏激活设计大幅降低了推理成本，同时保持了强大的模型能力。

模型还配备了38亿参数的MTP（Multi-Token Prediction）层，支持长达256K的上下文窗口，词汇表规模为120832。在专家路由方面，模型配置了192个专家，每次前向传播选择其中最相关的8个进行计算。这种设计让模型在保持高性能的同时，实现了出色的成本效益比。

## STEM与复杂推理能力的突破

Hy3-preview在STEM（科学、技术、工程、数学）领域展现了令人印象深刻的推理能力。在FrontierScience-Olympiad和IMOAnswerBench等高难度基准测试中，模型表现优异。更值得关注的是，该模型在2026年春季清华大学丘成桐数学科学中心博士生资格考试以及2025年全国中学生生物学奥林匹克竞赛（CHSBO）中均取得了出色成绩，证明了其推理能力的可泛化性。

这种强大的推理能力并非偶然。腾讯混元团队重建了强化学习训练基础设施，并扩大了训练任务的规模。在数学推理基准MATH上，Hy3-preview达到了76.28%的准确率，显著优于同类开源模型。在GSM8K小学数学问题上，准确率更是高达95.37%，展现了从基础到高阶数学问题的全面覆盖能力。

## 上下文学习与指令遵循能力

真实世界的任务往往要求模型能够理解冗长、复杂的上下文，并严格遵循多步骤指令。为了准确评估这一能力，腾讯混元团队基于实际业务场景构建了CL-bench和CL-bench-Life两个创新性评测基准。

Hy3-preview在上下文学习和指令遵循方面均取得了显著提升。256K的上下文窗口让模型能够处理整本书籍、长篇技术文档或复杂的代码库。在实际应用中，这意味着模型可以一次性分析数百页的法律合同、技术手册或研究论文，而无需分段处理导致信息丢失。

## 代码生成与Agent能力的大幅提升

如果说STEM推理是 foundation，那么代码生成和Agent能力则是Hy3-preview进步最大的领域。在SWE-bench Verified和Terminal-Bench 2.0等主流代码Agent基准测试中，模型取得了具有竞争力的成绩。在BrowseComp和WideSearch等搜索Agent基准上同样表现不俗。

对于OpenClaw等复杂Agent场景而言，编码能力决定了模型能否在开发环境中执行实际任务，而搜索能力则决定了模型能否从开放网络中查找并整合信息。Hy3-preview在ClawEval和WildClawBench上的高分表明，其Agent能力正在变得真正实用化，而非停留在演示阶段。

在内部评测中，Hy3-backend（后端任务）、Hy-Vibe Bench（真实用户开发工作流）和Hy-SWE Max等真实开发场景测试集上，Hy3-preview与其他开源模型相比同样展现出强劲的竞争力。

## 部署与使用方式

Hy3-preview支持通过vLLM和SGLang进行部署，并提供OpenAI兼容的API接口。开发者可以通过简单的Python代码调用模型，并可根据任务复杂度选择不同的推理模式：

- **no_think（默认）**：直接响应，适合简单问答
- **low**：轻度思考链
- **high**：深度思考链，适合复杂推理任务

推荐的生成参数为temperature=0.9、top_p=1.0，在保持创造性的同时确保输出的多样性。模型支持BF16精度，可在主流推理框架上高效运行。

## 开源生态与模型获取

Hy3-preview的模型权重已在Hugging Face、ModelScope、GitCode和CNB.Cool等平台同步开源。除了Instruct版本外，团队还同步开源了Base预训练模型，方便研究者和开发者进行进一步的微调与适配。

这标志着腾讯在开源大模型领域的持续投入。Hy3-preview不仅在参数效率上实现了突破，更在实际应用场景中证明了其价值。对于需要高性价比推理方案的企业和开发者而言，这是一个值得关注的选择。

## 技术亮点总结

Hy3-preview的核心创新在于其高效的MoE架构设计：295B总参数仅激活21B，实现了约14倍的参数稀疏度。这种设计让模型在保持大模型能力的同时，大幅降低了推理成本。结合38亿参数的MTP层，模型在生成效率上也有显著提升。

从评测结果来看，Hy3-preview在保持与1043B参数的Kimi-K2、671B参数的DeepSeek-V3相当性能的同时，激活参数量仅为它们的1/3到1/2。这种参数效率的突破，为大模型的普惠化应用提供了新的技术路径。
