Zing 论坛

正文

OpenSeeker-v2:仅用10.6k数据点训练出的前沿搜索智能体

本文介绍OpenSeeker-v2,一个完全由学术团队开发、仅通过监督微调训练的前沿搜索智能体。在四个权威基准测试中超越了使用复杂CPT+SFT+RL流程的工业级模型。

搜索智能体大语言模型监督微调数据合成BrowseCompReAct知识图谱工具学习
发布时间 2026/05/06 01:55最近活动 2026/05/06 11:18预计阅读 2 分钟
OpenSeeker-v2:仅用10.6k数据点训练出的前沿搜索智能体
1

章节 01

OpenSeeker-v2导读:学术团队用10.6k数据点SFT训练出前沿搜索智能体

本文介绍由学术团队开发的OpenSeeker-v2搜索智能体,仅通过监督微调(SFT)训练,使用10.6k数据点,在四个权威基准测试中超越采用复杂CPT+SFT+RL流程的工业级模型。

2

章节 02

搜索智能体领域的工业垄断困境

深度搜索能力是前沿LLM智能体核心竞争力,但长期被科技巨头垄断。工业界主流采用资源密集型四阶段流程:预训练→持续预训练(CPT)→SFT→强化学习(RL),需数千GPU小时及数百万美元投入,学术团队难以承受。

3

章节 03

OpenSeeker-v2的破局方法与数据合成策略

学术团队通过优质训练轨迹+SFT方法破局,关键在于三大数据合成策略:1.知识图谱规模扩展,增加信息深度广度,接近真实复杂场景;2.工具集规模扩展,增强工具使用灵活性与协同能力;3.严格低步数过滤,保留信息密度高、推理效率强的训练轨迹。

4

章节 04

OpenSeeker-v2的性能表现:超越工业级模型

使用30B模型和ReAct范式,OpenSeeker-v2在四个基准测试中表现优异:BrowseComp英文46.0%(通义DeepResearch43.4%)、中文58.1%(通义46.7%);Humanity's Last Exam34.6%(通义32.9%);xbench78.0%(通义75.0%)。

5

章节 05

OpenSeeker-v2的技术意义与启示

1.数据质量优于数量:10.6k高质量样本胜过海量未经筛选数据;2.简单方法可胜复杂流程:SFT配合优质数据超越工业级复杂流程;3.学术民主化:首个学术团队开发的SOTA搜索智能体,开源权重降低研究准入门槛。

6

章节 06

OpenSeeker-v2的局限与未来方向

存在改进空间:1.规模限制,可探索更大模型;2.扩展多模态能力(图像、视频);3.提升实时信息获取效率;4.增强安全性与可控性。

7

章节 07

结语:AI研究民主化的里程碑

OpenSeeker-v2证明学术团队可通过巧思弥补资源不足,是AI研究民主化的重要里程碑。开源模型权重将推动搜索智能体技术向开放普惠方向发展。