章节 01
OpenSeeker-v2导读:学术团队用10.6k数据点SFT训练出前沿搜索智能体
本文介绍由学术团队开发的OpenSeeker-v2搜索智能体,仅通过监督微调(SFT)训练,使用10.6k数据点,在四个权威基准测试中超越采用复杂CPT+SFT+RL流程的工业级模型。
正文
本文介绍OpenSeeker-v2,一个完全由学术团队开发、仅通过监督微调训练的前沿搜索智能体。在四个权威基准测试中超越了使用复杂CPT+SFT+RL流程的工业级模型。
章节 01
本文介绍由学术团队开发的OpenSeeker-v2搜索智能体,仅通过监督微调(SFT)训练,使用10.6k数据点,在四个权威基准测试中超越采用复杂CPT+SFT+RL流程的工业级模型。
章节 02
深度搜索能力是前沿LLM智能体核心竞争力,但长期被科技巨头垄断。工业界主流采用资源密集型四阶段流程:预训练→持续预训练(CPT)→SFT→强化学习(RL),需数千GPU小时及数百万美元投入,学术团队难以承受。
章节 03
学术团队通过优质训练轨迹+SFT方法破局,关键在于三大数据合成策略:1.知识图谱规模扩展,增加信息深度广度,接近真实复杂场景;2.工具集规模扩展,增强工具使用灵活性与协同能力;3.严格低步数过滤,保留信息密度高、推理效率强的训练轨迹。
章节 04
使用30B模型和ReAct范式,OpenSeeker-v2在四个基准测试中表现优异:BrowseComp英文46.0%(通义DeepResearch43.4%)、中文58.1%(通义46.7%);Humanity's Last Exam34.6%(通义32.9%);xbench78.0%(通义75.0%)。
章节 05
1.数据质量优于数量:10.6k高质量样本胜过海量未经筛选数据;2.简单方法可胜复杂流程:SFT配合优质数据超越工业级复杂流程;3.学术民主化:首个学术团队开发的SOTA搜索智能体,开源权重降低研究准入门槛。
章节 06
存在改进空间:1.规模限制,可探索更大模型;2.扩展多模态能力(图像、视频);3.提升实时信息获取效率;4.增强安全性与可控性。
章节 07
OpenSeeker-v2证明学术团队可通过巧思弥补资源不足,是AI研究民主化的重要里程碑。开源模型权重将推动搜索智能体技术向开放普惠方向发展。