Zing 论坛

正文

PrMed:面向真实医疗场景的抗扰动医学大模型

PrMed是一款专门针对真实医疗场景中患者表达的非标准化特征而设计的医学基础模型,通过两阶段训练在1.2百万多源医学样本上实现了对口语化、情绪化、方言化等语言扰动的强鲁棒性。

医学AI大语言模型抗扰动医患对话临床部署QwenGRPO多智能体
发布时间 2026/04/14 00:32最近活动 2026/04/14 00:49预计阅读 3 分钟
PrMed:面向真实医疗场景的抗扰动医学大模型
1

章节 01

PrMed:面向真实医疗场景的抗扰动医学大模型(导读)

PrMed是一款针对真实医疗场景中患者非标准化表达设计的医学基础模型,核心目标是解决现有医学大模型在临床部署时因语言扰动导致的表现落差问题。通过两阶段训练(LoRA监督微调+GRPO强化学习)在120万多源医学样本上训练,实现对口语化、情绪化、方言化等语言扰动的强鲁棒性,在从规范语言到重度扰动表达转换时准确率仅下降2.71个百分点,远优于主流模型。

2

章节 02

背景:真实医疗场景的语言扰动挑战

大型语言模型在医学基准测试表现优异,但临床部署时表现大打折扣,核心原因是训练数据与真实场景错位——现有模型基于规范语料训练,而真实患者表达充满语言扰动。中国医学科学院团队分析569,913条中文在线问诊记录发现:95.1%的患者 utterances含至少一种扰动,83.6%含两种及以上,包括口语化、方言、情绪化、语法不完整、主观误诊等,揭示当前医学AI实际部署的根本性挑战。

3

章节 03

PrMed的核心设计理念

PrMed(Perturbation-Resilient Medicine)专注于在充满"噪音"的真实医患对话中保持稳定推理能力,设计哲学为"在混乱中寻找秩序"——不是消除不规范性,而是理解适应。这种思路转变使PrMed面对语言转换时准确率仅降2.71个百分点,优于其他主流模型。

4

章节 04

技术架构与训练策略

PrMed基于Qwen3-32B架构,采用两阶段训练:

  1. LoRA监督微调(SFT):在含抗扰动推理链的语料上训练,每条数据包含情绪感知、扰动检测、表达校正、主诉提取、医学推理五步结构化推理;
  2. GRPO强化学习:通过患者模拟器交互式训练,优化应对扰动策略。 训练数据共120万条,涵盖中文在线问诊、英文医疗对话、可验证医学问答、医学题库、医院内部记录等多源数据,均经13维度评分筛选确保质量。
5

章节 05

扰动分类体系:4大类12小类的标准化框架

研究团队建立4大类12小类的扰动分类体系,为医学NLP提供标准化分析框架:

  • 结构类:视角错位、语法不完整、表达顺序颠倒;
  • 形式类:网络用语、方言表达、拼写/输入错误;
  • 情绪类:正面、负面、压抑情绪干扰;
  • 情境类:主观误诊、无关信息插入、模糊不确定表达。 细粒度分类让PrMed针对性处理不同语言变异,而非模糊视为"噪音"。
6

章节 06

多智能体数据构建流水线

PrMed采用多智能体协作构建高质量数据,包含三个流水线:

  1. 扰动标注流水线:三智能体(DeepSeek-V3初始标注、Qwen3-235B-A22B审核、GPT-5.1仲裁分歧)模仿人工多轮校验,效率超人工;
  2. 推理链生成流水线:生成-评估-精炼循环,生成器产五步推理,评分智能体从13维度三层评估,未达标样本获反馈迭代优化(最多三轮);
  3. 扰动合成流水线:四智能体架构,基于真实数据分布合成不同严重程度的扰动样本,用于压力测试和能力边界探索。
7

章节 07

临床意义与部署方案

PrMed适配临床部署需求:

  • 多种使用方式:Python API调用、vLLM+Open WebUI完整Web界面,支持中英文双语问诊;
  • 易部署:vLLM服务支持OpenAI兼容API,无缝接入现有医疗信息系统;
  • 隐私安全:开源(Apache 2.0许可证),可本地部署确保患者数据隐私。
8

章节 08

局限与未来展望

PrMed的局限:目前主要针对语言层面扰动,多模态数据(影像、检验报告)整合能力待加强;极端罕见疾病表现需更多临床验证。 团队已公开模型权重、数据构建流水线、扰动分类体系,助力社区验证改进与领域标准化。未来将结合多模态技术与更多临床数据,扩展抗扰动理念到更广泛医疗AI应用,实现从实验室到病床边的跨越。