Zing 论坛

正文

大型语言模型革新医疗ICD自动编码:从PLM-ICD到新一代智能编码系统

本文深入探讨一项前沿研究项目,该项目探索如何利用最先进的医疗大型语言模型显著提升从非结构化临床记录中自动分配ICD代码的准确性、可解释性和有效性,并与现有基线方法PLM-ICD进行全面对比分析。

大型语言模型ICD编码医疗AIPLM-ICD临床文本处理多标签分类医疗信息化自然语言处理
发布时间 2026/05/04 10:15最近活动 2026/05/04 10:19预计阅读 3 分钟
大型语言模型革新医疗ICD自动编码:从PLM-ICD到新一代智能编码系统
1

章节 01

【导读】大型语言模型革新医疗ICD自动编码研究概述

本研究聚焦于利用最先进的医疗大型语言模型(LLMs)提升非结构化临床记录中ICD自动编码的准确性、可解释性和有效性,并与现有基线方法PLM-ICD进行多维度对比分析。研究将从准确性(micro-F1、macro-F1、AUPRC)、可解释性(注意力机制、生成式解释)及实际应用效果(推理速度、资源消耗等)三个核心维度评估模型性能,旨在为医疗ICD编码自动化提供新的技术方向。

2

章节 02

研究背景:医疗ICD编码自动化的迫切需求

在现代医疗体系中,ICD编码是连接临床诊疗与医疗管理的关键纽带,但传统人工编码成本高、效率低,难以应对海量电子病历数据。预训练语言模型(PLMs)如PLM-ICD为自动化编码带来曙光,但随着大型语言模型的发展,其能否实现质的飞跃成为研究焦点。PLM-ICD利用BERT等模型提取特征并预测ICD代码,而LLMs的强大能力有望解决现有方法的局限。

3

章节 03

PLM-ICD基线方法的技术架构

PLM-ICD的技术架构包括:

  1. 文本编码层:采用BERT或医疗领域变体(如ClinicalBERT、BioBERT)作为编码器,学习医学术语语义表示;
  2. 标签感知注意力机制:针对多标签分类任务,为每个ICD代码学习特定注意力向量,提取相关信息;
  3. 层次化代码结构利用:借助ICD的层次结构(如A00→A00.0),通过层次化分类确保代码组合合理。
4

章节 04

大型语言模型相比PLM-ICD的技术优势

医疗LLMs(如Med-PaLM、Meditron)相比PLM-ICD具有三大优势:

  1. 扩展上下文理解:支持更长token输入(如4096+),可完整处理长临床记录,捕捉跨段落关联;
  2. 丰富医学知识储备:预训练涵盖海量医学文献、指南,能理解疾病关联、诊断标准等深层知识;
  3. 生成式推理能力:可生成编码解释、置信度说明,甚至交互式澄清问题,提升用户体验。
5

章节 05

实验设计与数据集说明

实验采用MIMIC-III/IV数据集(重症监护病房去标识化记录及ICD编码标注),评估协议包括:

  • 时间敏感数据划分(训练/验证/测试按时间顺序分离);
  • 验证集超参数调优后测试集报告性能;
  • 显著性检验验证性能提升;
  • 错误分析识别失败模式。对比模型涵盖不同规模(7B-70B参数)及训练策略(预训练、指令微调等)的医疗LLMs。
6

章节 06

预期成果与临床应用价值

预期成果包括:

  1. 技术贡献:建立医疗LLMs在ICD编码任务的性能基准,揭示优势与局限;
  2. 实用指南:帮助医疗机构评估选择编码方案,涵盖模型选择、部署成本等;
  3. 开源贡献:公开代码、模型及实验记录,促进社区协作复现。这些成果将推动医疗AI编码技术进步,惠及医疗机构与患者。
7

章节 07

挑战与未来发展方向

应用LLMs于ICD编码面临挑战:

  1. 计算资源需求:推理成本高于PLM,需探索模型压缩、知识蒸馏等降低开销;
  2. 编码一致性保障:需结合规则引擎确保代码符合ICD规则(如代码配对/互斥);
  3. 持续学习与适应:需应对医学知识更新及ICD版本修订(如ICD-9→10→11),实现系统快速适应。未来研究将聚焦这些方向。