章节 01
NeFT:神经元级监督微调新方法导读
NeFT(Neuron-level Fine-Tuning)是COLING 2025发表的面向大语言模型的神经元级监督微调框架。它针对现有参数高效微调(PEFT)方法多在层级别或矩阵级别操作的局限,通过识别和选择性更新任务相关神经元,实现更精准、高效的模型适配,在保持通用能力的同时降低微调成本,为大模型低成本微调开辟新路径。
正文
NeFT提出了一种神经元级别的监督微调框架,通过识别和选择性更新任务相关神经元,在保持模型通用能力的同时实现高效参数适配,为大模型的低成本微调开辟了新路径。
章节 01
NeFT(Neuron-level Fine-Tuning)是COLING 2025发表的面向大语言模型的神经元级监督微调框架。它针对现有参数高效微调(PEFT)方法多在层级别或矩阵级别操作的局限,通过识别和选择性更新任务相关神经元,实现更精准、高效的模型适配,在保持通用能力的同时降低微调成本,为大模型低成本微调开辟新路径。
章节 02
大语言模型参数规模增长导致全参数微调成本难以承受,PEFT技术(LoRA、Adapter等)应运而生,但现有PEFT多在层/矩阵级操作,忽略神经元细粒度特性。研究发现大模型存在“专家神经元”,特定神经元对特定任务/知识高度敏感,NeFT基于此将微调粒度推进到单个神经元。
章节 03
任务适配只需更新与目标任务相关的神经元子集
章节 04
构建稀疏掩码仅更新选中神经元:
W_new = W_old + M ⊙ ΔW(M为二进制掩码),实验显示更新5-10%神经元可达LoRA相当或更好性能
引入神经元图神经网络:神经元为节点,共激活模式/连接权重为边,图卷积传播更新信号
章节 05
章节 06
| 方法 | 参数比例 | 平均性能 | 通用能力保持 |
|---|---|---|---|
| Full FT | 100% | 85.2% | 62.1% |
| LoRA | 0.8% | 83.7% | 78.4% |
| Adapter | 1.2% | 82.9% | 80.2% |
| NeFT | 0.5% | 84.5% | 85.7% |
| NeFT以最低参数比例接近全FT性能,通用能力保持最优 |
章节 07
章节 08
NeFT推动微调向细粒度演进,平衡效率、性能与通用性