章节 01
【导读】快慢双速学习框架FST:解决LLM持续学习核心困境
加州大学伯克利分校等机构提出Fast-Slow Training (FST)框架,将模型参数视为"慢权重"(保持通用推理能力)、优化上下文视为"快权重"(吸收任务特定信息),在保留通用能力的同时实现任务特化。实验显示样本效率提升3倍、KL散度降低70%,持续学习表现显著优于传统RL,有效缓解灾难性遗忘与可塑性丧失问题。
正文
加州大学伯克利分校等机构的研究者提出Fast-Slow Training (FST)框架,将模型参数视为"慢权重"、优化上下文视为"快权重",在保持模型通用能力的同时实现任务特化学习。实验表明FST样本效率提升3倍,KL散度降低70%,在持续学习场景中表现显著优于传统RL方法。
章节 01
加州大学伯克利分校等机构提出Fast-Slow Training (FST)框架,将模型参数视为"慢权重"(保持通用推理能力)、优化上下文视为"快权重"(吸收任务特定信息),在保留通用能力的同时实现任务特化。实验显示样本效率提升3倍、KL散度降低70%,持续学习表现显著优于传统RL,有效缓解灾难性遗忘与可塑性丧失问题。
章节 02
传统LLM训练依赖参数更新(如RL),易导致灾难性遗忘和可塑性丧失;上下文学习虽成本低、适应快,但性能上限不足。核心问题:学习是否必须局限于"上下文内"或"权重内"的二元选择?
章节 03
对应模型实际参数,保持接近预训练状态以保留通用能力,避免过度漂移。
通过优化上下文实现的虚拟权重,从文本反馈学习任务信息,无需修改模型参数。
快权重快速适应任务,慢权重维持通用能力,分工兼顾效率与泛化。
章节 04
章节 05
动态持续学习中,传统RL易性能停滞,而FST能持续获取新任务知识,适合长期部署、需不断适应新环境的实际应用。
章节 06
FST打破"参数更新vs上下文学习"二元对立,提供新训练范式。应用价值:
章节 07
从人类认知双重加工理论(系统1/2思维)获灵感,重新思考学习本质。未来可探索多层次学习机制,扩展至多模态模型、具身智能;在不增参数前提下提升效率与适应能力是LLM领域重要方向。