章节 01
LLM学习之旅:从词嵌入到Transformer的完整实践指南(导读)
Ananyagawade12的LLMs仓库记录了从基础词嵌入到现代Transformer架构的完整学习探索历程,涵盖经典词嵌入技术、Transformer变体、位置编码、归一化技术、模型评估及提示工程等内容,通过实现与实验结合形成结构化学习体系,为不同背景的NLP/LLM学习者提供参考路径。
正文
该仓库记录了一个完整的NLP与LLM学习历程,涵盖从经典词嵌入(FastText、GloVe)到Transformer架构(BERT、IndicBERT、BART)的实现与实验,以及模型优化和评估技术。
章节 01
Ananyagawade12的LLMs仓库记录了从基础词嵌入到现代Transformer架构的完整学习探索历程,涵盖经典词嵌入技术、Transformer变体、位置编码、归一化技术、模型评估及提示工程等内容,通过实现与实验结合形成结构化学习体系,为不同背景的NLP/LLM学习者提供参考路径。
章节 02
该仓库以"学习旅程"为定位,区别于仅提供代码的仓库,记录学习过程中的思考、实验和比较分析,涵盖NLP基础概念、经典技术、现代架构及优化方法,形成完整学习体系,为开发者、研究者或学生提供可参考的学习路线图。
章节 03
词嵌入是NLP基石,将离散词汇映射为连续向量。仓库探讨三种主流技术:
章节 04
Transformer是现代LLM核心,仓库涵盖多种变体:
章节 05
Transformer需位置编码注入序列顺序:
深层网络训练需归一化:
章节 06
章节 07
主要语言Python,深度学习框架PyTorch/TensorFlow,分词工具Hugging Face Tokenizers/SentencePiece,评估库可能用NLTK、JiWER等。