本书全面、系统、深入地介绍自然语言处理(NLP)的核心知识与实践方法,涵盖从传统模型到基于Transformer架构的大语言模型的完整知识体系。本书通过理论推导与Python代码实践相结合的方式,深入解析词嵌入、句法分析、序列建模等基础技术,并重点探讨Transformer架构、预训练范式、生成控制与RLHF对齐等大语言模型的关键技术。本书结合多个Python实践案例与伦理问题,帮助读者掌握“基础理论→算法实现→应用落地”的NLP任务构建全栈能力。
本书共12章,分为4篇。第1篇自然语言处理基础与词表示,介绍词袋模型、TF-IDF、Word2Vec和GloVe词嵌入等NLP基础,以及神经网络基础、朴素贝叶斯在情感分类中的作用、N-gram语言建模等;第2篇语言结构与句法解析,介绍上下文无关语法、成分解析与依存句法分析等;第3篇序列建模与深度学习方法,深入介绍循环神经网络、长短记忆网络、门控循环单元、序列到序列模型、注意力机制与Transformer架构等;第4篇大语言模型与生成技术,介绍自然语言生成的解码过程、常见问题及其解决方案、评估指标、评价方法、伦理问题,以及大语言模型预处理与基于人类反馈的强化学习等。
本书内容丰富,讲解深入浅出,理论兼具实践,适合想系统、深入学习自然语言处理和大语言模型的读者,也适合数据科学家、机器学习工程师和NLP研究员等大语言模型从业人员阅读,还可作为高等院校人工智能相关专业的教材或教学参考书,以及相关培训机构的教学用书。
展开