搜索
高级检索
高级搜索
书       名 :
著       者 :
出  版  社 :
I  S  B  N:
文献来源:
出版时间 :
大模型核心技术与开发实践(基于Transformer\PyTorch及Hugging Face)
0.00     定价 ¥ 99.00
图书来源: 浙江图书馆(由浙江新华配书)
此书还可采购15本,持证读者免费借回家
  • 配送范围:
    浙江省内
  • ISBN:
    9787302691402
  • 作      者:
    作者:凌峰|责编:王金柱
  • 出 版 社 :
    清华大学出版社
  • 出版日期:
    2025-06-01
收藏
畅销推荐
内容介绍
本书系统地介绍大语言模型(LLM)的理论基础、实现方法及在多种场景中的应用实践。共分为12章,第1-3章介绍Transformer模型的基本架构与核心概念,包括编解码器的结构、自注意力机制、多头注意力的设计和工作原理;第4-6章结合实际案例,讲解如何利用PyTorch和hugging Face库构建、训练和微调LLM;第7-9章介绍生成模型的推理和优化技术,包括量化、剪枝、多GPU并行处理、混合精度训练等,以提高模型在大规模数据集上的训练和推理效率;第10、11章通过实例讲解Transformer在实际NLP任务中的应用以及模型可解释性技术;第12章通过一个企业级文本分析平台项目的搭建,介绍从数据预处理、文本生成、高级分析到容器化与云端部署的完整流程,并提供了代码示例、模块化测试和性能评估方法,帮助读者实际构建满足企业需求的智能应用系统。 本书覆盖了当前广泛关注的LLM技术热点,并提供了丰富的实例代码,适合大模型开发人员、大模型应用工程师、算法工程师以及计算机专业的学生,亦可作为高校人工智能课程的相关教学用书。
展开
目录
第1章 Transformer与PyTorch的集成应用概述
1.1 大模型与Transformer的技术背景
1.1.1 自注意力机制的原理与实现细节
1.1.2 多层堆叠与残差连接:Transformer的高效信息流
1.2 PyTorch的应用场景与技术特点
1.2.1 动态图计算与自动微分机制
1.2.2 GPU加速与多设备支持
1.3 快速上手:使用PyTorch实现一个简单的Transformer模型
1.3.1 Transformer编码器的基础实现与训练流程
1.3.2 解码器与完整Transformer模型的拼接与测试
1.4 本章小结
1.5 思考题
第2章 Transformer编码器与解码器的原理与实现
2.1 Transformer编码器与解码器结构分析
2.1.1 位置编码的设计与实现
2.1.2 多头注意力与前馈层的层次关系
2.2 基于PyTorch实现编码器-解码器架构
2.2.1 多头注意力模块的独立实现与测试
2.2.2 残差连接与层归一化的模块化实现
2.3 Transformer的编码解码过程
2.3.1 编码器多层堆叠与信息流动的实现
2.3.2 解码器自回归生成过程的实现与可视化
2.3.3 基于文本的Transformer实例:逐步打印编码解码过程
2.4 编码器和解码器的双向训练流程
2.4.1 编码器与解码器的联合训练策略
2.4.2 掩码机制在双向训练中的应用
2.5 本章小结
2.6 思考题
第3章 注意力机制与多头注意力的实现
3.1 注意力机制的基础与实现原理
3.1.1 点积注意力与缩放机制
3.1.2 注意力权重的归一化与Softmax函数应用
3.2 多头注意力的设计与实现细节
3.2.1 多头分组与并行计算策略
3.2.2 多头注意力的拼接与线性变换
3.3 使用PyTorch实现多头注意力并进行可视化
3.3.1 注意力矩阵的生成与可视化
3.3.2 不同头注意力分布的可视化分析
3.4 多头注意力权重的提取与应用
3.4.1 多头注意力权重提取与解读:理解模型的关注点
3.4.2 多头注意力权重的优化与调控
3.5 本章小结
3.6 思考题
第4章 Hugging Face Transformers库的应用
4.1 Transformer模型的加载与配置
4.1.1 预训练模型的加载与管理
4.1.2 模型配置自定义与参数调整
4.2 使用Hugging Face库进行模型训练与推理
4.2.1 模型训练数据的预处理与标注
4.2.2 训练过程中的参数优化与监控
4.3 Hugging Face生态系统的其他工具介绍
4.3.1 Tokenizer的自定义与高效分词方法
4.3.2 Dataset和Pipeline工具的集成应用
4.4 自定义Hugging Face的模型训练流程
4.4.1 自定义训练循环与评估指标
4.4.2 迁移学习与微调:从预训练到特定任务
4.5 本章小结
4.6 思考题
第5章 数据预处理与文本分词技术
5.1 文本数据的清洗与标准化
5.1.1 特殊字符和标点的处理
5.1.2 停用词去除与大小写规范化
5.2 分词方法及其在不同模型中的应用
5.2.1 词级分词与子词分词
5.2.2 BPE与WordPiece分词算法的实现原理
5.3 使用PyTorch和Hugging Face进行分词与词嵌入
5.3.1 基于Hugging Face Tokenizer的高效分词
5.3.2 Embedding层的定义与词嵌入矩阵的初始化
5.4 动态分词与序列截断技术
5.4.1 处理变长文本输入
5.4.2 长序列的截断与填充
5.4.3 综合案例:文本清洗、分词、词嵌入与动态填充
5.5 本章小结
5.6 思考题
第6章 模型微调与迁移学习
6.1 微调与迁移学习的基本概念与方法
6.1.1 迁移学习的体系结构:模型的选择与适配
6.1.2 全参数微调与部分参数微调的优缺点
6.2 使用预训练模型进行领域微调
6.2.1 领域特定数据的预处理与加载
6.2.2 调节学习率与损失函数
6.3 微调策略与优化技巧:冻结层、增量训练等
6.3.1 冻结模型层的选择与解冻
6.3.2 增量训练中的数据选择与样本权重分配
6.4 增量学习:如何在新数据上继续微调
6.4.1 基于新数据的微调策略:避免灾难性遗忘
6.4.2 使用正则化与约束技术保持原模型性能
6.4.3 综合案例:增量学习中的微调策略与优化
6.5 本章小结
6.6 思考题
第7章 文本生成与推理技术
7.1 文本生成方法概述:Beam Search、Top-K与Top-P采样
7.1.1 Beam Search的多路径生成与评估
7.1.2 Top-K采样的限制与稀疏性控制
7.1.3 Top-P采样的自适应概率截断机制
7.2 文本生成模型的应用实例
7.2.1 使用预训练语言模型生成长篇文本
7.2.2 生成多轮对话的上下文保持与管理
7.2.3 引导生成特定情绪的文本
7.3 生成模型的实现与优化
7.3.1 使用PyTorch和Transformers库实现生成模型
7.3.2 生成模型的批量处理与并行加速
7.3.3 生成结果的后处理与数据清洗
7.4 控制生成式模型输出的技术手段
7.4.1 温度调控参数的设置与生成调节
7
展开
加入书架成功!
收藏图书成功!
我知道了(3)
发表书评
读者登录

请选择您读者所在的图书馆

选择图书馆
浙江图书馆
点击获取验证码
登录
没有读者证?在线办证