搜索
高级检索
高级搜索
书       名 :
著       者 :
出  版  社 :
I  S  B  N:
文献来源:
出版时间 :
深度剖析ChatGLM(原理训练微调与实战)/AIGC与大模型技术丛书
0.00     定价 ¥ 99.00
图书来源: 浙江图书馆(由浙江新华配书)
此书还可采购15本,持证读者免费借回家
  • 配送范围:
    浙江省内
  • ISBN:
    9787111783824
  • 作      者:
    编者:李明华//冯洋|责编:丁伦//杨源
  • 出 版 社 :
    机械工业出版社
  • 出版日期:
    2025-07-01
收藏
畅销推荐
内容介绍
近年来,随着大语言模型技术的迅猛发展,人工智能领域迎来了新的变革浪潮。ChatGLM作为一款双语大语言模型,凭借其在多语言生成、精准对话理解和高效推理上的良好表现,成为了自然语言处理领域的重要代表。 本书以ChatGLM模型为核心,系统性地介绍了其从原理、训练、微调到实际应用的全流程,全面解析了大语言模型的实现方法与优化策略。全书共分为12章,从基础原理切入,涵盖模型架构解析、训练与微调实现、推理优化、部署集成与性能调优等关键技术,同时深入探讨数据处理、多任务学习与迁移学习,以及API开发、Web应用搭建与云端部署的完整方案。本书特别关注ChatGLM在客服、金融、医疗、教育等领域的创新应用,展现了其多样化的适用能力,并以双语对话系统为实战案例,总结了从数据处理到系统部署的完整开发流程。 本书的特色在于理论与实践并重,注重案例引导与操作指导,特别适合AI初学者、希望深入了解ChatGLM的工程师和研究者,以及希望学习大语言模型的高校师生使用。随书附赠案例代码、教学视频及授课用PPT等海量学习资源,希望通过立体化的学习方式帮助广大读者从中获得系统的知识与启发。
展开
目录
前言
第1部分 ChatGLM的概述与基础原理
第1章 ChatGLM概述与原理详解
1.1 ChatGLM的发展与应用背景
1.1.1 ChatGLM简介与具体应用
1.1.2 对比传统NLP模型与ChatGLM的优势
1.2 基于Transformer架构的自注意力机制
1.2.1 Transformer简介
1.2.2 详解Transformer编码器解码器架构
1.2.3 详解ChatGLM中的自注意力机制
1.2.4 Transformer中的多头注意力机制
1.3 ChatGLM的架构分析
1.3.1 ChatGLM模型的结构设计
1.3.2 ChatGLM与GPT、BERT模型的异同
1.4 ChatGLM的应用场景与技术优势
1.4.1 ChatGLM在对话系统中的具体应用
1.4.2 ChatGLM对自然语言理解与生成的影响
第2章 ChatGLM模型的训练流程与技术要点
2.1 训练数据的采集与清洗
2.1.1 语料库的选择与构建方法
2.1.2 数据清洗与标准化技术
2.1.3 噪声数据与异常值处理
2.2 训练任务的设定与损失函数
2.2.1 回归与分类任务的设计
2.2.2 适配性损失函数的选择与实现
2.3 模型训练的实现流程
2.3.1 PyTorch与TensorFlow简介
2.3.2 PyTorch与TensorFlow训练框架的选择与搭建
2.3.3 模型初始化与优化器的选择
2.4 分布式训练与高效计算
2.4.1 数据并行与模型并行的实现细节
2.4.2 混合精度训练(FP16)的应用与性能提升
第3章 ChatGLM的硬件环境与训练加速
3.1 高效硬件配置与训练需求
3.1.1 推荐的GPU与TPU硬件配置
3.1.2 内存与存储的优化技巧
3.2 分布式训练框架:Horovod与DeepSpeed
3.2.1 分布式训练框架简介
3.2.2 Horovod的使用与优化方法
3.2.3 DeepSpeed对大语言模型的优化
3.3 训练监控与调优工具
3.3.1 训练监控的目的
3.3.2 使用TensorBoard进行训练监控
3.3.3 Hyperparameter优化工具与技术
第2部分 ChatGLM的优化与高级技术
第4章 ChatGLM的微调策略与方法
4.1 微调的基本原理与应用场景
4.1.1 预训练与微调的区别
4.1.2 微调的核心目标与技术要点
4.2 领域适应微调技术
4.2.1 针对特定领域的数据集微调
4.2.2 领域特定嵌入与调优策略
4.3 ChatGLM的自适应微调方法
4.3.1 动态学习率与早停策略的使用
4.3.2 负样本生成与调整
4.4 微调的常见问题与调优技巧
4.4.1 微调过程中的过拟合问题
4.4.2 针对微调任务的优化技巧
第5章 ChatGLM的生成任务优化与文本生成
5.1 生成式任务与非生成式任务的区别
5.1.1 生成式任务与分类任务的关键差异
5.1.2 Text to Text生成与Seq2Seq架构
5.2 ChatGLM在文本生成中的应用
5.2.1 自回归与自编码生成模型的优缺点
5.2.2 基于自注意力的生成优化策略
5.3 Beam Search与Top k采样的优化
5.3.1 Beam Search与Top k采样任务简介
5.3.2 生成过程中的采样方法与性能
5.3.3 控制生成内容的多样性与连贯性
5.4 生成式模型调优与文本质量提升
5.4.1 提高文本生成的质量与准确度
5.4.2 避免模型生成偏见信息的方法
第6章 ChatGLM的优化与性能提升技术
6.1 模型压缩与蒸馏技术
6.1.1 模型压缩与蒸馏技术简介
6.1.2 参数剪枝与低秩分解的实现
6.1.3 知识蒸馏方法与应用实例
6.2 动态计算图与推理优化
6.2.1 计算图简介与初步实现
6.2.2 动态计算图与静态计算图的对比
6.2.3 ChatGLM推理中的性能瓶颈分析与优化
6.3 TensorRT与ONNX的推理加速
6.3.1 什么是推理加速
6.3.2 ChatGLM模型的ONNX转换与优化
6.3.3 使用TensorRT进行推理加速与量化
6.4 节省内存与计算资源的策略
6.4.1 分层微调与多任务学习的内存优化
6.4.2 通过混合精度训练减少内存消耗
第7章 ChatGLM的多任务学习与迁移学习
7.1 多任务学习的基本原理与应用
7.1.1 如何设计多任务学习模型
7.1.2 ChatGLM如何在多任务中共享学习
7.2 迁移学习在ChatGLM中的应用
7.2.1 微调预训练模型与领域特定任务
7.2.2 迁移已有知识进行新任务学习的方法
7.3 多模态学习:图像与文本融合
7.3.1 融合视觉信息与文本信息的技术
7.3.2 多模态对话系统的应用
7.4 ChatGLM与跨领域任务的适配
7.4.1 领域转移学习的挑战与解决方案
7.4.2 使用少量标注数据进行跨领域迁移学习
第8章 ChatGLM的调优与故障排除
8.1 调优原则与技巧
8.1.1 如何选择合适的优化器与学习率
8.1.2 调整批量大小与训练
展开
加入书架成功!
收藏图书成功!
我知道了(3)
发表书评
读者登录

请选择您读者所在的图书馆

选择图书馆
浙江图书馆
点击获取验证码
登录
没有读者证?在线办证