搜索
高级检索
高级搜索
书       名 :
著       者 :
出  版  社 :
I  S  B  N:
文献来源:
出版时间 :
大语言模型原理微调与Agent开发/AIGC与大模型技术丛书
0.00     定价 ¥ 99.00
图书来源: 浙江图书馆(由浙江新华配书)
此书还可采购15本,持证读者免费借回家
  • 配送范围:
    浙江省内
  • ISBN:
    9787111784418
  • 作      者:
    编者:丁小晶//马全一//冯洋|责编:丁伦//杨源
  • 出 版 社 :
    机械工业出版社
  • 出版日期:
    2025-07-01
收藏
畅销推荐
内容介绍
本书全面探讨了大语言模型(通常可简称“大模型”)在应用开发中的核心技术与实现。内容涵盖了大语言模型的基本原理、微调与优化技术、复杂项目开发流程及高效实用的工程实践案例,通过结构化的模块设计和详细的代码解析,帮助读者快速掌握相关技术并应用于真实场景,搭建从理论到实践的完整知识体系。 本书分为四部分,共10章,系统梳理了大语言模型的核心架构与原理,深入讲解了Transformer模型的构造与训练机制,全面介绍了现代微调方法(如LoRA、P-Tuning等)以及模型量化、编译与推理优化的关键技术。针对应用场景,本书结合多个企业级实际案例,包括电商智能客服平台、编程辅助插件、寻人检索数据库和硬件开发工程师助理等,详细展示了从需求分析、数据处理、模型选择到上线部署的完整开发流程。这些案例不仅强调技术实现,还融入了工程实践中常见的问题与解决方案,为读者提供了丰富的参考资料。 本书适合对大语言模型感兴趣的技术爱好者、希望深入研究模型微调与优化的科研人员、从事人工智能开发的工程师和产品经理,同时也适合高等院校相关专业学习大语言模型的师生。同时,随书附赠案例代码、教学视频及授课用PPT,读者可通过扫封底二维码获取。无论是初学者学习理论基础、学生探索前沿技术,还是工程师在一线工作中进行实践开发,本书都能提供系统化的知识体系和实用的开发技能。
展开
目录
前言
第一部分 理论基础与开发准备
第1章 大语言模型基础
1.1 大语言模型概述
1.1.1 大语言模型发展历史
1.1.2 大语言模型发展现状
1.2 模型的基本架构
1.2.1 Transformer架构解析
1.2.2 编码器-解码器
1.2.3 注意力机制详解
1.3 大语言模型应用开发基础
1.3.1 与大语言模型相关的Python开发技术
1.3.2 React开发框架
1.4 大语言模型训练原理简介
1.4.1 LoRA微调技术
1.4.2 Prompt改进:P-Tuning
1.4.3 人类反馈强化学习
第2章 大语言模型应用开发基础
2.1 CUDA并行编程技术
2.1.1 CUDA编程模型与架构原理
2.1.2 基于CUDA的矩阵运算与优化实现
2.1.3 CUDA内核性能调优与工具使用
2.2 基于PyTorch的大语言模型构建方法
2.2.1 PyTorch核心模块解析:数据加载与模型定义
2.2.2 自动微分与优化器的实现原理
2.2.3 多GPU分布式训练与性能优化
2.3 Nginx web服务器开发
2.3.1 Nginx核心模块与配置解析
2.3.2 使用Nginx处理静态与动态内容
2.3.3 高并发场景下的性能调优
2.4 Hugging Face的Transformer库
2.4.1 Transformer库基础:模型加载与简单推理
2.4.2 自定义微调流程:从数据准备到模型训练
2.4.3 模型导出与量化加速推理
2.5 API开发与云端部署
2.5.1 FastAPI框架快速搭建RESTful接口
2.5.2 部署深度学习模型服务:从本地到云端
2.5.3 接口性能监控与日志管理工具开发
第二部分 核心技术解析与优化
第3章 大语言模型微调与应用实战
3.1 基于LLaMA3模型的微调技术
3.1.1 微调场景分析:任务分类、文本生成与问答
3.1.2 微调数据准备与预处理
3.1.3 微调过程实现:冻结层优化与增量学习
3.2 基于GeMMA-7B模型的微调技术
3.2.1 GeMMA-7B模型的任务适配:多任务微调方法
3.2.2 数据增强技术在微调中的应用
3.2.3 高效微调工具链:使用Hugging Face与PEFT方法
3.3 案例实战:企业文档问答平台
3.3.1 企业文档问答任务需求分析与功能模块划分
3.3.2 构建企业文档问答系统
3.3.3 微调、部署与性能测试
第4章 模型量化、编译与推理
4.1 大语言模型量化原理
4.1.1 模型量化技术简介:从FP32到INT8的精度降低方法
4.1.2 量化算法实现:动态量化与静态量化的技术差异
4.1.3 量化对推理性能的影响分析:速度提升与硬件加速
4.2 基于LLaMA3模型的量化过程
4.2.1 模型编译
4.2.2 模型加载
4.2.3 模型量化与测试
4.2.4 通过Nginx运行量化模型
4.3 基于GeMMA-7B模型的量化过程
4.3.1 模型编译
4.3.2 模型加载
4.3.3 模型量化与测试
4.3.4 通过Nginx运行量化模型
4.4 量化模型与推理
4.4.1 INT8推理框架对比:TensorRT与ONNX Runtime的应用
4.4.2 量化模型的实时推理
第三部分 行业应用开发与实战
第5章 服务类应用开发:电商智能客服平台
5.1 客服平台需求分析与功能规划
5.1.1 电商场景中的常见客服需求分析
5.1.2 智能客服功能模块分解:对话生成、问题匹配与用户情绪检测
5.1.3 技术架构设计:对话模型与后端服务的集成
5.2 数据收集与清洗:构建电商客服知识库
5.2.1 知识库构建的流程与数据来源分析:商品信息与用户问题整合
5.2.2 数据清洗与分类技术:停用词过滤、分词与主题标签提取
5.2.3 数据增强与扩展方法:同义词替换与多语言支持
5.3 模型选择与微调:定制化客服模型开发
5.3.1 选择合适的预训练模型:对比BERT、GPT与T5的适用场景
5.3.2 微调对话生成模型:训练FAQ匹配与上下文生成能力
5.3.3 模型评估与优化:BLEU、ROUGE等指标的使用与调优
5.4 聊天逻辑与上下文管理实现
5.4.1 多轮对话上下文管理:用户意图识别与历史对话跟踪
5.4.2 对话状态追踪与转移:Slot Filling技术的应用
5.4.3 自然对话中的中断与恢复逻辑处理
5.5 实时问答API与平台部署
5.5.1 API设计与开发:实现多轮对话与知识检索接口
5.5.2 实时部署与性能优化:负载均衡与延迟优化
第6章 生产类应用开发:编程辅助插件
6.1 编程辅助需求分析与插件架构设计
6.1.1 需求分解:语法检查、代码生成与性能优化
6.1.2 数据流、后端逻辑与UI组件分离
6.2 编程语言模型微调:从代码生成到Bug修复
6.2.1 代码生成任务微调:从小样本学习到语法生成
6.2.2 错误检测与修复模型实现:代码标注与错误模式
展开
加入书架成功!
收藏图书成功!
我知道了(3)
发表书评
读者登录

请选择您读者所在的图书馆

选择图书馆
浙江图书馆
点击获取验证码
登录
没有读者证?在线办证