搜索
高级检索
高级搜索
书       名 :
著       者 :
出  版  社 :
I  S  B  N:
文献来源:
出版时间 :
动手构建大模型
0.00     定价 ¥ 109.80
图书来源: 浙江图书馆(由浙江新华配书)
此书还可采购15本,持证读者免费借回家
  • 配送范围:
    浙江省内
  • ISBN:
    9787115668967
  • 作      者:
    作者:(加)路易斯-弗朗索瓦·布沙尔//(英)路易·彼得斯|责编:武少波|译者:孟二利//鲁骁//刘春晓//王斌
  • 出 版 社 :
    人民邮电出版社
  • 出版日期:
    2025-11-01
收藏
畅销推荐
内容介绍
本书采用创新且实用的教学策略,巧妙融合理论基础与实践应用,深入剖析自然语言处理(Natural Language Processing,NLP)领域的新进展,以及大语言模型(Large Language Model,LLM)的原理。书中不仅系统阐述了LLM的理论基础,还通过实际项目案例展示了如何将这些模型应用于构建RAG系统。本书遵循由浅入深的路径,从LLM的基础知识入手,详细阐释了模型的训练流程,并深入探讨了如何利用提示技术与模型进行高效交互。书中还重点介绍了两个在业界得到广泛认可的框架——LlamaIndex和LangChain,它们是开发RAG应用的强大工具。书中的项目案例不仅为读者提供了宝贵的实践经验,也能够加深读者对相关概念的理解和应用。此外,书中进一步探讨了包括智能体和微调在内的高级技术,这些技术能够显著提升问答系统的性能。 本书既适合无人工智能或NLP背景的读者入门学习,也可作为人工智能等专业本科生、研究生、博士后研究人员、讲师及行业从业者的进阶参考。
展开
目录
第1章 LLM简介
1.1 语言模型简史
1.2 什么是LLM
1.3 LLM的组成
1.3.1 Transformer
1.3.2 语言建模
1.3.3 分词
1.3.4 嵌入
1.3.5 训练/微调
1.3.6 预测
1.3.7 上下文窗口
1.3.8 规模法则
1.3.9 提示词
1.3.10 LLM中的涌现能力及测试基准
1.3.11 LLM简史
1.3.12 项目:使用LLM(GPT-3.5API)进行翻译
1.3.13 项目:通过小样本学习来控制LLM的输出
1.4 本章小结
第2章 LLM架构和概况
2.1 理解Transformer
2.1.1 论文“Attention Is All You Need”
2.1.2 架构实战
2.2 Transformer架构的设计选择
2.2.1 编码器-解码器架构
2.2.2 仅编码器架构
2.2.3 仅解码器架构
2.2.4 Transformer架构的优化技术
2.3 生成式预训练Transformer(GPT)架构
2.3.1 掩码自注意力
2.3.2 GPT的训练过程
2.3.3 MinGPT
2.4 LMM简介
2.4.1 常见架构和训练目标
2.4.2 开源版本的Flamingo
2.4.3 指令微调的LMM
2.4.4 探索LLaVA——一个指令微调的LMM
2.4.5 超越视觉和语言
2.5 专有模型vs.开放模型vs.开源模型
2.5.1 Cohere LLM
2.5.2 OpenAI的GPT-3.5turbo、GPT-4o和GPT-4o mini
……
第3章 LLM实践
第4章 提示技术简介
第5章 RAG
第6章 LangChain和Llamalndex简介
第7章 使用LangChain进行提示
第8章 索引、检索与数据预处理
第9章 高级RAG
第10章 智能体
第11章 微调
第12章 部署与优化
展开
加入书架成功!
收藏图书成功!
我知道了(3)
发表书评
读者登录

请选择您读者所在的图书馆

选择图书馆
浙江图书馆
点击获取验证码
登录
没有读者证?在线办证