搜索
高级检索
高级搜索
书       名 :
著       者 :
出  版  社 :
I  S  B  N:
文献来源:
出版时间 :
MCP\A2A协议(多Agent系统全链路开发)/AIGC与大模型技术丛书
0.00     定价 ¥ 79.00
图书来源: 浙江图书馆(由浙江新华配书)
此书还可采购14本,持证读者免费借回家
  • 配送范围:
    浙江省内
  • ISBN:
    9787111791980
  • 作      者:
    编者:段毅//贾存军//李欣博|责编:丁伦//杨源
  • 出 版 社 :
    机械工业出版社
  • 出版日期:
    2025-10-01
收藏
畅销推荐
内容介绍
本书系统阐述了以MCP与A2A为核心的多Agent通信机制及大模型上下文处理协议,全面解析LangChain作为编排框架在构建复杂Agent系统中的关键作用,涵盖从协议设计原理到多Agent系统开发的全流程。 全书共分为12章,内容系统而全面。首先介绍MCP与A2A协议的核心设计与实现,包括协议架构设计、消息模型、执行语义等,同时,还深入探讨了LangChain框架的核心组件及其在协议生态中的作用,帮助读者构建扎实的技术基础。随后聚焦于多Agent系统中的复杂技术问题,详细解析了上下文压缩、任务系统建模、函数回调机制、RAG上下检索融合策略等关键技术,并深入探讨了这些技术的协议集成路径。最后通过多个真实应用系统的案例,展示了基于协议驱动的大模型系统的构建、部署与优化过程,提供了完整的可执行代码和实例,帮助读者更好地理解和掌握协议驱动型大模型系统的实际应用与技术实现。同时,随书赠送电子教案、代码等海量学习资源(扫封底二维码),助力读者高效学习。 本书适合从事大模型应用开发、多Agent系统设计、Agent协议研究与LangChain生态应用的技术开发者、系统架构师及AI工程领域研究人员阅读。无论是希望深入了解多Agent系统架构,还是正在从事多Agent系统的开发与调度优化,本书都将成为您值得信赖的参考指南。
展开
目录
前言
第1部分 协议与框架设计基础
第1章 大模型系统架构中的协议与调度基础
1.1 多Agent系统演进趋势
1.1.1 大模型交互的上下文瓶颈
1.1.2 Agent间的协同结构演化
1.1.3 传统Prompt工程的适用范围限制
1.1.4 通信与上下文管理协议
1.2 多协议生态对比:MCP、A2A与LangChain的定位
1.2.1 基于协议分层的系统集成结构
1.2.2 LangChain作为编排框架的作用
1.2.3 MCP协议的语义抽象与上下文压缩
1.2.4 A2A协议的异构Agent连接机制
1.3 多Agent开发典型场景与构建逻辑
1.3.1 多轮对话的上下文共享机制
1.3.2 任务拆分与Agent能力声明
1.3.3 工具增强机制与插件注入
1.3.4 文档、数据库与Agent
1.4 协议驱动的Agent系统设计原则
1.4.1 语义完整性与状态持久性
1.4.2 可重入性与任务断点恢复机制
1.4.3 Agent的自治性与可组合性
1.4.4 通信安全、身份认证与访问控制
第2章 MCP协议详解:模型上下文语义结构与演化机制
2.1 MCP设计理念与核心目标
2.1.1 MCP协议简介
2.1.2 为什么要有MCP协议
2.1.3 MCP协议的跨任务可重用性
2.1.4 MCP协议详解
2.1.5 MCP Python SDK详解
2.2 Slot机制:上下文的基本语义单元
2.2.1 Slot结构的核心字段
2.2.2 Slot类型与抽象层级
2.2.3 Prompt压缩Slot与检索增强Slot
2.3 上下文链路管理与ContextChain逻辑
2.3.1 Slot链的动态重构机制
2.3.2 ContextBlock与历史语境窗口切分
2.3.3 Slot合并与变换:上下文压缩算子
2.3.4 Prompt压缩中的语义保留
2.4 MCP执行结构与Operator语义操作
2.4.1 inject与injectChain的上下文注入
2.4.2 compress与semanticGroup的语义压缩
2.4.3 resolve机制:语义补全与结构修复
第3章 A2A协议详解:Agent间通信与任务协调机制
3.1 A2A协议设计目标与接口体系
3.1.1 为什么需要A2A协议
3.1.2 A2A协议详解
3.1.3 A2A协议的核心规范与异构兼容设计
3.1.4 HTTP+JSON-RPC+SSE架构基础
3.2 AgentCard与能力注册结构
3.2.1 Agent身份声明
3.2.2 能力描述字段:type、methods、input_spec
3.2.3 agent_id与权限控制
3.3 Task生命周期管理机制
3.3.1 任务结构体组成与输入输出规范
3.3.2 send/sendSubscribe调用逻辑
3.3.3 状态跟踪与Streaming/Webhook回调
3.3.4 Artifact结构定义与任务结果封装
第4章 LangChain框架基础与组件解析
4.1 LangChain架构理念
4.1.1 LangChain在协议生态中的角色
4.1.2 为什么需要LangChain
4.1.3 A2A、MCP以及LangChain的关系
4.1.4 与A2A/MCP适配
4.1.5 运行时管理与组件生命周期
4.1.6 Agent链构建与中间数据流组织
4.2 Core模块:LLM、Prompt、Chain、Memory
4.2.1 PromptTemplate设计与参数注入
4.2.2 Chain类构造:SimpleChain、SequentialChain
4.2.3 LLM调用封装:ChatOpenAI、DeepSeekLLM
4.2.4 Memory机制与上下文衔接
4.3 LangChain工具集成与Function Calling机制
4.3.1 Memory机制的引入与注册
4.3.2 与OpenAI Function Calling API的互通机制
4.3.3 Self-Ask with Search的增强型调用
4.3.4 自定义函数调用与动态参数绑定
4.4 LangChain Agent与Router设计
4.4.1 AgentExecutor工作流
4.4.2 多Agent协作:RouterChain+MultiPromptChain
4.4.3 Tool选择策略与Prompt路由机制
第2部分 技术深度与协议集成
第5章 上下文压缩与Prompt压缩算法
5.1 上下文长度瓶颈与压缩的必要性
5.1.1 Token限制对大模型输入的影响
5.1.2 多段历史内容的信息密度分布
5.1.3 “保留+融合”策略
5.1.4 Slot压缩中的冗余与语义对齐问题
5.2 基于Embedding聚类的Slot压缩算法
5.2.1 文本段向量化与语义聚类基础
5.2.2 多维冗余检测与信息分布评估
5.2.3 Top-K聚类表示的Slot合成机制
5.2.4 示例:使用Faiss/Scikit-Learn构建压缩流程
5.3 基于LLM摘要生成的上下文融合机制
5.3.1 抽取式摘要与生成式摘要
5.3.2 多Slot语义聚合Prompt设计
5.3.3 自动摘要Slot分配策略
5.3.4 检测语义漂移与重要信息遗漏
5.4 MCP中的压缩策略实现
5.4.1 compress operator的多模型适配实现
5.4.2 Slot类型语义权重与压缩保留等级
5.4.3 Slot缓存池与滑动窗口机制
展开
加入书架成功!
收藏图书成功!
我知道了(3)
发表书评
读者登录

请选择您读者所在的图书馆

选择图书馆
浙江图书馆
点击获取验证码
登录
没有读者证?在线办证