第Ⅰ部分 基本概念和背景
第1章 了解开发环境
1.1 大规模机器学习
1.1.1 不断扩大的规模
1.1.2 解决方案
1.2 分布式系统
1.2.1 分布式系统基本概念
1.2.2 复杂性和模式
1.3 分布式机器学习系统
1.3.1 分布式机器学习系统基本概念
1.3.2 类似的模式
1.3.3 分布式机器学习系统的应用场景
1.3.4 不适合使用分布式机器学习系统的场景
1.4 本书涵盖的内容
1.5 本章小结
第Ⅱ部分 分布式机器学习系统模式
第2章 数据摄取模式
2.1 数据摄取的基本概念
2.2 Fashion-MNIST数据集
2.3 批处理模式
2.3.1 问题:在内存有限的情况下对Fashion-MNIST数据集执行耗费资源的操作
2.3.2 解决方案
2.3.3 讨论
2.3.4 练习
2.4 分片模式:在多台机器之间分割极大的数据集
2.4.1 问题
2.4.2 解决方案
2.4.3 讨论
2.4.4 练习
2.5 缓存模式
2.5.1 问题:重新访问之前使用过的数据以进行高效的多轮模型训练
2.5.2 解决方案
2.5.3 讨论
2.5.4 练习
2.6 习题答案
2.7 本章小结
第3章 分布式训练模式
3.1 分布式训练的基本概念
3.2 参数服务器模式:800万样本的实体标记
3.2.1 问题
3.2.2 解决方案
3.2.3 讨论
3.2.4 练习
3.3 集合通信模式
3.3.1 问题:当参数服务器成为瓶颈时提高性能
3.3.2 解决方案
3.3.3 讨论
3.3.4 练习
3.4 弹性与容错模式
3.4.1 问题:使用有限的计算资源处理训练时的意外故障
3.4.2 解决方案
3.4.3 讨论
3.4.4 练习
3.5 习题答案
3.6 本章小结
第4章 模型服务模式
4.1 模型服务的基本概念
4.2 副本服务模式:处理不断增长的服务请求
4.2.1 问题
4.2.2 解决方案
4.2.3 讨论
4.2.4 练习
4.3 分片服务模式
4.3.1 问题:处理包含高分辨率视频的大型模型服务请求
4.3.2 解决方案
4.3.3 讨论
4.3.4 练习
4.4 事件驱动处理模式
4.4.1 问题:基于事件响应模型服务请求
4.4.2 解决方案
4.4.3 讨论
4.4.4 练习
4.5 习题答案
4.6 本章小结
第5章 工作流模式
5.1 工作流的基本概念
5.2 扇入和扇出模式:组成复杂的机器学习工作流
5.2.1 问题
5.2.2 解决方案
5.2.3 讨论
5.2.4 练习
5.3 同步和异步模式:通过并发加速工作流
5.3.1 问题
5.3.2 解决方案
5.3.3 讨论
5.3.4 练习
5.4 步骤记忆化模式:通过使用缓存跳过重复冗余的步骤
5.4.1 问题
5.4.2 解决方案
5.4.3 讨论
5.4.4 练习
5.5 习题答案
5.6 本章小结
第6章 运维模式
6.1 机器学习系统中运维的基本概念
6.2 调度模式:在共享集群中有效分配资源
6.2.1 问题
6.2.2 解决方案
6.2.3 讨论
6.2.4 练习
6.3 元数据模式:合理处理故障,最小化对用户的负面影响
6.3.1 问题
6.3.2 解决方案
6.3.3 讨论
6.3.4 练习
6.4 习题答案
6.5 本章小结
第Ⅲ部分 构建分布式机器学习工作流
第7章 项目概述及系统架构
7.1 项目概况
7.1.1 项目背景
7.1.2 系统组件
7.2 数据摄取
7.2.1 问题
7.2.2 解决方案
7.2.3 练习
7.3 模型训练
7.3.1 问题
7.3.2 解决方案
7.3.3 练习
7.4 模型服务
7.4.1 问题
7.4.2 解决方案
7.4.3 练习
7.5 端到端工作流
7.5.1 存在的问题
7.5.2 解决方案
7.5.3 练习
7.6 习题答案
7.7 本章小结
第8章 相关技术概述
8.1 TensorFlow:机器学习框架
8.1.1 基础知识
8.1.2 练习
8.2 Kubermetes:分布式容器编排系统
8.2.1 基础知识
8.2.2 练习
8.3 Kubeflow:在Kubernetes上运行机器学习工作负载
8.3.1 基础知识
8.3.2 练习
8.4 Argo Workflows:容器原生工作流引擎
8.4.1 基础知识
8.4.2 练习
8.5 习题答案
8.6 本章小结
第9章 完整实现
9.1 数据摄取
9.1.1 单节点数据流水线
9.1.2 分布式数据流水线
9.2 模型训练
9.2.1 模型定义和单节点训练
9.2.2 分布式模型训练
9.2.3 模型选择
9.3 模型服务
9
展开