前言
致谢
关于作者
译者序
常见问题
为什么选择PyTorch?
为什么选择这套书?
谁应该读这套书?
我需要知道什么?
如何阅读这套书?
下一步是什么?
设置指南
官方资料库
环境
谷歌Colab
Binder
本地安装
继续
第0章 可视化梯度下降
剧透
Jupyter Notebook
导入
可视化梯度下降
模型
数据生成
合成数据生成
训练-验证-测试拆分
第0步——随机初始化
第1步——计算模型的预测
第2步——计算损失
损失面
横截面
第3步——计算梯度
可视化梯度
反向传播
第4步——更新参数
学习率
第5步——循环往复
梯度下降的路径
回顾
第1章 一个简单的回归问题
剧透
Jupyter Notebook
导入
一个简单的回归问题
数据生成
合成数据生成
梯度下降
第0步——随机初始化
第1步——计算模型的预测
第2步——计算损失
第3步——计算梯度
第4步——更新参数
第5步——循环往复
Numpy中的线性回归
PyTorch
张量
加载数据、设备和CUDA
创建参数
Autograd
backward
grad
zero_
更新参数
no_grad
动态计算图
优化器
step/zero_grad
损失
模型
参数
state_dict
设备
前向传递
训练
嵌套模型
序列(Sequential)模型
层
归纳总结
数据准备
模型配置
模型训练
回顾
第2章 重新思考训练循环
剧透
Jupyter Notebook
导入
重新思考训练循环
训练步骤
Dataset
TensorDataset
DataLoader
小批量内循环
随机拆分
评估
绘制损失
TensorBoard
在Notebook中运行
单独运行(本地安装)
单独运行(Binder)
SummaryWriter
add_graph
add_scalars
保存和加载模型
模型状态
保存
恢复训练
部署/做出预测
设置模型的模式
归纳总结
回顾
第2.1章 追求优雅
剧透
Jupyter Notebook
导入
追求优雅
类
构造方法
训练方法
保存和加载方法
可视化方法
完整代码
典型的管道
模型训练
做出预测
检查点
恢复训练
归纳总结
回顾
第3章 一个简单的分类问题
剧透
Jupyter Notebook
导入
一个简单的分类问题
数据生成
数据准备
模型
logit
概率
比值比(Odds Ratio)
对数比值比
从logit到概率
Sigmoid
逻辑斯蒂回归
损失
BCELoss
BCEWithLogitsLoss
不平衡数据集
模型配置
模型训练
决策边界
分类阈值
混淆矩阵
指标
权衡和曲线
归纳总结
回顾
展开