译者序
关于作者
关于技术审查员
致谢
前言
第1章 PyTorch入门,张量与张量运算
什么是PyTorch
PyTorch安装
秘籍1-1 张量的使用
小结
第2章 使用PyTorch中的概率分布
秘籍2-1 采样张量
秘籍2-2 可变张量
秘籍2-3 统计学基础
秘籍2-4 梯度计算
秘籍2-5 张量运算之一
秘籍2-6 张量运算之二
秘籍2-7 统计分布
小结
第3章 使用PyTorch中的卷积神经网络和循环神经网络
秘籍3-1 设置损失函数
秘籍3-2 估计损失函数的导数
秘籍3-3 模型微调
秘籍3-4 优化函数选择
秘籍3-5 进一步优化函数
秘籍3-6 实现卷积神经网络
秘籍3-7 模型重载
秘籍3-8 实现循环神经网络
秘籍3-9 实现用于回归问题的循环神经网络
秘籍3-10 使用PyTorch内置的循环神经网络函数
秘籍3-11 使用自编码器(Autoencoder)
秘籍3-12 使用自编码器实现结果微调
秘籍3-13 约束模型过拟合
秘籍3-14 可视化模型过拟合
秘籍3-15 初始化权重中的丢弃率
秘籍3-16 添加数学运算
秘籍3-17 循环神经网络中的嵌入层
小结
第4章 PyTorch中的神经网络简介
秘籍4-1 激活函数的使用
秘籍4-2 激活函数可视化
秘籍4-3 基本的神经网络模型
秘籍4-4 张量微分
小结
第5章 PyTorch中的监督学习
秘籍5-1 监督模型的数据准备
秘籍5-2 前向和反向传播神经网络
秘籍5-3 优化和梯度计算
秘籍5-4 查看预测结果
秘籍5-5 监督模型逻辑回归
小结
第6章 使用PyTorch对深度学习模型进行微调
秘籍6-1 构建顺序神经网络
秘籍6-2 确定批量的大小
秘籍6-3 确定学习率
秘籍6-4 执行并行训练
小结
第7章 使用PyTorch进行自然语言处理
秘籍7-1 词嵌入
秘籍7-2 使用PyTorch创建CBOW模型
秘籍7-3 LSTM模型
小结
第8章 分布式PyTorch建模、模型优化和部署
秘籍8-1 分布式Torch架构
秘籍8-2 Torch分布式组件
秘籍8-3 设置分布式PyTorch
秘籍8-4 加载数据到分布式PyTorch
秘籍8-5 PyTorch中的模型量化
秘籍8-6 量化观察器应用
秘籍8-7 使用MNIST数据集应用量化技术
小结
第9章 图像和音频的数据增强、特征工程和提取
秘籍9-1 音频处理中的频谱图
秘籍9-2 安装Torchaudio
秘籍9-3 将音频文件加载到PyTorch中
秘籍9-4 安装用于音频的Librosa库
秘籍9-5 频谱图变换
秘籍9-6 Griffin-Lim变换
秘籍9-7 使用滤波器组进行梅尔尺度转换
秘籍9-8 Librosa的梅尔尺度转换与Torchaudio版本对比
秘籍9-9 使用Librosa和Torchaudio进行MFCC和LFCC
秘籍9-10 图像数据增强
小结
第10章 PyTorch模型可解释性和Skorch
秘籍10-1 安装Captum库
秘籍10-2 主要归因:深度学习模型的特征重要性
秘籍10-3 深度学习模型中神经元的重要性
秘籍10-4 安装Skorch库
秘籍10-5 Skorch组件在神经网络分类器中的应用
秘籍10-6 Skorch神经网络回归器
秘籍10-7 Skorch模型的保存和加载
秘籍10-8 使用Skorch创建神经网络模型流水线
秘籍10-9 使用Skorch进行神经网络模型的轮次评分
秘籍10-10 使用Skorch进行超参数的网格搜索
小结
展开