搜索
高级检索
高级搜索
书       名 :
著       者 :
出  版  社 :
I  S  B  N:
文献来源:
出版时间 :
深度学习(基于PyTorch的实现)/数据科学与大数据技术丛书
0.00     定价 ¥ 56.00
图书来源: 浙江图书馆(由浙江新华配书)
此书还可采购25本,持证读者免费借回家
  • 配送范围:
    浙江省内
  • ISBN:
    9787300312378
  • 作      者:
    编者:周静//鲁伟|责编:徐凌
  • 出 版 社 :
    中国人民大学出版社
  • 出版日期:
    2023-05-01
收藏
作者简介
周 静,北京大学光华管理学院博士,中国人民大学统计学院副教授、博士生导师,中国人民大学应用统计科学研究中心研究员,研究方向为社交网络数据建模、人工智能在肺癌诊疗中的应用等。在Journal of Business & Economic Statistics,Statistic Sinica,Computational Statistics & Data Analysis,Neurocomputing,《管理科学》及《营销科学学报》等国内外权威期刊发表论文20余篇,著有《社交网络数据:理论与实践》和《深度学习:从入门到精通》,参与编写《数据思维:从数据分析到商业价值》《数据思维实践:从零经验到数据英才》等。主持完成多项国家自然科学基金项目、北京市社会科学基金项目、国家统计局重点项目。

鲁 伟,深度学习算法工程师,著有《深度学习笔记》和《机器学习:公式推导与代码实现》,有多个医学影像深度学习项目的管理、研发和落地经验。
展开
内容介绍
本书是一本由浅入深地介绍深度学习的理论原理及PyTorch深度学习框架的入门书籍,全书通过图文并茂的方式对重点知识进行讲解,注重实践,详细地介绍了PyTorch的基本使用、神经网络的构建和训练技巧、卷积神经网络和循环神经网络的实现,以及前沿的深度生成模型的应用。通过阅读本书,读者不仅可以了解深度学习,而且可以轻松实现机器作诗、自动乐曲生成、机器翻译、图像去噪等有趣的应用。全书配有注释详细的代码,方便读者学习与实践。本书适用于对人工智能感兴趣的读者,也适合作为深度学习领域的入门教材。
展开
精彩书摘
对于深度学习,你是否充满好奇?是否充满期待?你是否担心由于自己基础欠缺而导致无法入门深度学习领域?很惭愧地说,五年前当我第一次接触深度学习时,我对这三个问题的回答都是“是的”。但是作为一名奋战在教学一线的青年教师,我总是对新的领域充满求知欲,也正是带着这份好奇,我开始收集市面上与深度学习相关的书籍进行研读,这些书籍非常棒,但遗憾的是,它们可能不适合作为教材,尤其不适合非计算机背景的学生学习,而这部分学生(例如一些经管类院系下设的数据科学专业的学生)正日渐成为深度学习的最主要力量。受现有深度学习书籍的启发,并结合多年的教学经验,我深刻地感受到需要编写一本适合非计算机专业本科生的深度学习入门教材。它既要重视深度学习的理论基础,又要通俗易懂,而且还要有助于提高学生训练(调优)模型的能力。这就是本书写作的初衷。本书由浅入深地介绍深度学习的理论原理并搭配生动有趣的案例,将理论与实践相结合。
展开
目录
第1章 导 论
1.1 人工智能
1.1.1 人工智能的发展历史
1.1.2 人工智能的流派
1.2 机器学习
1.3 深度学习
1.3.1 深度学习的概念
1.3.2 深度学习与机器学习、人工智能的关系
1.3.3 深度学习的历史溯源
1.3.4 深度学习与回归分析
1.4 深度学习适用的领域
1.4.1 图像识别
1.4.2 语音识别
1.4.3 自然语言处理
1.4.4 棋牌竞技
1.5 常用的深度学习框架
1.5.1 Caffe
1.5.2 TensorFlow
1.5.3 PyTorch
1.5.4 MXNet
1.5.5 Keras
1.6 本书使用的数据和代码说明
第2章 神经网络的张量与数学基础
2.1 张 量
2.1.1 张量的定义
2.1.2 张量的数据类型
2.1.3 张量的创建方式
2.1.4 应用:图像数据转张量
2.2 张量的操作
2.2.1 获取和改变张量形状
2.2.2 提取张量中的元素
2.2.3 张量的拼接与拆分
2.3 张量的运算
2.3.1 基本运算
2.3.2 统计相关运算
2.3.3 矩阵运算
2.4 深度学习的导数基础
2.4.1 单变量函数和导数
2.4.2 多变量函数和偏导数
2.4.3 复合函数和链式求导法则
2.5 梯度下降算法的含义与公式
2.6 本章小结
第3章 前馈神经网络
3.1 前馈神经网络的基本结构和常见激活函数
3.1.1 神经元
3.1.2 Sigmoid函数
3.1.3 Tanh函数
3.1.4 ReLU函数
3.1.5 前馈神经网络的构成
3.2 损失函数的设置
3.3 梯度下降算法
3.3.1 梯度下降算法的直观理解与定义
3.3.2 小批量梯度下降算法
3.3.3 动量梯度下降算法
3.3.4 Nesterov梯度加速算法
3.3.5 自适应梯度算法
3.3.6 AdaDelta算法
3.3.7 均方根加速算法
3.3.8 自适应矩估计算法
3.4 反向传播算法
3.4.1 单个神经元的反向传播算法示例
3.4.2 两层神经网络的反向传播算法示例
3.5 过拟合
3.5.1 偏差-方差分解
3.5.2 正则化
3.5.3 权重衰减
3.5.4 丢弃法
3.6 本章小结
第4章 神经网络的PyTorch实现
4.1 线性回归案例:颜值打分
4.1.1 线性回归基础
4.1.2 案例:颜值打分
4.2 逻辑回归案例:性别识别
4.2.1 逻辑回归基础
4.2.2 案例:性别识别
4.3 softmax回归案例:Fashion-MNIST数据集分类
4.3.1 softmax回归基础
4.3.2 案例:Fashion-MNIST数据集分类
4.4 本章小结
第5章 卷积神经网络基础
5.1 卷积神经网络的基本结构
5.2 卷积与池化的通俗理解
5.2.1 卷积的通俗理解
5.2.2 池化的通俗理解
5.3 卷积操作
5.3.1 卷积的定义
5.3.2 填充与步长
5.3.3 多通道卷积
5.4 池化操作
5.4.1 单通道池化
5.4.2 多通道池化
5.5 CNN模型实战:手写数字识别
5.5.1 数据准备
5.5.2 构建数据读取器
5.5.3 LeNet-5网络构建及代码实现
5.5.4 模型训练
5.5.5 第一层卷积核与特征图的可视化
5.5.6 第二层卷积核与特征图的可视化
5.6 本章小结
第6章 经典CNN模型介绍
6.1 AlexNet模型原理与实现
6.1.1 AlexNet网络结构
6.1.2 AlexNet创新点
6.1.3 案例:AlexNet用于CIFAR10数据集的图片分类
6.1.4 AlexNet网络构建及代码实现
6.1.5 模型训练
6.2 VGG模型原理与实现
6.2.1 VGG网络结构
6.2.2 案例:VGG16用于CIFAR10数据集的图片分类
6.2.3 VGG网络构建及代码实现
6.2.4 模型训练
6.3 Inception V1模型原理与实现
6.3.1 Inception V1网络结构
6.3.2 Inception V1创新点
6.3.3 Inception V1网络构建及代码实现
6.3.4 模型训练
6.4 ResNet模型原理与实现
6.4.1 ResNet网络结构
6.4.2 ResNet网络构建及代码实现
6.4.3 模型训练
6.5 批量归一化
6.5.1 批量归一化的提出动机
6.5.2 批量归一化的主要思想
6.5.3 案例:带有批量归一化的模型用于猫狗数据集图片分类
6.6 数据增强
6.6.1 数据增强的核心思想
6.6.2 案例:带有数据增强的模型用于猫狗数据集图片分类
6.7 迁移学习
6.7.1 迁移学习的由来
6.7.2 迁移学习原理
6.7.3 经典案例:迁移学习如何精准定位贫困地区
6.7.4 PyTorch案例:迁移学习用于猫狗数据集图片分类
6.8 本章小结
第7章 序列模型
7.1 词向量
7.1.1 词汇表征与语义相关性
7.1.2 Word2Vec原理概述
7.1.3 Word2Vec代码实现
7.2 RNN模型
7.2.1 RNN的源起:序列预测问题
7.2.2 RNN模型原理
7.2.3 RNN模型实例:机器作诗
7.3 LSTM模型
7.3.1 RNN模型的改进:增加长期状态变量
7.3.2 LSTM模型简介
7.3.3 LSTM模型实例:自动乐曲生成
7.4 机器翻译
7.4.1 初级机器翻译技术
7.4.2 回归分析视角
7.4.3 encoder-decoder模型
7.4.4 机器翻译实例:中英文翻译
7.5 本章小结
第8章 深度生成模型
8.1 自编码器
8.1.1 自编码器简介
8.1.2 自编码器的应用案例:图像去噪
8.2 变分自编码器
8.2.1 生成模型与分布变换
8.2.2 VAE的基本原理
8.2.3 VAE图像生成示例
8.3 生成式对抗网络
8.3.1 GAN原理简介
8.3.2 GAN示例:训练DCGAN
8.4 本章小结
展开
加入书架成功!
收藏图书成功!
我知道了(3)
发表书评
读者登录

请选择您读者所在的图书馆

选择图书馆
浙江图书馆
点击获取验证码
登录
没有读者证?在线办证