搜索
高级检索
高级搜索
书       名 :
著       者 :
出  版  社 :
I  S  B  N:
文献来源:
出版时间 :
破解深度学习(基础篇模型算法与实现)
0.00     定价 ¥ 109.80
图书来源: 浙江图书馆(由浙江新华配书)
此书还可采购25本,持证读者免费借回家
  • 配送范围:
    浙江省内
  • ISBN:
    9787115646194
  • 作      者:
    作者:瞿炜//李力//杨洁|责编:吴晋瑜
  • 出 版 社 :
    人民邮电出版社
  • 出版日期:
    2024-10-01
收藏
畅销推荐
内容介绍
本书旨在采用一种符合读者认知角度且能提升其学习效率的方式来讲解深度学习背后的基础知识。 本书总计9章,深入浅出地介绍了深度学习的理论与算法基础,从理论到实战全方位展开。前三章旨在帮助读者快速入门,介绍了必要的数学概念和必备工具的用法。后六章沿着深度学习的发展脉络,从最简单的多层感知机开始,讲解了深度神经网络的基本原理、常见挑战、优化算法,以及三大典型模型(基础卷积神经网络、基础循环神经网络和注意力神经网络)。 本书系统全面,深入浅出,且辅以生活中的案例进行类比,以此降低学习难度,帮助读者迅速掌握深度学习的基础知识。本书适合有志于投身人工智能领域的人员阅读,也适合作为高等院校人工智能专业的教学用书。
展开
目录
第1章 欢迎来到深度学习的世界
1.1 什么是深度学习
1.2 主要核心模型
1.2.1 卷积神经网络
1.2.2 循环神经网络
1.2.3 注意力机制
1.2.4 深度生成模型
1.2.5 小结
1.3 研究和应用领域
1.3.1 计算机视觉
1.3.2 语音技术
1.3.3 自然语言处理
1.3.4 多模态融合
1.3.5 小结
1.4 使用的技术栈
1.4.1 编程语言
1.4.2 深度学习框架
1.4.3 数据集
1.4.4 代码编辑器
1.4.5 项目IDE
1.4.6 小结
第2章 必要的数学预备知识
2.1 线性代数
2.1.1 学人工智能为什么要学线性代数
2.1.2 线性代数名字的由来
2.1.3 线性代数的本质作用
2.1.4 学线性代数为何总强调几何意义
2.1.5 标量
2.1.6 向量
2.1.7 矩阵
2.1.8 张量
2.1.9 小结
2.2 微积分
2.2.1 极限
2.2.2 导数
2.2.3 微分
2.2.4 偏导数
2.2.5 梯度
2.2.6 链式法则
2.2.7 小结
2.3 概率统计
2.3.1 什么是概率
2.3.2 概率和统计
2.3.3 贝叶斯定理
2.3.4 最大似然估计
2.3.5 小结
第3章 环境安装和工具使用
3.1 配置深度学习环境
3.1.1 CUDA简介
3.1.2 显卡驱动
3.1.3 安装CUDA
3.1.4 安装Anaconda
3.1.5 小结
3.2 conda实用命令
3.2.1 Anaconda图形化界面介绍
3.2.2 conda的命令行操作
3.2.3 小结
3.3 JupyterNotebook快速上手
3.3.1 JupyterNotebook的安装与运行
3.3.2 常用配置项
3.3.3 快捷键
3.3.4 Markdown语法
3.3.5 小结
3.4 安装深度学习框架PyTorch
3.4.1 PyTorch、CUDA与NVIDIA
3.4.2 安装PyTorch
3.4.3 验证安装是否成功
3.4.4 小结
第4章 深度神经网络:误差倒查分解
4.1 神经网络原理
4.1.1 神经元模型
4.1.2 神经网络结构
4.1.3 损失函数
4.1.4 反向传播
4.1.5 小结
4.2 多层感知机
4.2.1 线性模型的局限
4.2.2 多层感知机模型
4.2.3 激活函数
4.2.4 小结
4.3 前向传播和反向传播
4.3.1 前向传播
4.3.2 反向传播
4.3.3 小结
4.4 多层感知机代码实现
4.4.1 搭建神经网络的步骤
4.4.2 代码实现
4.4.3 小结
4.5 回归问题
4.5.1 一元线性回归
4.5.2 多元线性回归
4.5.3 多项式回归
4.5.4 简单理解梯度下降
4.5.5 代码实现
4.5.6 小结
4.6 分类问题
4.6.1 多分类问题的数学表示
4.6.2 Softmax回归
4.6.3 对数损失函数
4.6.4 交叉熵损失函数
4.6.5 代码实现
4.6.6 小结
第5章 常见挑战及对策:一切为了泛化能力
5.1 训练问题分析
5.1.1 模型架构设计
5.1.2 过拟合与欠拟合
5.1.3 代码实现
5.1.4 小结
5.2 过拟合欠拟合应对策略
5.2.1 数据集选择
5.2.2 模型选择
5.2.3 训练策略选择
5.2.4 小结
5.3 正则化
5.3.1 正则化定义
5.3.2 L1正则化
5.3.3 L2正则化
5.3.4 范数惩罚
5.3.5 权重衰减
5.3.6 小结
5.4 Dropout方法及代码实现
5.4.1 基本原理
5.4.2 直观解释
5.4.3 优缺点分析
5.4.4 代码实现
5.4.5 小结
5.5 梯度消失和梯度爆炸
5.5.1 根源分析
5.5.2 梯度消失
5.5.3 梯度爆炸
5.5.4 解决办法
5.5.5 小结
5.6 模型文件的读写
5.6.1 张量的保存和加载
5.6.2 模型参数的保存和加载
5.6.3 小结
第6章 梯度下降算法及变体:高效求解模型参数
6.1 为什么要学最优化
6.1.1 深度学习的最优化
6.1.2 训练误差和泛化误差
6.1.3 常见的优化挑战
6.1.4 小结
6.2 损失函数及其性质
6.2.1 起源和重要性
6.2.2 最大似然估计
6.2.3 最大后验
6.2.4 贝叶斯估计
6.2.5 损失函数的性质
6.2.6 小结
6.3 梯度下降算法
6.3.1 搜索逼近策略
6.3.2 梯度
6.3.3 偏导数链式法则
6.3.4 学习率
6.3.5 梯度下降算法
6.3.6 小结
6.4 梯度下降算法的各种变体
6.4.1 加速版改进:随机梯度下降法
6.4.2 折中版改进:小批量随机梯度下降法
6.4.3 一阶动量改进版:动量法
6.4.4 二阶动量改进版:AdaGrad算法
6.4.5 自动调整学习率:RMSProp和AdaDelta算法
6.4.6 自适应动量:Adam算法
6.4.7 算法大串联及讨论
6.4.8 小结
6.5 梯度下降算法代码实现
6.5.1 梯度下降过程
6.5.2 不同优化器效果对比
展开
加入书架成功!
收藏图书成功!
我知道了(3)
发表书评
读者登录

请选择您读者所在的图书馆

选择图书馆
浙江图书馆
点击获取验证码
登录
没有读者证?在线办证