搜索
高级检索
高级搜索
书       名 :
著       者 :
出  版  社 :
I  S  B  N:
文献来源:
出版时间 :
高级机器学习算法实战
0.00     定价 ¥ 99.00
图书来源: 浙江图书馆(由浙江新华配书)
此书还可采购25本,持证读者免费借回家
  • 配送范围:
    浙江省内
  • ISBN:
    9787111711445
  • 作      者:
    作者:(印度)V.基肖尔·艾亚德瓦拉|责编:林桢|译者:姜峰//庞登峰//张振华
  • 出 版 社 :
    机械工业出版社
  • 出版日期:
    2022-10-01
收藏
畅销推荐
内容介绍
本书在理解算法如何工作和如何更好地调整模型之间架起一座桥梁。本书将帮助你掌握开发主要机器学习模型的技能,包括监督和无监督学习(其中包括线性/对率回归)、决策树、随机森林、梯度提升机(GBM)、神经网络、k均值聚类、主成分分析和推荐系统。 你将通过应用于文本挖掘的CNN、RNN和Word2vec接触到最新的深度学习,并学习相关理论和案例研究,如情感分类、欺诈检测、推荐系统和图像识别等,以便获得工业中使用的绝大多数机器学习算法的最佳理论和实践。除了学习算法,你还将接触到在所有主要云服务提供商上运行的机器学习模型。 本书适合从事AI行业的工程师,以及希望从事数据科学工作的IT人员阅读,并可以供数据科学家工作时参考使用。
展开
目录
译者序
原书前言
作者简介
技术评审员简介
第1章 机器学习基础
1.1 回归和分类
1.1.1 训练数据和测试数据
1.1.2 对于验证数据集的需求
1.1.3 精度测量
1.1.4 AUC值和ROC曲线
1.2 无监督学习
1.3 建立模型的典型方法
1.3.1 数据从哪里获取
1.3.2 需要获取哪些数据
1.3.3 数据预处理
1.3.4 特征交互
1.3.5 特征生成
1.3.6 建立模型
1.3.7 模型生产化
1.3.8 构建、部署、测试和迭代
1.4 总结
第2章 线性回归
2.1 线性回归介绍
2.1.1 变量:自变量和因变量
2.1.2 相关性
2.1.3 因果关系
2.2 简单线性回归与多元线性回归
2.3 形式化简单线性回归
2.3.1 偏差项
2.3.2 斜率
2.4 求解一个简单线性回归
2.5 求解简单线性回归更通用的方法
2.5.1 平方差总和小化
2.5.2 求解公式
2.6 简单线性回归的工作细节
2.6.1 让简单线性回归复杂化一点
2.6.2 达到优系数值
2.6.3 方均根误差介绍
2.7 在R中运行简单线性回归
2.7.1 残差
2.7.2 系数
2.7.3 残差(残余偏差)的SSE
2.7.4 零偏差
2.7.5 R平方
2.7.6 F统计量
2.8 在Python中运行简单线性回归
2.9 简单线性回归的常见缺陷
2.10 多元线性回归
2.10.1 多元线性回归的工作细节
2.10.2 R中的多元线性回归
2.10.3 Python中的多元线性回归
2.10.4 模型中的非重要变量问题
2.10.5 多重共线性问题
2.10.6 多重共线性的数学直觉
2.10.7 有关多元线性回归的其他注意事项
2.11 线性回归的假设
2.12 总结
第3章 对数几率回归
3.1 为什么线性回归对离散结果无效
3.2 一个更普遍的解决方案:Sigmoid曲线
3.2.1 形式化Sigmoid曲线(Sigmoid激活)
3.2.2 从Sigmoid曲线到对率回归
3.2.3 对率回归的解释
3.2.4 对率回归的工作细节
3.2.5 估算误差
3.2.6 小二乘法与线性假设
3.3 在R中运行对率回归
3.4 在Python中运行对率回归
3.5 确定兴趣的度量
3.6 常见陷阱
3.6.1 预测和事件发生之间的时间
3.6.2 自变量中的异常值
3.7 总结
第4章 决策树
4.1 决策树的构成部分
4.2 存在多个离散自变量的分类决策树
4.2.1 信息增益
4.2.2 计算不确定性:熵
4.2.3 计算信息增益
4.2.4 原始数据集中的不确定性
4.2.5 衡量不确定性的改善
4.2.6 哪些特定值进入左侧或右侧节点
4.2.7 分裂过程何时停止
4.3 连续自变量的分类决策树
4.4 有多个自变量时的分类决策树
4.5 存在连续自变量和离散自变量时的分类决策树
4.6 如果响应变量是连续的怎么办
4.6.1 连续因变量与多个连续自变量
4.6.2 连续因变量与离散自变量
4.6.3 连续因变量与离散、连续自变量
4.7 在R中实现决策树
4.8 在Python中实现决策树
4.9 创建树的常见技术
4.10 可视化树的构建
4.11 异常值对决策树的影响
4.12 总结
第5章 随机森林
5.1 一个随机森林的场景
5.1.1 Bagging
5.1.2 随机森林的工作细节
5.2 在R中实现随机森林
5.2.1 随机森林中的参数调整
5.2.2 树的深度对AUC的影响
5.3 在Python中实现随机森林
5.4 总结
第6章 梯度提升机
6.1 梯度提升机介绍
6.2 GBM的工作细节
6.3 收缩率
6.4 AdaBoost
6.4.1 AdaBoost理论
6.4.2 AdaBoost的工作细节
6.5 GBM的附加功能
6.6 在Python中实现GBM
6.7 在R中实现GBM
6.8 总结
第7章 人工神经网络
7.1 神经网络的结构
7.2 训练神经网络的工作细节
7.2.1 前向传播
7.2.2 应用激活函数
7.2.3 反向传播
7.2.4 计算反向传播
7.2.5 随机梯度下降
7.2.6 深入了解梯度下降
7.2.7 为什么要有学习率
7.3 批量训练
7.3.1 Softmax的概念
7.4 不同的损耗优化函数
7.4.1 缩放数据集
7.5 在Python中实现神经网络
7.6 利用正则化避免过拟合
7.7 将权重分配给正则化项
7.8 在R中实现神经网络
7.9 总结
第8章 Word2vec
8.1 手工构建词向量
8.2 构建词向量的方法
8.3 Word2vec模型中需要注意的问题
8.3.1 常用词
8.3.2 负采样
8.4 在Python中实现Word2vec
8.5 总结
第9章 卷积神经网络
9.1 传统神经网络的问题
9.1.1 场景
9.1.2 场景
9.1.3 场景
9.1.4 场景
9.2 了解CNN中的卷积
9.2.1 从卷积到激活
9.2.2 从卷积激活到池化
9.2.3 卷积和池化有什么帮助
9.3 使用代码创建CNN
9.4 CNN的工作细节
9.5 深入研究
展开
加入书架成功!
收藏图书成功!
我知道了(3)
发表书评
读者登录

请选择您读者所在的图书馆

选择图书馆
浙江图书馆
点击获取验证码
登录
没有读者证?在线办证