搜索
高级检索
高级搜索
书       名 :
著       者 :
出  版  社 :
I  S  B  N:
文献来源:
出版时间 :
Web大数据处理与分析
0.00    
图书来源: 浙江图书馆(由图书馆配书)
  • 配送范围:
    全国(除港澳台地区)
  • ISBN:
    9787030606365
  • 作      者:
    夏换,杨秀璋,于小民编著
  • 出 版 社 :
    科学出版社
  • 出版日期:
    2019
收藏
内容介绍
《web大数据处理与分析》主要研究Web大数据的数据预处理和数据分析技术,采用Python 语言实现。《web大数据处理与分析》贯穿各种算法与案例进行讲解,内容包括基础知识、Python数据预处理和Python数据分析三部分,涉及数据挖掘概念、关系型数据库、语料知识库、正则表达式、中文分词、数据清洗、词性标注、特征提取、权重计算、聚类分析、分类分析、主题模型、神经网络等知识。《web大数据处理与分析》一方面填补了Web大数据预处理和分析相结合的空白,另一方面包含了各种实战案例,构思合理、逻辑清晰,符合国家大数据发展战略,有利于推动各地区的大数据发展。
展开
目录
目录
第一部分 基础知识
第1章 概述 3
1.1 大数据预处理和分析 3
1.2 各章概要 8
1.3 如何阅读本书 12
第2章 数据挖掘基础知识 14
2.1 数据挖掘 14
2.2 有监督学习 16
2.3 无监督学习 17
2.4 部分监督学习 19
第3章 关系型数据库和语料知识库 21
3.1 关系型数据库 21
3.2 SQL基础知识 23
3.3 Python调用数据库 32
3.4 常见的语料知识库 39
第4章 正则表达式和基本字符串函数 48
4.1 正则表达式 48
4.2 基本字符串函数 58
4.3 字符编码简介 64
第二部分 基于Python的大数据预处理
第5章 数据预处理相关介绍 71
5.1 预处理概述 71
5.2 中文分词 72
5.3 数据清洗 74
5.4 词性标注基础 75
5.5 向量空间模型及特征提取 76
5.6 权重计算 76
第6章 中文分词技术及Jieba工具 77
6.1 中文分词技术介绍 77
6.2 常用中文分词工具 80
6.3 Jieba中文分词工具 81
6.4 案例分析:使用Jieba对百度百科摘要信息进行中文分词 91
第7章 数据清洗及停用词过滤 94
7.1 数据清洗的概念 94
7.2 数据清洗常见方法 97
7.3 停用词过滤 98
第8章 词性标注 106
8.1 词性标注概述 106
8.2 BosonNLP词性标注 109
8.3 Jieba工具词性标注 115
8.4 案例分析:基于Jieba工具的词性标注 120
第9章 向量空间模型及特征提取 124
9.1 向量空间模型 124
9.2 特征提取 126
9.3 余弦相似性 129
9.4 案例分析:基于向量空间模型的余弦相似度计算 131
第10章 权重计算及TF-IDF 139
10.1 权重计算 139
10.2 TF-IDF 141
10.3 Scikit-Learn中的TF-IDF使用方法 143
10.4 案例分析:TF-IDF计算中文语料权重 146
第三部分 基于Python的大数据分析
第11章 Python大数据分析的常用库介绍 157
11.1 数据挖掘概述 157
11.2 开发软件安装过程 159
11.3 Scikit-Learn库 165
11.4 NumPy、SciPy、Matplotlib库 169
第12章 基于Python的聚类数据分析 175
12.1 聚类概述 175
12.2 聚类算法基本用法 178
12.3 案例分析:基于Birch层次聚类算法及PAC降维显示聚类图像 190
第13章 基于Python的分类算法分析 206
13.1 分类概述 206
13.2 Python分类算法基本用法 214
13.3 案例分析:基于新闻数据分类算法的示例 229
第14章 基于Python的LDA主题模型 242
14.1 LDA主题模型 242
14.2 LDA安装过程 244
14.3 LDA基本用法 245
14.4 案例分析:LDA主题模型分布计算 254
第15章 基于Python的神经网络分析 265
15.1 神经网络的基础知识 265
15.2 神经网络的Python简单实现 271
15.3 Python神经网络工具包 275
15.4 案例分析:使用神经网络训练 280
参考文献 283
展开
加入书架成功!
收藏图书成功!
我知道了(3)
发表书评
读者登录

请选择您读者所在的图书馆

选择图书馆
浙江图书馆
点击获取验证码
登录
没有读者证?在线办证