万本电子书0元读

万本电子书0元读

顶部广告

白话机器学习——统计+概率+算法原理电子书

本书通过大量的程序实例,全面讲解了机器学习中的知识。

售       价:¥

纸质售价:¥111.80购买纸书

4人正在读 | 0人评论 6.5

作       者:洪锦魁

出  版  社:清华大学出版社

出版时间:2025-08-01

字       数:28.6万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(条)
  • 读书简介
  • 目录
  • 累计评论(条)
方程式与函数,一元函数到多元函数,最小平方法,基础统计,概率与贝叶斯理论,指数与对数,logit函数与logistic函数,向量与矩阵,二次函数、三次函数与多項式函数,线性回归——波士顿房价,逻辑回归——/葡萄酒/糖尿病,决策树——葡萄酒/鐵達尼號/Telco/Retail,隨方程式与函数,一元函数到多元函数,最小平方法,基础统计,机率与贝式理论,指数与对数,logit函数与logistic函数,向量与矩阵,二次函数、三次函数与多项式函数,线性回归–波士顿房价,逻辑回归–/葡萄酒/糖尿病,判定树–葡萄酒/铁达尼号/Telco/Retail,随机森林树–波士顿房价/泰坦尼克号/Telco/收分析,KNN算法–电影推荐/足球射门/鸢尾花/小行星撞地球,支援向量机–鸢尾花/乳癌/汽车燃料,单纯贝式分类–垃圾邮件/中英文的新闻分类/情感分析/电影评论,集成机器学习–蘑菇/医疗保险/玻璃/加州房价,K-means分群–物中心消费/葡萄酒评价,PCA主成分分析–手写数字/人脸数据,阶层式分群–小麦数据/老实泉,DBSCAN算法–物中心客户分析。<br/>【推荐语】<br/>本书通过大量的程序实例,全面讲解了机器学习中的知识。<br/>【作者】<br/>洪锦魁,资深IT作家,具备30余年的IT从业及写作经历,为老中青三代程序员创作了上百本IT图书,其作品始终屹立于编程基础图书巅峰而口碑不辍。洪老师的书,不拼页数,不拼华而不实的所谓“增值品”,每节文字确保能看懂,每段代码确保能跑通,每个提醒确保能用上,每个篇章确保有收获。<br/>
目录展开

封面页

书名页

版权页

内容简介

作者简介

前言

目录

第1章 机器学习基本概念

1-1 人工智能、机器学习、深度学习

1-2 认识机器学习

1-3 机器学习的种类

1-3-1 监督学习

1-3-2 无监督学习

1-3-3 强化学习

1-4 机器学习的应用范围

1-5 深度学习

第2章 机器学习的基础数学

2-1 用数字描绘事物

2-2 变量概念

2-3 从变量到函数

2-4 等式运算的规则

2-5 代数运算的基本规则

2-6 用数学抽象化开餐厅的生存条件

2-6-1 数学模型

2-6-2 经营数字预估

2-6-3 经营绩效的计算

2-7 基础数学的结论

第3章 认识方程式、函数、坐标图形

3-1 认识方程式

3-2 方程式文字描述方法

3-3 一元一次方程式

3-4 函数

3-5 坐标图形分析

3-5-1 坐标图形与线性关系

3-5-2 斜率与截距的意义

3-5-3 细看斜率

3-5-4 细看y截距

3-5-5 细看x截距

3-6 将线性函数应用于机器学习

3-6-1 再看直线函数与斜率

3-6-2 机器学习与线性回归

3-6-3 相同斜率平行移动

3-6-4 不同斜率与相同截距

3-6-5 不同斜率与不同截距

3-7 二元函数到多元函数

3-7-1 二元函数基本概念

3-7-2 二元函数的图形

3-7-3 等高线图

3-7-4 多元函数

3-8 Sympy模块

3-8-1 定义符号

3-8-2 name属性

3-8-3 定义多个符号变量

3-8-4 符号的运算

3-8-5 将数值代入公式

3-8-6 将字符串转为数学表达式

3-8-7 Sympy模块支持的数学函数

3-8-8 解一元一次方程式

第4章 从联立方程式看机器学习的数学模型

4-1 数学概念建立连接两点的直线

4-1-1 基础概念

4-1-2 联立方程式

4-1-3 使用加减法解联立方程式

4-1-4 使用代入法解联立方程式

4-1-5 使用Sympy解联立方程式

4-2 机器学习使用联立方程式推估数据

4-2-1 基本概念

4-2-2 数据推估

4-3 从两条直线的交叉点推估科学数据

4-3-1 鸡兔同笼

4-3-2 达成业绩目标

4-4 两条直线垂直交叉

4-4-1 基础概念

4-4-2 求解坐标某一点至一条直线的垂直线

第5章 从勾股定理看机器学习

5-1 验证勾股定理

5-1-1 认识直角三角形

5-1-2 验证勾股定理

5-2 将勾股定理应用于性向测试

5-2-1 问题核心分析

5-2-2 数据运算

5-3 将勾股定理应用于三维空间

5-4 将勾股定理应用于更高维的空间

5-5 电影分类

5-5-1 规划特征值

5-5-2 项目程序实操

5-5-3 电影分类结论

5-6 计算两个向量的欧几里得距离

第6章 联立不等式与机器学习

6-1 联立不等式与机器学习的关系

6-2 再看联立不等式的基本概念

6-3 联立不等式的线性规划

6-3-1 案例分析

6-3-2 用联立不等式表达

6-3-3 在坐标轴上绘不等式的区域

6-3-4 目标函数

6-3-5 平行移动目标函数

6-3-6 将交叉点坐标代入目标函数

6-4 Python计算

第7章 机器学习需要知道的二次函数

7-1 二次函数的基础数学

7-1-1 求一元二次方程式的根

7-1-2 绘制一元二次方程式的图形

7-1-3 一元二次方程式的最小值与最大值

7-1-4 一元二次函数参数整理

7-1-5 一元三次函数的图形特征

7-2 从一次到二次函数的实务

7-2-1 呈现好的变化

7-2-2 呈现不好的变化

7-3 认识二次函数的系数

7-4 使用3个点求解一元二次函数

7-4-1 手动求解一元二次函数

7-4-2 程序求解一元二次函数

7-4-3 绘制一元二次函数

7-4-4 使用业绩回推应有的拜访次数

7-5 二次函数的配方法

7-5-1 基本概念

7-5-2 配方法

7-5-3 从标准式计算二次函数的最大值

7-5-4 从标准式计算二次函数的最小值

7-6 二次函数与解答区间

7-6-1 营销问题分析

7-6-2 二次函数分析增加业绩的脸书营销次数

7-6-3 将不等式应用在条件区间

7-6-4 非实数根

第8章 机器学习的最小二乘法

8-1 最小二乘法基本概念

8-1-1 基本概念

8-1-2 数学观点

8-2 简单的企业实例

8-3 机器学习建立含误差值的线性方程式

8-3-1 概念启发

8-3-2 三项和的平方

8-3-3 公式推导

8-3-4 使用配方法计算直线的斜率和截距

8-4 Numpy实操最小二乘法

8-5 线性回归

8-6 实务应用

第9章 机器学习必须懂的集合

9-1 使用Python建立集合

9-1-1 使用{ }建立集合

9-1-2 集合元素是唯一的

9-1-3 使用set( )建立集合

9-1-4 集合的基数

9-1-5 建立空集合要用set( )

9-1-6 大数据与集合的应用

9-2 集合的操作

9-2-1 交集

9-2-2 并集

9-2-3 差集

9-2-4 对称差集

9-3 子集、超集与补集

9-3-1 子集

9-3-2 超集

9-3-3 补集

9-4 加入与删除集合元素

9-5 幂集与Sympy模块

9-5-1 Sympy模块与集合

9-5-2 建立幂集

9-5-3 幂集的元素个数

9-6 笛卡儿积

9-6-1 集合相乘

9-6-2 集合的n次方

第10章 机器学习必须懂的排列与组合

10-1 排列的基本概念

10-1-1 试验与事件

10-1-2 事件结果

10-2 有多少条回家路

10-3 排列组合

10-4 阶乘的概念

10-5 重复排列

10-6 组合

第11章 机器学习需要认识的概率

11-1 概率的基本概念

11-2 数学概率与统计概率

11-3 事件概率名称

11-4 事件概率规则

11-4-1 不发生概率

11-4-2 概率相加

11-4-3 概率相乘

11-4-4 常见的陷阱

11-5 抽奖的概率——加法与乘法综合应用

11-6 余事件与乘法的综合应用

11-7 条件概率

11-7-1 基础概念

11-7-2 再谈实例

11-8 贝叶斯定理

11-8-1 基本概念

11-8-2 用实例验证贝叶斯定理

11-8-3 贝叶斯定理的运用——COVID-19的全民普筛准确性推估

11-8-4 再看一个医学实例

11-8-5 贝叶斯定理筛选垃圾电子邮件的基础概念

11-8-6 垃圾邮件分类项目实操

11-9 蒙特卡洛模拟

11-10 Numpy的随机模块random

11-10-1 np.random.rand( )

11-10-2 np.random.randint( )

11-10-3 np.random.seed( )

11-10-4 np.random.shuffle( )

11-10-5 np.random.choice( )

11-10-6 使用随机数数组产生图像

第12章 二项式定理

12-1 二项式的定义

12-2 二项式的几何意义

12-3 二项式展开与规律性分析

12-4 找出xn~-kyk项的系数

12-4-1 基础概念

12-4-2 组合数学概念

12-4-3 系数公式推导与验证

12-5 二项式的通式

12-5-1 验证头尾系数比较

12-5-2 中间系数验证

12-6 二项式到多项式

12-7 二项分布实验

12-8 将二项式概念应用于业务数据分析

12-8-1 每5次销售0张考卷的概率

12-8-2 每5次销售1张考卷的概率

12-8-3 每5次销售2张考卷的概率

12-8-4 每5次销售0~2张考卷的概率

12-8-5 列出拜访5次销售k张考卷的概率通式

12-9 二项式概率分布Python实操

12-10 Numpy随机数模块的binomial( )函数

12-10-1 可视化模块Seaborn

12-10-2 Numpy的二项式随机函数binomial

第13章 指数概念与指数函数

13-1 认识指数函数

13-1-1 基础概念

13-1-2 复利计算实例

13-1-3 病毒复制

13-1-4 指数应用在价值衰减

13-1-5 用指数概念看iPhone容量

13-2 指数运算的规则

13-3 指数函数的图形

13-3-1 底数是变量的图形

13-3-2 指数是实数变量

13-3-3 指数是实数变量但底数小于1

第14章 对数

14-1 认识对数函数

14-1-1 对数的由来

14-1-2 从数学看指数的运作概念

14-1-3 再看对数函数

14-1-4 天文数字的处理

14-1-5 Python的对数函数应用

14-2 对数表的功能

14-2-1 对数表基础应用

14-2-2 更精确的对数表

14-3 对数运算可以解决指数运算的问题

14-3-1 用指数处理相当数值的近似值

14-3-2 使用对数简化运算

14-4 认识对数的特性

14-5 对数的运算规则与验证

14-5-1 等号两边使用对数处理结果不变

14-5-2 对数的真数是1

14-5-3 对数的底数等于真数

14-5-4 对数内真数的指数可以移到外面

14-5-5 对数内真数是两数据相乘结果是两数据各取对数后再相加

14-5-6 对数内真数是两数据相除结果是两数据先取对数后再相减

14-5-7 底数变换

第15章 欧拉数与逻辑函数

15-1 认识欧拉数

15-1-1 认识欧拉数

15-1-2 欧拉数的缘由

15-1-3 欧拉数使用公式做定义

15-1-4 计算与绘制欧拉数的函数图形

15-2 逻辑函数

15-2-1 认识逻辑函数

15-2-2 x是正无限大

15-2-3 x是0

15-2-4 x是负无限大

15-2-5 绘制逻辑函数

15-2-6 Sigmoid函数

15-3 logit函数

15-3-1 认识Odds

15-3-2 从Odds到logit函数

15-3-3 绘制logit函数

15-4 逻辑函数的应用

15-4-1 事件说明与分析

15-4-2 从逻辑函数到logit函数

15-4-3 使用logit函数获得系数

第16章 三角函数

16-1 直角三角形的边长与夹角

16-2 三角函数的定义

16-3 计算三角形的面积

16-3-1 计算直角三角形面积

16-3-2 计算非直角三角形面积

16-4 角度与弧度

16-4-1 角度的定义

16-4-2 弧度的由来

16-4-3 角度与弧度的换算

16-4-4 圆周弧长的计算

16-4-5 计算扇形面积

16-5 程序处理三角函数

16-6 从单位圆看三角函数

16-7 三角函数与机器学习的关系

第17章 基础统计与大型运算符

17-1 母体与样本

17-2 数据求和

17-3 数据分布

17-4 数据中心指针

17-4-1 平均数

17-4-2 中位数

17-4-3 众数

17-4-4 统计模块statistics的众数

17-4-5 分数分布图

17-5 数据分散指针

17-5-1 方差

17-5-2 标准差

17-6 ∑符号运算规则与验证

17-7 活用∑符号

17-8 回归分析

17-8-1 相关系数

17-8-2 建立线性回归模型与数据预测

17-8-3 二次函数的回归模型

17-9 随机函数的分布

17-9-1 randn( )

17-9-2 normal( )

17-9-3 uniform( )

第18章 机器学习的向量

18-1 向量的基础概念

18-1-1 机器学习的向量知识

18-1-2 认识标量

18-1-3 认识向量

18-1-4 向量表示法

18-1-5 计算向量分量

18-1-6 相对位置的向量

18-1-7 不同路径的向量运算

18-2 向量加法的规则

18-3 向量的长度

18-4 向量方程式

18-4-1 直线方程式

18-4-2 Python实操连接两点的方程式

18-4-3 使用向量建立回归方程式的理由

18-5 向量内积

18-5-1 协同工作的概念

18-5-2 计算B所帮的忙

18-5-3 向量内积的定义

18-5-4 两条直线的夹角

18-5-5 向量内积的性质

18-5-6 余弦相似度

18-6 皮尔逊相关系数

18-6-1 皮尔逊相关系数定义

18-6-2 网络购物问卷调查案例解说

18-6-3 向量内积计算系数

18-7 向量外积

18-7-1 法线向量

18-7-2 计算面积

第19章 机器学习的矩阵

19-1 矩阵的表达方式

19-1-1 矩阵的行与列

19-1-2 矩阵变量名称

19-1-3 常见的矩阵表达方式

19-1-4 矩阵元素表达方式

19-2 矩阵相加与相减

19-2-1 基础概念

19-2-2 Python实操

19-3 矩阵乘以实数

19-4 矩阵乘法

19-4-1 乘法基本规则

19-4-2 乘法案例

19-4-3 矩阵乘法规则

19-5 方阵

19-6 单位矩阵

19-7 逆矩阵

19-7-1 基础概念

19-7-2 Python实操

19-8 用逆矩阵解联立方程式

19-9 张量

19-10 转置矩阵

19-10-1 基础概念

19-10-2 Python实操

19-10-3 转置矩阵的规则

19-10-4 转置矩阵的应用

第20章 向量、矩阵与多元线性回归

20-1 向量应用于线性回归

20-2 向量应用于多元线性回归

20-3 矩阵应用于多元线性回归

20-4 将截距放入矩阵

20-5 简单的线性回归

第21章 三次函数回归曲线的程序实操

21-1 绘制数据的散点图

21-2 三次函数的回归曲线模型

21-3 使用Scikit-learn模块评估回归模型

21-3-1 评估机器学习模型的概念

21-3-2 评估模型

21-4 预测未来值

21-5 不适合三次函数回归的数据

21-5-1 绘制三次函数回归线

21-5-2 计算R平方判定系数

第22章 机器学习使用Scikit-learn入门

22-1 Scikit-learn的历史

22-2 机器学习的数据集

22-2-1 Scikit-learn内建的数据集

22-2-2 Kaggle数据集

22-2-3 UCI数据集

22-2-4 Scikit-learn函数生成数据

22-3 Scikit-learn生成数据实操

22-3-1 线性分布数据

22-3-2 群集分布数据

22-3-3 交错半月群集数据

22-3-4 环形结构分布的群集数据

22-3-5 产生n-class分类数据集

22-4 Scikit-learn数据预处理

22-4-1 标准化数据StandardScaler

22-4-2 设定数据区间MinMaxScaler

22-4-3 特殊数据缩放RobustScaler

22-5 机器学习Scikit-learn入门

22-5-1 身高与体重的数据

22-5-2 线性拟合数据LinearRegression

22-5-3 数据预测predict( )

22-5-4 模型的存储与开启

22-5-5 计算线性回归线的斜率和截距

22-5-6 R平方判定系数检验模型的性能

22-6 分类算法-机器学习模型的性能评估

22-6-1 计算精确度accuracy_score( )

22-6-2 召回率recall_score( )

22-6-3 F1分数f1_score( )

22-6-4 分类报告classification_report( )

22-6-5 混淆矩阵confusion_matrix( )

22-6-6 ROC_AUC分数

22-7 机器学习必须会的非数值数据转换

22-7-1 One-hot编码

22-7-2 特征名称由中文改为英文

22-7-3 数据对应map( )方法

22-7-4 标签转换LabelEncoder( )

22-8 机器学习算法

22-9 使用随机数据学习线性回归

22-9-1 建立训练数据与测试数据使用train_test_split( )

22-9-2 回归模型判断

22-9-3 score( )和r2_score( )方法的差异

第23章 线性回归(以波士顿房价为例)

23-1 从线性回归到多元线性回归

23-1-1 简单线性回归

23-1-2 多元线性回归

23-2 简单数据测试

23-2-1 身高、腰围与体重的测试

23-2-2 了解模型的优劣

23-3 波士顿房价数据集

23-3-1 认识波士顿房价数据集

23-3-2 输出数据集

23-4 用Pandas显示与预处理数据

23-4-1 用Pandas显示波士顿房价数据

23-4-2 将房价加入DataFrame

23-4-3 数据清洗

23-5 特征选择

23-6 使用最相关的特征做房价预估

23-6-1 绘制散点图

23-6-2 建立模型获得R平方判定系数、截距与系数

23-6-3 计算预估房价

23-6-4 绘制实际房价与预估房价

23-6-5 绘制3D的实际房价与预估房价

23-7 多项式回归

23-7-1 绘制散点图和回归直线

23-7-2 多项式回归公式

23-7-3 生成一元二次回归公式的多个特征项目

23-7-4 多项式特征应用在LinearRegression

23-7-5 机器学习理想模型

23-7-6 多元多项式的回归模型

23-7-7 绘制3D的实际房价与预估房价

23-8 用所有特征执行波士顿房价预估

23-9 残差图

23-10 梯度下降回归SGDRegressor( )

第24章 逻辑回归(以信用卡、葡萄酒、糖尿病为例)

24-1 浅谈线性回归的问题

24-2 逻辑回归概念回顾

24-2-1 基础概念复习

24-2-2 应用逻辑函数

24-2-3 线性回归与逻辑回归的差异

24-3 逻辑回归模型基础应用

24-3-1 语法基础

24-3-2 多分类算法解说

24-4 中国台湾信用卡持卡人数据集

24-4-1 认识UCI_Credit_Card.csv数据

24-4-2 挑选最重要的特征

24-4-3 用最相关的2个特征设计逻辑回归模型

24-4-4 使用全部的特征设计逻辑回归模型

24-5 葡萄酒数据

24-5-1 认识葡萄酒数据

24-5-2 使用逻辑回归算法执行葡萄酒分类

24-6 糖尿病数据

24-6-1 认识糖尿病数据

24-6-2 缺失值检查与处理

24-6-3 用直方图了解特征分布

24-6-4 用箱形图了解异常值

24-6-5 用所有特征值做糖尿病患者预估

24-6-6 绘制皮尔逊相关系数热力图

24-6-7 用最相关的皮尔逊系数做糖尿病预估

第25章 决策树(以葡萄酒、泰坦尼克号、Telco、Retail为例)

25-1 决策树基本概念

25-1-1 决策树应用在分类问题

25-1-2 决策树应用在回归问题

25-2 从天气数据认识决策树设计流程——分类应用

25-2-1 建立决策树模型对象

25-2-2 天气数据实例

25-3 葡萄酒数据——分类应用

25-3-1 默认条件处理葡萄酒数据

25-3-2 进一步认识决策树深度

25-3-3 绘制决策树图

25-4 泰坦尼克号——分类应用

25-4-1 认识泰坦尼克号数据集

25-4-2 决策树设计泰坦尼克号生存预测

25-4-3 交叉分析

25-5 Telco电信公司——分类应用

25-5-1 认识WA_Fn-UseC_-Telco-Customer-Churn.csv数据

25-5-2 决策树数据分析

25-5-3 了解特征对模型的重要性

25-5-4 交叉验证——决策树最佳深度调整

25-6 Retail Data Analytics——回归应用

25-6-1 用简单的数据预估房价

25-6-2 Retail Data Analytics数据

第26章 随机森林(以波士顿房价、泰坦尼克号、Telco、收入分析为例)

26-1 随机森林的基本概念

26-2 波士顿房价——回归应用

26-3 泰坦尼克号——分类应用

26-4 Telco客户流失——分类应用

26-5 美国成年人收入分析——分类应用

26-5-1 认识adult.csv数据

26-5-2 使用决策树处理年收入预估

26-5-3 决策树特征重要性

26-5-4 使用随机森林处理adult.csv文件

第27章 KNN算法(以鸢尾花、小行星撞地球为例)

27-1 KNN算法的基本概念

27-2 电影推荐、足球射门——分类应用

27-2-1 认识语法与简单实例

27-2-2 电影推荐

27-2-3 足球射门是否进球

27-2-4 绘制分类的决策边界

27-2-5 多分类模型的准确率分析

27-3 房价计算、选举准备香肠——回归应用

27-3-1 认识语法与简单实例

27-3-2 房价计算

27-3-3 选举造势与准备烤香肠数量

27-3-4 KNN模型的回归线分析

27-4 鸢尾花数据——分类应用

27-4-1 认识鸢尾花数据集

27-4-2 输出数据集

27-4-3 用Pandas显示鸢尾花数据

27-4-4 映射标签

27-4-5 绘制特征变量的散点图

27-4-6 绘制鸢尾花的决策边界

27-4-7 计算最优的k值

27-5 小行星撞地球——分类应用

27-5-1 认识NASA:Asteroids Classification

27-5-2 数据预处理

27-5-3 预测小行星撞地球的准确率

第28章 支持向量机(以鸢尾花、乳腺癌、汽车燃料为例)

28-1 支持向量机的基础概念

28-1-1 支持向量机的基本原理

28-1-2 最大区间的分割

28-1-3 认识支持向量、决策边界与超平面

28-1-4 超平面公式

28-2 支持向量机——分类应用的基础实例

28-2-1 绘制10个数据点

28-2-2 支持向量机的语法说明

28-2-3 推导超平面的斜率

28-2-4 绘制超平面和决策边界

28-2-5 数据分类

28-2-6 decision_function( )

28-3 从2维到3维的超平面

28-3-1 增加数据维度

28-3-2 计算3维的超平面公式与系数

28-3-3 绘制3维的超平面

28-4 认识核函数

28-4-1 linear

28-4-2 径向基函数——rbf

28-4-3 多项式函数——poly

28-4-4 支持向量机的方法

28-5 鸢尾花数据——分类应用

28-6 乳腺癌数据——分类应用

28-6-1 认识数据

28-6-2 线性支持向量机预测乳腺癌数据

28-6-3 不同核函数应用在乳腺癌数据

28-7 支持向量机——回归应用的基础实例

28-7-1 SVR( )语法说明

28-7-2 简单数据应用

28-7-3 电视购物广告效益分析

28-8 汽车燃耗效率数据集——回归分析

28-8-1 认识汽车燃耗效率数据集

28-8-2 使用SVR( )预测汽车燃料数据

第29章 单纯贝叶斯分类(以垃圾邮件、新闻分类、电影评论为例)

29-1 单纯贝叶斯分类原理

29-1-1 公式说明

29-1-2 简单实例

29-1-3 拉普拉斯平滑修正

29-2 词频向量模块——CountVerctorizer

29-3 多项式单纯贝叶斯模块——MultinomialNB

29-3-1 语法概念

29-3-2 文章分类实操

29-3-3 垃圾邮件分类

29-4 垃圾邮件分类——Spambase数据集

29-4-1 认识垃圾邮件数据集Spambase

29-4-2 垃圾邮件分类预测

29-5 新闻邮件分类——新闻数据集20newsgroups

29-5-1 认识新闻数据集20newsgroups

29-5-2 新闻分类预测

29-5-3 TfidfVectorizer模块——文件事前处理TF-IDF

29-5-4 输入文件做新闻分类

29-6 情感分析——IMDB电影评论数据集分析

29-6-1 基础概念实例

29-6-2 IMDB电影评论数据集

29-7 单纯贝叶斯分类于中文的应用

29-7-1 将中文字符串应用在CountVectorizer模块

29-7-2 jieba——结巴

29-7-3 jieba与CountVectorizer组合应用

29-7-4 简单中文情感分析程序

29-8 今日头条数据集

29-8-1 认识数据集

29-8-2 今日头条数据集实操

第30章 集成机器学习(以蘑菇、医疗保险、玻璃、加州房价为例)

30-1 集成学习的基本概念

30-1-1 基本概念

30-1-2 集合学习效果评估

30-2 集成学习——投票法Voting(鸢尾花、波士顿房价)

30-2-1 投票法——分类应用

30-2-2 投票法——回归应用

30-3 集成学习——装袋法Bagging(蘑菇、医疗保险)

30-3-1 装袋法——分类应用语法说明

30-3-2 蘑菇数据分类应用

30-3-3 装袋法——回归应用语法说明

30-3-4 医疗保险数据回归应用

30-4 集成学习——提升法AdaBoost(糖尿病、波士顿房价)

30-4-1 AdaBoost提升法——分类应用语法说明

30-4-2 AdaBoost提升法——回归应用语法说明

30-5 集成学习——提升法Gradient Boosting(玻璃、加州房价)

30-5-1 Gradient Boosting——分类应用语法说明

30-5-2 玻璃数据集分类的应用

30-5-3 Gradient Boosting——回归应用语法说明

30-5-4 加州房价数据集回归应用

30-6 集成学习——堆栈法Stacking(信用卡违约、房价预估)

30-6-1 StackingClassifier——分类应用语法说明

30-6-2 RidgeCV( )

30-6-3 StackingRegressor——回归应用语法说明

第31章 K均值聚类(以购物中心消费、葡萄酒评价为例)

31-1 认识无监督学习

31-1-1 回顾监督学习数据

31-1-2 无监督学习数据

31-1-3 无监督学习与监督学习的差异

31-1-4 无监督学习的应用

31-2 K均值算法

31-2-1 算法基础

31-2-2 Python硬功夫程序实操

31-3 Scikit-learn的KMeans模块

31-3-1 KMeans语法

31-3-2 聚类的基础实例

31-3-3 数据聚类的简单实例

31-4 评估聚类的效能

31-4-1 群内平方和

31-4-2 轮廓系数

31-4-3 调整兰德系数

31-5 最佳群集数量

31-5-1 肘点法

31-5-2 轮廓分析

31-6 消费分析——购物中心客户消费数据

31-6-1 认识Mall Customer Segmentation Data

31-6-2 收入与消费聚类

31-6-3 依据性别分析“年收入vs消费力”

31-6-4 依据年龄层分析“年收入vs消费力”

31-7 价格vs评价——葡萄酒Wine Reviews

31-7-1 认识Wine Reviews数据

第32章 PCA主成分分析(以手写数字、人脸数据为例)

32-1 PCA的基本概念

32-1-1 基本概念

32-1-2 PCA方法与基础数据实操

32-1-3 数据白化whiten

32-2 鸢尾花数据的PCA应用

32-2-1 鸢尾花数据降维

32-2-2 SVM与PCA在鸢尾花的应用

32-2-3 PCA主成分与原始特征的分析

32-3 数字辨识——手写数字digits dataset

32-3-1 认识手写数字数据集digits dataset

32-3-2 决策树与随机森林辨识手写数字

32-3-3 PCA与手写数字整合应用

32-4 人脸辨识——人脸数据Labeled Faces in the Wild

32-4-1 认识人脸数据LFW

32-4-2 人脸辨识预测

32-4-3 加上PCA的人脸辨识

第33章 阶层式分层(以小麦数据、老实泉为例)

33-1 认识阶层式聚类

33-2 凝聚型聚类

33-2-1 凝聚型聚类定义

33-2-2 简单实例解说linkage( )方法

33-2-3 单链接法说明

33-2-4 简单实例解说聚类方法

33-2-5 聚类方法ward( )

33-2-6 聚类数量的方法

33-2-7 凝聚型聚类AgglomerativeClustering

33-3 小麦数据集Seeds dataset

33-3-1 认识数据集Seeds dataset

33-3-2 凝聚型聚类应用在Seeds dataset

33-4 老实泉数据Old Faithful Geyser Data

33-4-1 认识老实泉数据集

33-4-2 绘制树形图

33-4-3 凝聚型聚类应用在老实泉数据

第34章 DBSCAN算法(以购物中心客户分析为例)

34-1 DBSCAN算法

34-1-1 DBSCAN算法的参数概念

34-1-2 点的定义

34-1-3 算法的步骤

34-2 Scikit-learn的DBSCAN模块

34-2-1 DBSCAN语法

34-2-2 DBSCAN算法基础实例

34-3 消费分析——购物中心客户消费数据

第35章 语音识别

35-1 语音转文字

35-1-1 建立模块与对象

35-1-2 开启音源

35-1-3 语音转文字

35-2 文字转语音

35-2-1 建立模块与对象

35-2-2 文字转语音方法

35-2-3 输出语音

累计评论(条) 个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部