全面、深剖析机器学习的算法原理和模型构建等核心技术 结合大量实例和两个实战项目案例展现各种算法的实际应用 详解监督学习、无监督学习和强化学习的理论基础与应用场景 详解模型训练中的风险函数、参数寻优方法,以及欠拟合与过拟合解决方案 深解析机器学习常用经典模型的基本原理及其Python实现 详解数据标准化、异常值检测、缺失值处理和特征筛选等数据预处理技术
售 价:¥
纸质售价:¥78.80购买纸书
温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印
为你推荐
内容简介
作者简介
前言
第1篇 机器学习基础知识
第1章 机器学习的基本概念
1.1 机器学习的定义
1.1.1 机器学习的相关学科
1.1.2 机器学习与统计学习
1.2 机器学习的作用
1.3 机器学习的分类
1.3.1 监督学习
1.3.2 无监督学习
1.3.3 强化学习
1.3.4 其他
1.4 习题
参考文献
第2章 机器学习的基本流程与模型
2.1 从一元线性回归开始
2.1.1 实例:梅花鹿湿重预测
2.1.2 模型求解
2.1.3 模型评价
2.2 机器学习模型
2.2.1 基本概念
2.2.2 参数模型与无参数模型
2.3 模型的训练过程
2.3.1 风险函数
2.3.2 参数寻优方法简介
2.4 模型的评价方法
2.4.1 评价拟合优度的常见指标
2.4.2 欠拟合与过拟合
2.4.3 防止过拟合的办法
2.5 简单的机器学习模型
2.5.1 一元非线性回归
2.5.2 MATLAB曲线拟合工具
2.5.3 KNN算法
2.6 小结
2.7 习题
参考文献
第3章 搭建机器学习环境并进行应用实践
3.1 搭建Python开发环境
3.1.1 安装Anaconda
3.1.2 安装OpenCV模块
3.2 MATLAB常用工具箱简介
3.2.1 函数句柄与搜索路径
3.2.2 优化工具箱
3.2.3 统计与机器学习工具箱
3.2.4 深度学习工具箱
3.2.5 其他有用的工具
3.3 多元线性回归及其Python实现
3.3.1 案例:Boston房价预测
3.3.2 多元线性回归的一般步骤
3.3.3 Python实现
3.3.4 Ridge回归
3.4 逻辑回归及其Python实现
3.4.1 逻辑回归的原理
3.4.2 逻辑回归的训练
3.4.3 分类阈值的选取
3.4.4 实例:鸢尾花分类问题
3.4.5 类别不均衡
3.4.6 多分类转换为二分类
3.5 习题
参考文献
第4章 基于Azure的机器学习云平台搭建
4.1 注册Azure
4.1.1 注册步骤
4.1.2 登录Azure
4.2 创建Azure机器学习工作区
4.2.1 订阅
4.2.2 创建机器学习工作区
4.3 使用Azure机器学习Notebook
4.3.1 启动工作室
4.3.2 新建Notebook
4.3.3 在Notebook中执行简单的机器学习任务
4.4 习题
第2篇 机器学习核心技术
第5章 模型训练的数学原理
5.1 风险函数
5.1.1 最小二乘法
5.1.2 极大似然法
5.1.3 极大后验假设法
5.1.4 基于信息论的风险函数
5.2 模型训练与优化问题
5.3 线性搜索
5.3.1 0.618法
5.3.2 步长选取准则
5.3.3 对应的搜索算法
5.4 常见的优化算法
5.4.1 梯度下降法
5.4.2 坐标下降法
5.4.3 牛顿法
5.4.4 拟牛顿法
5.4.5 收敛速率
5.4.6 几何分析
5.5 随机搜索算法
5.5.1 随机梯度下降法
5.5.2 单位化梯度
5.5.3 动量法
5.5.4 单位化结合动量法
5.6 约束优化方法
5.7 其他优化算法
5.7.1 网格寻优法
5.7.2 模拟退火法
5.7.3 遗传算法
5.8 习题
参考文献
第6章 多样性特征解析
6.1 类别变量处理
6.1.1 有序类别变量
6.1.2 无序类别变量
6.1.3 字典变量
6.1.4 变量离散化
6.2 文本处理
6.2.1 文本预处理
6.2.2 词汇处理
6.2.3 特征提取
6.2.4 网页处理
6.2.5 汉语言处理
6.3 图像处理
6.3.1 图像读取
6.3.2 图像转换
6.3.3 图像缩放
6.3.4 边缘检测
6.3.5 Harris边角检测
6.3.6 图像转特征
6.4 习题
参考文献
第7章 数据标准化与特征筛选
7.1 数据标准化
7.1.1 特征标准化
7.1.2 对稀疏矩阵的标准化
7.1.3 个体标准化
7.1.4 非线性标准化
7.2 异常值检测
7.2.1 四分差法
7.2.2 正态分布法
7.2.3 K-Means聚类法
7.2.4 LOF法
7.2.5 监督学习法
7.3 缺失值处理
7.3.1 统计量替代法
7.3.2 一元回归模型法
7.3.3 子模型法
7.4 特征过滤
7.4.1 维度灾难
7.4.2 方差过滤法
7.4.3 相关系数过滤法
7.4.4 单因素方差分析
7.4.5 递归特征删除
7.5 特征降维
7.5.1 主成分分析
7.5.2 PCA的核函数
7.6 习题
参考文献
第8章 贝叶斯分类器
8.1 贝叶斯理论
8.1.1 概率论基础
8.1.2 贝叶斯公式
8.2 朴素贝叶斯分类器
8.2.1 朴素贝叶斯分类器的原理
8.2.2 拉普拉斯修正
8.2.3 朴素贝叶斯分类器的Python实现
8.2.4 实例:邮件过滤器的实现
8.3 贝叶斯网络
8.3.1 贝叶斯网络的基本概念
8.3.2 贝叶斯网络的构成
8.3.3 贝叶斯网络的查询
8.3.4 贝叶斯网络的Python实现
8.4 半朴素贝叶斯分类器
8.4.1 删除法
8.4.2 删除结合法
8.4.3 网络法
8.5 习题
参考文献
第9章 广义线性模型
9.1 广义线性模型简介
9.1.1 经典线性模型的缺陷
9.1.2 广义线性模型的原理
9.2 指数族分布
9.2.1 指数族分布简介
9.2.2 常见的分布
9.3 模型求解
9.4 Softmax回归
9.4.1 Softmax回归的原理
9.4.2 模型训练
9.4.3 实例:手写体识别模型
9.5 习题
参考文献
第10章 支持向量机
10.1 支持向量机的基本原理
10.1.1 划分超平面与间隔
10.1.2 支持向量机的基本模型
10.2 支持向量分类器
10.2.1 线性硬间隔分类器
10.2.2 线性软间隔分类器
10.2.3 核函数与非线性分类器
10.2.4 ν支持向量分类器
10.3 支持向量回归机
10.3.1 ε带超平面
10.3.2 线性硬间隔回归机
10.3.3 线性软间隔回归机
10.3.4 ν支持向量机回归
10.4 支持向量机的Python实现
10.4.1 软间隔SVC的实现
10.4.2 核软间隔SVC
*10.4.3 ν-SVC的实现
10.4.4 软间隔SVR的实现
10.5 习题
参考文献
第11章 决策树
11.1 决策树简介
11.1.1 决策树的结构
11.1.2 决策树的使用
11.2 分类决策树
11.2.1 构造分类决策树
11.2.2 模型求解
11.2.3 剪枝处理
11.2.4 分类决策树的Python实现案例
11.3 回归决策树
11.3.1 模型训练与求解
11.3.2 回归决策树的Python实现案例
11.3.3 模型缺点与实践技巧
11.4 习题
参考文献
第12章 人工神经网络
12.1 人工神经网络简介
12.1.1 神经网络的原理
12.1.2 多层感知器
12.2 BP神经网络
12.2.1 BP神经网络的构成
12.2.2 BP神经网络的训练
12.2.3 BP神经网络的Python实现
12.2.4 Keras与Sklearn的交互
12.3 卷积神经网络
12.3.1 卷积层
12.3.2 池化层
12.3.3 Flatten层
12.3.4 卷积神经网络的Python实现
12.4 习题
参考文献
第13章 集成学习
13.1 集成学习简介
13.1.1 集成算法简介
13.1.2 集成学习的优点
13.2 Bagging集成与随机森林
13.2.1 Bagging集成的原理
13.2.2 随机森林的原理
13.2.3 Bagging集成与随机森林的Python实现
13.3 Boosting集成与AdaBoost集成
13.3.1 AdaBoost集成的原理
13.3.2 AdaBoost集成的Python实现
13.4 Stacking集成
13.4.1 Stacking集成的原理
13.4.2 Stacking集成的Python实现
13.5 习题
参考文献
第14章 模型的正则化
14.1 结构风险与正则化
14.1.1 经验风险与过拟合
14.1.2 结构风险与正则化
14.1.3 正则化的原理
14.2 常见模型的正则化
14.2.1 广义线性回归模型的正则化
14.2.2 其他模型的正则化
14.3 正则化的实现
14.3.1 Lasso与ElasticNet的正则化
14.3.2 Dropout的正则化
14.4 习题
参考文献
第15章 模型的评价与选择
15.1 没有免费午餐定理
15.2 模型评价指标
15.2.1 回归指标
15.2.2 分类指标
15.2.3 拆分数据集
15.3 模型选择
15.3.1 验证集法
15.3.2 自助采样法
15.3.3 交叉验证法
15.3.4 留一法
15.3.5 T检验法
15.4 参数选择
15.4.1 遍历法
15.4.2 网格寻优法
15.5 流程总结
15.5.1 选择模型的整体流程
15.5.2 案例:葡萄酒分类模型
15.6 习题
参考文献
第16章 无监督学习
16.1 聚类简介
16.2 K-Means聚类算法
16.2.1 K-Means聚类的原理
16.2.2 K-Means聚类的Python实现
16.2.3 K-Means聚类的缺点
16.3 GMM聚类
16.3.1 GMM的原理
16.3.2 GMM聚类的Python实现
16.3.3 聚类簇数的选择
16.3.4 GMM的缺点
16.4 谱聚类
16.4.1 谱聚类的原理
16.4.2 谱聚类算法
16.4.3 谱聚类的Python实现
16.4.4 谱聚类的优缺点
16.5 密度聚类
16.5.1 密度聚类算法的原理
16.5.2 密度聚类算法的Python实现
16.5.3 密度聚类算法的优缺点
16.6 深度自动编码器
16.6.1 深度自动编码器的原理
16.6.2 深度自动编码器的Python实现
16.7 习题
参考文献
第3篇 机器学习项目实战
第17章 行人检测项目
17.1 技术清单
17.2 项目描述
17.3 数据读取与预处理
17.3.1 读取图像
17.3.2 数据预处理
17.4 参数筛选与模型筛选
17.4.1 参数筛选
17.4.2 模型筛选
17.5 模型应用
17.6 动态窗口调整与行人检测模型的改进
第18章 厨余垃圾处理的指标预测项目
18.1 技术清单
18.2 项目描述
18.3 数据读取与预处理
18.4 参数筛选与模型筛选
18.4.1 参数筛选
18.4.2 模型筛选
18.5 神经网络预测产出物COD
18.5.1 BP神经网络
18.5.2 集成神经网络
18.6 VFA正常范围分析
18.7 预测产出物COD的挑战与解决方法
附录A Python语言基础知识
A.1 注释
A.2 导入模块
A.3 常用的数据结构
A.4 结构表达式
A.5 自定义函数
A.6 模块化编程
附录B 模型的保存与导入
B.1 保存与导入Sklearn模型
B.2 保存与导入Keras模型
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜