互联网
类型
可以朗读
语音朗读
259千字
字数
2025-08-01
发行日期
展开全部
主编推荐语
通俗讲解机器学习中的原理与算法,助你轻松入门机器学习。
内容简介
本书采用浅显易懂的文字,结合丰富的图表与416个Python程序实例,从机器学习必备的基础数学、统计、概率等理论逐步切入,让读者不再被艰深的数学公式所困扰。书中系统介绍了Scikit-learn的主要算法,如线性回归、决策树、随机森林、KNN与支持向量机等,并通过波士顿房价、信用卡风险、泰坦尼克号生存分析等真实案例,示范如何将理论有效转化为实际应用。
此外,本书也涵盖了特征选择、模型调校、数据预处理与机器学习效能评估等重要主题,提供给读者完整且实用的技能培养。书末更介绍了当前热门的语音识别技术,包括语音转文字及文字转语音,协助读者掌握前沿应用趋势。
目录
- 版权信息
- 内容简介
- 作者简介
- 前言
- 本书资源获取说明
- 第1章 机器学习基本概念
- 1-1 人工智能、机器学习、深度学习
- 1-2 认识机器学习
- 1-3 机器学习的种类
- 1-3-1 监督学习
- 1-3-2 无监督学习
- 1-3-3 强化学习
- 1-4 机器学习的应用范围
- 1-5 深度学习
- 第2章 机器学习的基础数学
- 2-1 用数字描绘事物
- 2-2 变量概念
- 2-3 从变量到函数
- 2-4 等式运算的规则
- 2-5 代数运算的基本规则
- 2-6 用数学抽象化开餐厅的生存条件
- 2-6-1 数学模型
- 2-6-2 经营数字预估
- 2-6-3 经营绩效的计算
- 2-7 基础数学的结论
- 第3章 认识方程式、函数、坐标图形
- 3-1 认识方程式
- 3-2 方程式文字描述方法
- 3-3 一元一次方程式
- 3-4 函数
- 3-5 坐标图形分析
- 3-5-1 坐标图形与线性关系
- 3-5-2 斜率与截距的意义
- 3-5-3 细看斜率
- 3-5-4 细看y截距
- 3-5-5 细看x截距
- 3-6 将线性函数应用于机器学习
- 3-6-1 再看直线函数与斜率
- 3-6-2 机器学习与线性回归
- 3-6-3 相同斜率平行移动
- 3-6-4 不同斜率与相同截距
- 3-6-5 不同斜率与不同截距
- 3-7 二元函数到多元函数
- 3-7-1 二元函数基本概念
- 3-7-2 二元函数的图形
- 3-7-3 等高线图
- 3-7-4 多元函数
- 3-8 Sympy模块
- 3-8-1 定义符号
- 3-8-2 name属性
- 3-8-3 定义多个符号变量
- 3-8-4 符号的运算
- 3-8-5 将数值代入公式
- 3-8-6 将字符串转为数学表达式
- 3-8-7 Sympy模块支持的数学函数
- 3-8-8 解一元一次方程式
- 第4章从联立方程式看机器学习的数学模型
- 4-1 数学概念建立连接两点的直线
- 4-1-1 基础概念
- 4-1-2 联立方程式
- 4-1-3 使用加减法解联立方程式
- 4-1-4 使用代入法解联立方程式
- 4-1-5 使用Sympy解联立方程式
- 4-2 机器学习使用联立方程式推估数据
- 4-2-1 基本概念
- 4-2-2 数据推估
- 4-3 从两条直线的交叉点推估科学数据
- 4-3-1 鸡兔同笼
- 4-3-2 达成业绩目标
- 4-4 两条直线垂直交叉
- 4-4-1 基础概念
- 4-4-2 求解坐标某一点至一条直线的垂直线
- 第5章 从勾股定理看机器学习
- 5-1 验证勾股定理
- 5-1-1 认识直角三角形
- 5-1-2 验证勾股定理
- 5-2 将勾股定理应用于性向测试
- 5-2-1 问题核心分析
- 5-2-2 数据运算
- 5-3 将勾股定理应用于三维空间
- 5-4 将勾股定理应用于更高维的空间
- 5-5 电影分类
- 5-5-1 规划特征值
- 5-5-2 项目程序实操
- 5-5-3 电影分类结论
- 5-6 计算两个向量的欧几里得距离
- 第6章 联立不等式与机器学习
- 6-1 联立不等式与机器学习的关系
- 6-2 再看联立不等式的基本概念
- 6-3 联立不等式的线性规划
- 6-3-1 案例分析
- 6-3-2 用联立不等式表达
- 6-3-3 在坐标轴上绘不等式的区域
- 6-3-4 目标函数
- 6-3-5 平行移动目标函数
- 6-3-6 将交叉点坐标代入目标函数
- 6-4 Python计算
- 第7章 机器学习需要知道的二次函数
- 7-1 二次函数的基础数学
- 7-1-1 求一元二次方程式的根
- 7-1-2 绘制一元二次方程式的图形
- 7-1-3 一元二次方程式的最小值与最大值
- 7-1-4 一元二次函数参数整理
- 7-1-5 一元三次函数的图形特征
- 7-2 从一次到二次函数的实务
- 7-2-1 呈现好的变化
- 7-2-2 呈现不好的变化
- 7-3 认识二次函数的系数
- 7-4 使用3个点求解一元二次函数
- 7-4-1 手动求解一元二次函数
- 7-4-2 程序求解一元二次函数
- 7-4-3 绘制一元二次函数
- 7-4-4 使用业绩回推应有的拜访次数
- 7-5 二次函数的配方法
- 7-5-1 基本概念
- 7-5-2 配方法
- 7-5-3 从标准式计算二次函数的最大值
- 7-5-4 从标准式计算二次函数的最小值
- 7-6 二次函数与解答区间
- 7-6-1 营销问题分析
- 7-6-2 二次函数分析增加业绩的脸书营销次数
- 7-6-3 将不等式应用在条件区间
- 7-6-4 非实数根
- 第8章 机器学习的最小二乘法
- 8-1 最小二乘法基本概念
- 8-1-1 基本概念
- 8-1-2 数学观点
- 8-2 简单的企业实例
- 8-3 机器学习建立含误差值的线性方程式
- 8-3-1 概念启发
- 8-3-2 三项和的平方
- 8-3-3 公式推导
- 8-3-4 使用配方法计算直线的斜率和截距
- 8-4 Numpy实操最小二乘法
- 8-5 线性回归
- 8-6 实务应用
- 第9章机器学习必须懂的集合
- 9-1 使用Python建立集合
- 9-1-1 使用{ }建立集合
- 9-1-2 集合元素是唯一的
- 9-1-3 使用set( )建立集合
- 9-1-4 集合的基数
- 9-1-5 建立空集合要用set( )
- 9-1-6 大数据与集合的应用
- 9-2 集合的操作
- 9-2-1 交集
- 9-2-2 并集
- 9-2-3 差集
- 9-2-4 对称差集
- 9-3 子集、超集与补集
- 9-3-1 子集
- 9-3-2 超集
- 9-3-3 补集
- 9-4 加入与删除集合元素
- 9-5 幂集与Sympy模块
- 9-5-1 Sympy模块与集合
- 9-5-2 建立幂集
- 9-5-3 幂集的元素个数
- 9-6 笛卡儿积
- 9-6-1 集合相乘
- 9-6-2 集合的n次方
- 第10章 机器学习必须懂的排列与组合
- 10-1 排列的基本概念
- 10-1-1 试验与事件
- 10-1-2 事件结果
- 10-2 有多少条回家路
- 10-3 排列组合
- 10-4 阶乘的概念
- 10-5 重复排列
- 10-6 组合
- 第11章 机器学习需要认识的概率
- 11-1 概率的基本概念
- 11-2 数学概率与统计概率
- 11-3 事件概率名称
- 11-4 事件概率规则
- 11-4-1 不发生概率
- 11-4-2 概率相加
- 11-4-3 概率相乘
- 11-4-4 常见的陷阱
- 11-5 抽奖的概率——加法与乘法综合应用
- 11-6 余事件与乘法的综合应用
- 11-7 条件概率
- 11-7-1 基础概念
- 11-7-2 再谈实例
- 11-8 贝叶斯定理
- 11-8-1 基本概念
- 11-8-2 用实例验证贝叶斯定理
- 11-8-3 贝叶斯定理的运用——COVID-19的全民普筛准确性推估
- 11-8-4 再看一个医学实例
- 11-8-5 贝叶斯定理筛选垃圾电子邮件的基础概念
- 11-8-6 垃圾邮件分类项目实操
- 11-9 蒙特卡洛模拟
- 11-10 Numpy的随机模块random
- 11-10-1 np.random.rand( )
- 11-10-2 np.random.randint( )
- 11-10-3 np.random.seed( )
- 11-10-4 np.random.shuffle( )
- 11-10-5 np.random.choice( )
- 11-10-6 使用随机数数组产生图像
- 第12章 二项式定理
- 12-1 二项式的定义
- 12-2 二项式的几何意义
- 12-3 二项式展开与规律性分析
- 12-4 找出xn-kyk项的系数
- 12-4-1 基础概念
- 12-4-2 组合数学概念
- 12-4-3 系数公式推导与验证
- 12-5 二项式的通式
- 12-5-1 验证头尾系数比较
- 12-5-2 中间系数验证
- 12-6 二项式到多项式
- 12-7 二项分布实验
- 12-8 将二项式概念应用于业务数据分析
- 12-8-1 每5次销售0张考卷的概率
- 12-8-2 每5次销售1张考卷的概率
- 12-8-3 每5次销售2张考卷的概率
- 12-8-4 每5次销售0~2张考卷的概率
- 12-8-5 列出拜访5次销售k张考卷的概率通式
- 12-9 二项式概率分布Python实操
- 12-10 Numpy随机数模块的binomial( )函数
- 12-10-1 可视化模块Seaborn
- 12-10-2 Numpy的二项式随机函数binomial
- 第13章 指数概念与指数函数
- 13-1 认识指数函数
- 13-1-1 基础概念
- 13-1-2 复利计算实例
- 13-1-3 病毒复制
- 13-1-4 指数应用在价值衰减
- 13-1-5 用指数概念看iPhone容量
- 13-2 指数运算的规则
- 13-3 指数函数的图形
- 13-3-1 底数是变量的图形
- 13-3-2 指数是实数变量
- 13-3-3 指数是实数变量但底数小于1
- 第14章 对数
- 14-1 认识对数函数
- 14-1-1 对数的由来
- 14-1-2 从数学看指数的运作概念
- 14-1-3 再看对数函数
- 14-1-4 天文数字的处理
- 14-1-5 Python的对数函数应用
- 14-2 对数表的功能
- 14-2-1 对数表基础应用
- 14-2-2 更精确的对数表
- 14-3 对数运算可以解决指数运算的问题
- 14-3-1 用指数处理相当数值的近似值
- 14-3-2 使用对数简化运算
- 14-4 认识对数的特性
- 14-5 对数的运算规则与验证
- 14-5-1 等号两边使用对数处理结果不变
- 14-5-2 对数的真数是1
- 14-5-3 对数的底数等于真数
- 14-5-4 对数内真数的指数可以移到外面
- 14-5-5 对数内真数是两数据相乘结果是两数据各取对数后再相加
- 14-5-6 对数内真数是两数据相除结果是两数据先取对数后再相减
- 14-5-7 底数变换
- 第15章欧拉数与逻辑函数
- 15-1 认识欧拉数
- 15-1-1 认识欧拉数
- 15-1-2 欧拉数的缘由
- 15-1-3 欧拉数使用公式做定义
- 15-1-4 计算与绘制欧拉数的函数图形
- 15-2 逻辑函数
- 15-2-1 认识逻辑函数
- 15-2-2 x是正无限大
- 15-2-3 x是0
- 15-2-4 x是负无限大
- 15-2-5 绘制逻辑函数
- 15-2-6 Sigmoid函数
- 15-3 logit函数
- 15-3-1 认识Odds
- 15-3-2 从Odds到logit函数
- 15-3-3 绘制logit函数
- 15-4 逻辑函数的应用
- 15-4-1 事件说明与分析
- 15-4-2 从逻辑函数到logit函数
- 15-4-3 使用logit函数获得系数
- 第16章 三角函数
- 16-1 直角三角形的边长与夹角
- 16-2 三角函数的定义
- 16-3 计算三角形的面积
- 16-3-1 计算直角三角形面积
- 16-3-2 计算非直角三角形面积
- 16-4 角度与弧度
- 16-4-1 角度的定义
- 16-4-2 弧度的由来
- 16-4-3 角度与弧度的换算
- 16-4-4 圆周弧长的计算
- 16-4-5 计算扇形面积
- 16-5 程序处理三角函数
- 16-6 从单位圆看三角函数
- 16-7 三角函数与机器学习的关系
- 第17章 基础统计与大型运算符
- 17-1 母体与样本
- 17-2 数据求和
- 17-3 数据分布
- 17-4 数据中心指针
- 17-4-1 平均数
- 17-4-2 中位数
- 17-4-3 众数
- 17-4-4 统计模块statistics的众数
- 17-4-5 分数分布图
- 17-5 数据分散指针
- 17-5-1 方差
- 17-5-2 标准差
- 17-6 ∑符号运算规则与验证
- 17-7 活用∑符号
- 17-8 回归分析
- 17-8-1 相关系数
- 17-8-2 建立线性回归模型与数据预测
- 17-8-3 二次函数的回归模型
- 17-9 随机函数的分布
- 17-9-1 randn( )
- 17-9-2 normal( )
- 17-9-3 uniform( )
- 第18章 机器学习的向量
- 18-1 向量的基础概念
- 18-1-1 机器学习的向量知识
- 18-1-2 认识标量
- 18-1-3 认识向量
- 18-1-4 向量表示法
- 18-1-5 计算向量分量
- 18-1-6 相对位置的向量
- 18-1-7 不同路径的向量运算
- 18-2 向量加法的规则
- 18-3 向量的长度
- 18-4 向量方程式
- 18-4-1 直线方程式
- 18-4-2 Python实操连接两点的方程式
- 18-4-3 使用向量建立回归方程式的理由
- 18-5 向量内积
- 18-5-1 协同工作的概念
- 18-5-2 计算B所帮的忙
- 18-5-3 向量内积的定义
- 18-5-4 两条直线的夹角
- 18-5-5 向量内积的性质
- 18-5-6 余弦相似度
- 18-6 皮尔逊相关系数
- 18-6-1 皮尔逊相关系数定义
- 18-6-2 网络购物问卷调查案例解说
- 18-6-3 向量内积计算系数
- 18-7 向量外积
- 18-7-1 法线向量
- 18-7-2 计算面积
- 第19章 机器学习的矩阵
- 19-1 矩阵的表达方式
- 19-1-1 矩阵的行与列
- 19-1-2 矩阵变量名称
- 19-1-3 常见的矩阵表达方式
- 19-1-4 矩阵元素表达方式
- 19-2 矩阵相加与相减
- 19-2-1 基础概念
- 19-2-2 Python实操
- 19-3 矩阵乘以实数
- 19-4 矩阵乘法
- 19-4-1 乘法基本规则
- 19-4-2 乘法案例
- 19-4-3 矩阵乘法规则
- 19-5 方阵
- 19-6 单位矩阵
- 19-7 逆矩阵
- 19-7-1 基础概念
- 19-7-2 Python实操
- 19-8 用逆矩阵解联立方程式
- 19-9 张量
- 19-10 转置矩阵
- 19-10-1 基础概念
- 19-10-2 Python实操
- 19-10-3 转置矩阵的规则
- 19-10-4 转置矩阵的应用
- 第20章 向量、矩阵与多元线性回归
- 20-1 向量应用于线性回归
- 20-2 向量应用于多元线性回归
- 20-3 矩阵应用于多元线性回归
- 20-4 将截距放入矩阵
- 20-5 简单的线性回归
- 第21章 三次函数回归曲线的程序实操
- 21-1 绘制数据的散点图
- 21-2 三次函数的回归曲线模型
- 21-3 使用Scikit-learn模块评估回归模型
- 21-3-1 评估机器学习模型的概念
- 21-3-2 评估模型
- 21-4 预测未来值
- 21-5 不适合三次函数回归的数据
- 21-5-1 绘制三次函数回归线
- 21-5-2 计算R平方判定系数
- 第22章 机器学习使用Scikit-learn入门
- 22-1 Scikit-learn的历史
- 22-2 机器学习的数据集
- 22-2-1 Scikit-learn内建的数据集
- 22-2-2 Kaggle数据集
- 22-2-3 UCI数据集
- 22-2-4 Scikit-learn函数生成数据
- 22-3 Scikit-learn生成数据实操
- 22-3-1 线性分布数据
- 22-3-2 群集分布数据
- 22-3-3 交错半月群集数据
- 22-3-4 环形结构分布的群集数据
- 22-3-5 产生n-class分类数据集
- 22-4 Scikit-learn数据预处理
- 22-4-1 标准化数据StandardScaler
- 22-4-2 设定数据区间MinMaxScaler
- 22-4-3 特殊数据缩放RobustScaler
- 22-5 机器学习Scikit-learn入门
- 22-5-1 身高与体重的数据
- 22-5-2 线性拟合数据LinearRegression
- 22-5-3 数据预测predict( )
- 22-5-4 模型的存储与开启
- 22-5-5 计算线性回归线的斜率和截距
- 22-5-6 R平方判定系数检验模型的性能
- 22-6 分类算法-机器学习模型的性能评估
- 22-6-1 计算精确度accuracy_score( )
- 22-6-2 召回率recall_score( )
- 22-6-3 F1分数f1_score( )
- 22-6-4 分类报告classification_report( )
- 22-6-5 混淆矩阵confusion_matrix( )
- 22-6-6 ROC_AUC分数
- 22-7 机器学习必须会的非数值数据转换
- 22-7-1 One-hot编码
- 22-7-2 特征名称由中文改为英文
- 22-7-3 数据对应map( )方法
- 22-7-4 标签转换LabelEncoder( )
- 22-8 机器学习算法
- 22-9 使用随机数据学习线性回归
- 22-9-1 建立训练数据与测试数据使用train_test_split( )
- 22-9-2 回归模型判断
- 22-9-3 score( )和r2_score( )方法的差异
- 第23章线性回归(以波士顿房价为例)
- 23-1 从线性回归到多元线性回归
- 23-1-1 简单线性回归
- 23-1-2 多元线性回归
- 23-2 简单数据测试
- 23-2-1 身高、腰围与体重的测试
- 23-2-2 了解模型的优劣
- 23-3 波士顿房价数据集
- 23-3-1 认识波士顿房价数据集
- 23-3-2 输出数据集
- 23-4 用Pandas显示与预处理数据
- 23-4-1 用Pandas显示波士顿房价数据
- 23-4-2 将房价加入DataFrame
- 23-4-3 数据清洗
- 23-5 特征选择
- 23-6 使用最相关的特征做房价预估
- 23-6-1 绘制散点图
- 23-6-2 建立模型获得R平方判定系数、截距与系数
- 23-6-3 计算预估房价
- 23-6-4 绘制实际房价与预估房价
- 23-6-5 绘制3D的实际房价与预估房价
- 23-7 多项式回归
- 23-7-1 绘制散点图和回归直线
- 23-7-2 多项式回归公式
- 23-7-3 生成一元二次回归公式的多个特征项目
- 23-7-4 多项式特征应用在LinearRegression
- 23-7-5 机器学习理想模型
- 23-7-6 多元多项式的回归模型
- 23-7-7 绘制3D的实际房价与预估房价
- 23-8 用所有特征执行波士顿房价预估
- 23-9 残差图
- 23-10 梯度下降回归SGDRegressor( )
- 第24章 逻辑回归(以信用卡、葡萄酒、糖尿病为例)
- 24-1 浅谈线性回归的问题
- 24-2 逻辑回归概念回顾
- 24-2-1 基础概念复习
- 24-2-2 应用逻辑函数
- 24-2-3 线性回归与逻辑回归的差异
- 24-3 逻辑回归模型基础应用
- 24-3-1 语法基础
- 24-3-2 多分类算法解说
- 24-4 中国台湾信用卡持卡人数据集
- 24-4-1 认识UCI_Credit_Card.csv数据
- 24-4-2 挑选最重要的特征
- 24-4-3 用最相关的2个特征设计逻辑回归模型
- 24-4-4 使用全部的特征设计逻辑回归模型
- 24-5 葡萄酒数据
- 24-5-1 认识葡萄酒数据
- 24-5-2 使用逻辑回归算法执行葡萄酒分类
- 24-6 糖尿病数据
- 24-6-1 认识糖尿病数据
- 24-6-2 缺失值检查与处理
- 24-6-3 用直方图了解特征分布
- 24-6-4 用箱形图了解异常值
- 24-6-5 用所有特征值做糖尿病患者预估
- 24-6-6 绘制皮尔逊相关系数热力图
- 24-6-7 用最相关的皮尔逊系数做糖尿病预估
- 第25章决策树(以葡萄酒、泰坦尼克号、Telco、Retail为例)
- 25-1 决策树基本概念
- 25-1-1 决策树应用在分类问题
- 25-1-2 决策树应用在回归问题
- 25-2 从天气数据认识决策树设计流程——分类应用
- 25-2-1 建立决策树模型对象
- 25-2-2 天气数据实例
- 25-3 葡萄酒数据——分类应用
- 25-3-1 默认条件处理葡萄酒数据
- 25-3-2 进一步认识决策树深度
- 25-3-3 绘制决策树图
- 25-4 泰坦尼克号——分类应用
- 25-4-1 认识泰坦尼克号数据集
- 25-4-2 决策树设计泰坦尼克号生存预测
- 25-4-3 交叉分析
- 25-5 Telco电信公司——分类应用
- 25-5-1 认识WA_Fn-UseC_-Telco-Customer-Churn.csv数据
- 25-5-2 决策树数据分析
- 25-5-3 了解特征对模型的重要性
- 25-5-4 交叉验证——决策树最佳深度调整
- 25-6 Retail Data Analytics——回归应用
- 25-6-1 用简单的数据预估房价
- 25-6-2 Retail Data Analytics数据
- 第26章 随机森林(以波士顿房价、泰坦尼克号、Telco、收入分析为例)
- 26-1 随机森林的基本概念
- 26-2 波士顿房价——回归应用
- 26-3 泰坦尼克号——分类应用
- 26-4 Telco客户流失——分类应用
- 26-5 美国成年人收入分析——分类应用
- 26-5-1 认识adult.csv数据
- 26-5-2 使用决策树处理年收入预估
- 26-5-3 决策树特征重要性
- 26-5-4 使用随机森林处理adult.csv文件
- 第27章 KNN算法(以鸢尾花、小行星撞地球为例)
- 27-1 KNN算法的基本概念
- 27-2 电影推荐、足球射门——分类应用
- 27-2-1 认识语法与简单实例
- 27-2-2 电影推荐
- 27-2-3 足球射门是否进球
- 27-2-4 绘制分类的决策边界
- 27-2-5 多分类模型的准确率分析
- 27-3 房价计算、选举准备香肠——回归应用
- 27-3-1 认识语法与简单实例
- 27-3-2 房价计算
- 27-3-3 选举造势与准备烤香肠数量
- 27-3-4 KNN模型的回归线分析
- 27-4 鸢尾花数据——分类应用
- 27-4-1 认识鸢尾花数据集
- 27-4-2 输出数据集
- 27-4-3 用Pandas显示鸢尾花数据
- 27-4-4 映射标签
- 27-4-5 绘制特征变量的散点图
- 27-4-6 绘制鸢尾花的决策边界
- 27-4-7 计算最优的k值
- 27-5 小行星撞地球——分类应用
- 27-5-1 认识NASA:Asteroids Classification
- 27-5-2 数据预处理
- 27-5-3 预测小行星撞地球的准确率
- 第28章支持向量机(以鸢尾花、乳腺癌、汽车燃料为例)
- 28-1 支持向量机的基础概念
- 28-1-1 支持向量机的基本原理
- 28-1-2 最大区间的分割
- 28-1-3 认识支持向量、决策边界与超平面
- 28-1-4 超平面公式
- 28-2 支持向量机——分类应用的基础实例
- 28-2-1 绘制10个数据点
- 28-2-2 支持向量机的语法说明
- 28-2-3 推导超平面的斜率
- 28-2-4 绘制超平面和决策边界
- 28-2-5 数据分类
- 28-2-6 decision_function( )
- 28-3 从2维到3维的超平面
- 28-3-1 增加数据维度
- 28-3-2 计算3维的超平面公式与系数
- 28-3-3 绘制3维的超平面
- 28-4 认识核函数
- 28-4-1 linear
- 28-4-2 径向基函数——rbf
- 28-4-3 多项式函数——poly
- 28-4-4 支持向量机的方法
- 28-5 鸢尾花数据——分类应用
- 28-6 乳腺癌数据——分类应用
- 28-6-1 认识数据
- 28-6-2 线性支持向量机预测乳腺癌数据
- 28-6-3 不同核函数应用在乳腺癌数据
- 28-7 支持向量机——回归应用的基础实例
- 28-7-1 SVR( )语法说明
- 28-7-2 简单数据应用
- 28-7-3 电视购物广告效益分析
- 28-8 汽车燃耗效率数据集——回归分析
- 28-8-1 认识汽车燃耗效率数据集
- 28-8-2 使用SVR( )预测汽车燃料数据
- 第29章单纯贝叶斯分类(以垃圾邮件、新闻分类、电影评论为例)
- 29-1 单纯贝叶斯分类原理
- 29-1-1 公式说明
- 29-1-2 简单实例
- 29-1-3 拉普拉斯平滑修正
- 29-2 词频向量模块——CountVerctorizer
- 29-3 多项式单纯贝叶斯模块——MultinomialNB
- 29-3-1 语法概念
- 29-3-2 文章分类实操
- 29-3-3 垃圾邮件分类
- 29-4 垃圾邮件分类——Spambase数据集
- 29-4-1 认识垃圾邮件数据集Spambase
- 29-4-2 垃圾邮件分类预测
- 29-5 新闻邮件分类——新闻数据集20newsgroups
- 29-5-1 认识新闻数据集20newsgroups
- 29-5-2 新闻分类预测
- 29-5-3 TfidfVectorizer模块——文件事前处理TF-IDF
- 29-5-4 输入文件做新闻分类
- 29-6 情感分析——IMDB电影评论数据集分析
- 29-6-1 基础概念实例
- 29-6-2 IMDB电影评论数据集
- 29-7 单纯贝叶斯分类于中文的应用
- 29-7-1 将中文字符串应用在CountVectorizer模块
- 29-7-2 jieba——结巴
- 29-7-3 jieba与CountVectorizer组合应用
- 29-7-4 简单中文情感分析程序
- 29-8 今日头条数据集
- 29-8-1 认识数据集
- 29-8-2 今日头条数据集实操
- 第30章 集成机器学习(以蘑菇、医疗保险、玻璃、加州房价为例)
- 30-1 集成学习的基本概念
- 30-1-1 基本概念
- 30-1-2 集合学习效果评估
- 30-2 集成学习——投票法Voting(鸢尾花、波士顿房价)
- 30-2-1 投票法——分类应用
- 30-2-2 投票法——回归应用
- 30-3 集成学习——装袋法Bagging(蘑菇、医疗保险)
- 30-3-1 装袋法——分类应用语法说明
- 30-3-2 蘑菇数据分类应用
- 30-3-3 装袋法——回归应用语法说明
- 30-3-4 医疗保险数据回归应用
- 30-4 集成学习——提升法AdaBoost(糖尿病、波士顿房价)
- 30-4-1 AdaBoost提升法——分类应用语法说明
- 30-4-2 AdaBoost提升法——回归应用语法说明
- 30-5 集成学习——提升法Gradient Boosting(玻璃、加州房价)
- 30-5-1 Gradient Boosting——分类应用语法说明
- 30-5-2 玻璃数据集分类的应用
- 30-5-3 Gradient Boosting——回归应用语法说明
- 30-5-4 加州房价数据集回归应用
- 30-6 集成学习——堆栈法Stacking(信用卡违约、房价预估)
- 30-6-1 StackingClassifier——分类应用语法说明
- 30-6-2 RidgeCV( )
- 30-6-3 StackingRegressor——回归应用语法说明
- 第31章K均值聚类(以购物中心消费、葡萄酒评价为例)
- 31-1 认识无监督学习
- 31-1-1 回顾监督学习数据
- 31-1-2 无监督学习数据
- 31-1-3 无监督学习与监督学习的差异
- 31-1-4 无监督学习的应用
- 31-2 K均值算法
- 31-2-1 算法基础
- 31-2-2 Python硬功夫程序实操
- 31-3 Scikit-learn的KMeans模块
- 31-3-1 KMeans语法
- 31-3-2 聚类的基础实例
- 31-3-3 数据聚类的简单实例
- 31-4 评估聚类的效能
- 31-4-1 群内平方和
- 31-4-2 轮廓系数
- 31-4-3 调整兰德系数
- 31-5 最佳群集数量
- 31-5-1 肘点法
- 31-5-2 轮廓分析
- 31-6 消费分析——购物中心客户消费数据
- 31-6-1 认识Mall Customer Segmentation Data
- 31-6-2 收入与消费聚类
- 31-6-3 依据性别分析“年收入vs消费力”
- 31-6-4 依据年龄层分析“年收入vs消费力”
- 31-7 价格vs评价——葡萄酒Wine Reviews
- 31-7-1 认识Wine Reviews数据
- 第32章PCA主成分分析(以手写数字、人脸数据为例)
- 32-1 PCA的基本概念
- 32-1-1 基本概念
- 32-1-2 PCA方法与基础数据实操
- 32-1-3 数据白化whiten
- 32-2 鸢尾花数据的PCA应用
- 32-2-1 鸢尾花数据降维
- 32-2-2 SVM与PCA在鸢尾花的应用
- 32-2-3 PCA主成分与原始特征的分析
- 32-3 数字辨识——手写数字digits dataset
- 32-3-1 认识手写数字数据集digits dataset
- 32-3-2 决策树与随机森林辨识手写数字
- 32-3-3 PCA与手写数字整合应用
- 32-4 人脸辨识——人脸数据Labeled Faces in the Wild
- 32-4-1 认识人脸数据LFW
- 32-4-2 人脸辨识预测
- 32-4-3 加上PCA的人脸辨识
- 第33章 阶层式分层(以小麦数据、老实泉为例)
- 33-1 认识阶层式聚类
- 33-2 凝聚型聚类
- 33-2-1 凝聚型聚类定义
- 33-2-2 简单实例解说linkage( )方法
- 33-2-3 单链接法说明
- 33-2-4 简单实例解说聚类方法
- 33-2-5 聚类方法ward( )
- 33-2-6 聚类数量的方法
- 33-2-7 凝聚型聚类AgglomerativeClustering
- 33-3 小麦数据集Seeds dataset
- 33-3-1 认识数据集Seeds dataset
- 33-3-2 凝聚型聚类应用在Seeds dataset
- 33-4 老实泉数据Old Faithful Geyser Data
- 33-4-1 认识老实泉数据集
- 33-4-2 绘制树形图
- 33-4-3 凝聚型聚类应用在老实泉数据
- 第34章 DBSCAN算法(以购物中心客户分析为例)
- 34-1 DBSCAN算法
- 34-1-1 DBSCAN算法的参数概念
- 34-1-2 点的定义
- 34-1-3 算法的步骤
- 34-2 Scikit-learn的DBSCAN模块
- 34-2-1 DBSCAN语法
- 34-2-2 DBSCAN算法基础实例
- 34-3 消费分析——购物中心客户消费数据
- 第35章 语音识别
- 35-1 语音转文字
- 35-1-1 建立模块与对象
- 35-1-2 开启音源
- 35-1-3 语音转文字
- 35-2 文字转语音
- 35-2-1 建立模块与对象
- 35-2-2 文字转语音方法
- 35-2-3 输出语音
展开全部
出版方
清华大学出版社
清华大学出版社成立于1980年6月,是由教育部主管、清华大学主办的综合出版单位。植根于“清华”这座久负盛名的高等学府,秉承清华人“自强不息,厚德载物”的人文精神,清华大学出版社在短短二十多年的时间里,迅速成长起来。清华大学出版社始终坚持弘扬科技文化产业、服务科教兴国战略的出版方向,把出版高等学校教学用书和科技图书作为主要任务,并为促进学术交流、繁荣出版事业设立了多项出版基金,逐渐形成了以出版高水平的教材和学术专著为主的鲜明特色,在教育出版领域树立了强势品牌。
