4.8 用户推荐指数
人工智能
类型
9.3
豆瓣评分
可以朗读
语音朗读
291千字
字数
2020-10-01
发行日期
展开全部
主编推荐语
轻松入门机器学习,理论实战并重,适合零基础学习者。
内容简介
本书内容轻松,但涵盖面很广,实战性也很强,主要包括机器学习的基本原理、机器学习相关的极简数学知识和Python语法、机器学习相关算法(线性回归、逻辑回归)、深度神经网络、卷积神经网络、循环神经网络、监督学习和无监督学习、强化学习等内容及各项内容的实战案例等。 本书适合对AI感兴趣的程序员、项目经理、在校大学生以及任何想以零基础入门机器学习的人,用以入门机器学习领域,建立从理论到实战的知识通道。
目录
- 版权信息
- 内容提要
- 推荐语
- 前言
- 资源与支持
- 引子 AI菜鸟的挑战——100天上线智能预警系统
- 第1课 机器学习快速上手路径——唯有实战
- 1.1 机器学习的家族谱
- 1.1.1 新手入门机器学习的3个好消息
- 1.1.2 机器学习就是从数据中发现规律
- 1.1.3 机器学习的类别——监督学习及其他
- 1.1.4 机器学习的重要分支——深度学习
- 1.1.5 机器学习新热点——强化学习
- 1.1.6 机器学习的两大应用场景——回归与分类
- 1.1.7 机器学习的其他应用场景
- 1.2 快捷的云实战学习模式
- 1.2.1 在线学习平台上的机器学习课程
- 1.2.2 用Jupyter Notebook直接实战
- 1.2.3 用Google Colab开发第一个机器学习程序
- 1.2.4 在Kaggle上参与机器学习竞赛
- 1.2.5 在本机上“玩”机器学习
- 1.3 基本机器学习术语
- 1.3.1 特征
- 1.3.2 标签
- 1.3.3 模型
- 1.4 Python和机器学习框架
- 1.4.1 为什么选择用Python
- 1.4.2 机器学习和深度学习框架
- 1.5 机器学习项目实战架构
- 1.5.1 第1个环节:问题定义
- 1.5.2 第2个环节:数据的收集和预处理
- 1.5.3 第3个环节:选择机器学习模型
- 1.5.4 第4个环节:训练机器,确定参数
- 1.5.5 第5个环节:超参数调试和性能优化
- 1.6 本课内容小结
- 1.7 课后练习
- 第2课 数学和Python基础知识——一天搞定
- 2.1 函数描述了事物间的关系
- 2.1.1 什么是函数
- 2.1.2 机器学习中的函数
- 2.2 捕捉函数的变化趋势
- 2.2.1 连续性是求导的前提条件
- 2.2.2 通过求导发现y如何随x而变
- 2.2.3 凸函数有一个全局最低点
- 2.3 梯度下降是机器学习的动力之源
- 2.3.1 什么是梯度
- 2.3.2 梯度下降:下山的隐喻
- 2.3.3 梯度下降有什么用
- 2.4 机器学习的数据结构——张量
- 2.4.1 张量的轴、阶和形状
- 2.4.2 标量——0D(阶)张量
- 2.4.3 向量——1D(阶)张量
- 2.4.4 矩阵——2D(阶)张量
- 2.4.5 序列数据——3D(阶)张量
- 2.4.6 图像数据——4D(阶)张量
- 2.4.7 视频数据——5D(阶)张量
- 2.4.8 数据的维度和空间的维度
- 2.5 Python的张量运算
- 2.5.1 机器学习中张量的创建
- 2.5.2 通过索引和切片访问张量中的数据
- 2.5.3 张量的整体操作和逐元素运算
- 2.5.4 张量的变形和转置
- 2.5.5 Python中的广播
- 2.5.6 向量和矩阵的点积运算
- 2.6 机器学习的几何意义
- 2.6.1 机器学习的向量空间
- 2.6.2 深度学习和数据流形
- 2.7 概率与统计研究了随机事件的规律
- 2.7.1 什么是概率
- 2.7.2 正态分布
- 2.7.3 标准差和方差
- 2.8 本课内容小结
- 2.9 课后练习
- 第3课 线性回归——预测网店的销售额
- 3.1 问题定义:小冰的网店广告该如何投放
- 3.2 数据的收集和预处理
- 3.2.1 收集网店销售额数据
- 3.2.2 数据读取和可视化
- 3.2.3 数据的相关分析
- 3.2.4 数据的散点图
- 3.2.5 数据集清洗和规范化
- 3.2.6 拆分数据集为训练集和测试集
- 3.2.7 把数据归一化
- 3.3 选择机器学习模型
- 3.3.1 确定线性回归模型
- 3.3.2 假设(预测)函数——h(x)
- 3.3.3 损失(误差)函数——L(w,b)
- 3.4 通过梯度下降找到最佳参数
- 3.4.1 训练机器要有正确的方向
- 3.4.2 凸函数确保有最小损失点
- 3.4.3 梯度下降的实现
- 3.4.4 学习速率也很重要
- 3.5 实现一元线性回归模型并调试超参数
- 3.5.1 权重和偏置的初始值
- 3.5.2 进行梯度下降
- 3.5.3 调试学习速率
- 3.5.4 调试迭代次数
- 3.5.5 在测试集上进行预测
- 3.5.6 用轮廓图描绘L、w和b的关系
- 3.6 实现多元线性回归模型
- 3.6.1 向量化的点积运算
- 3.6.2 多变量的损失函数和梯度下降
- 3.6.3 构建一个线性回归函数模型
- 3.6.4 初始化权重并训练机器
- 3.7 本课内容小结
- 3.8 课后练习
- 第4课 逻辑回归——给病患和鸢尾花分类
- 4.1 问题定义:判断客户是否患病
- 4.2 从回归问题到分类问题
- 4.2.1 机器学习中的分类问题
- 4.2.2 用线性回归+阶跃函数完成分类
- 4.2.3 通过Sigmiod函数进行转换
- 4.2.4 逻辑回归的假设函数
- 4.2.5 逻辑回归的损失函数
- 4.2.6 逻辑回归的梯度下降
- 4.3 通过逻辑回归解决二元分类问题
- 4.3.1 数据的准备与分析
- 4.3.2 建立逻辑回归模型
- 4.3.3 开始训练机器
- 4.3.4 测试分类结果
- 4.3.5 绘制损失曲线
- 4.3.6 直接调用Sklearn库
- 4.3.7 哑特征的使用
- 4.4 问题定义:确定鸢尾花的种类
- 4.5 从二元分类到多元分类
- 4.5.1 以一对多
- 4.5.2 多元分类的损失函数
- 4.6 正则化、欠拟合和过拟合
- 4.6.1 正则化
- 4.6.2 欠拟合和过拟合
- 4.6.3 正则化参数
- 4.7 通过逻辑回归解决多元分类问题
- 4.7.1 数据的准备与分析
- 4.7.2 通过Sklearn实现逻辑回归的多元分类
- 4.7.3 正则化参数——C值的选择
- 4.8 本课内容小结
- 4.9 课后练习
- 第5课 深度神经网络——找出可能流失的客户
- 5.1 问题定义:咖哥接手的金融项目
- 5.2 神经网络的原理
- 5.2.1 神经网络极简史
- 5.2.2 传统机器学习算法的局限性
- 5.2.3 神经网络的优势
- 5.3 从感知器到单隐层网络
- 5.3.1 感知器是最基本的神经元
- 5.3.2 假设空间要能覆盖特征空间
- 5.3.3 单神经元特征空间的局限性
- 5.3.4 分层:加入一个网络隐层
- 5.4 用Keras单隐层网络预测客户流失率
- 5.4.1 数据的准备与分析
- 5.4.2 先尝试逻辑回归算法
- 5.4.3 单隐层神经网络的Keras实现
- 5.4.4 训练单隐层神经网络
- 5.4.5 训练过程的图形化显示
- 5.5 分类数据不平衡问题:只看准确率够用吗
- 5.5.1 混淆矩阵、精确率、召回率和F1分数
- 5.5.2 使用分类报告和混淆矩阵
- 5.5.3 特征缩放的魔力
- 5.5.4 阈值调整、欠采样和过采样
- 5.6 从单隐层神经网络到深度神经网络
- 5.6.1 梯度下降:正向传播和反向传播
- 5.6.2 深度神经网络中的一些可调超参数
- 5.6.3 梯度下降优化器
- 5.6.4 激活函数:从Sigmoid到ReLU
- 5.6.5 损失函数的选择
- 5.6.6 评估指标的选择
- 5.7 用Keras深度神经网络预测客户流失率
- 5.7.1 构建深度神经网络
- 5.7.2 换一换优化器试试
- 5.7.3 神经网络正则化:添加Dropout层
- 5.8 深度神经网络的调试及性能优化
- 5.8.1 使用回调功能
- 5.8.2 使用TensorBoard
- 5.8.3 神经网络中的过拟合
- 5.8.4 梯度消失和梯度爆炸
- 5.9 本课内容小结
- 5.10 课后练习
- 第6课 卷积神经网络——识别狗狗的图像
- 6.1 问题定义:有趣的狗狗图像识别
- 6.2 卷积网络的结构
- 6.3 卷积层的原理
- 6.3.1 机器通过“模式”进行图像识别
- 6.3.2 平移不变的模式识别
- 6.3.3 用滑动窗口抽取局部特征
- 6.3.4 过滤器和响应通道
- 6.3.5 对特征图进行卷积运算
- 6.3.6 模式层级结构的形成
- 6.3.7 卷积过程中的填充和步幅
- 6.4 池化层的功能
- 6.5 用卷积网络给狗狗图像分类
- 6.5.1 图像数据的读入
- 6.5.2 构建简单的卷积网络
- 6.5.3 训练网络并显示误差和准确率
- 6.6 卷积网络性能优化
- 6.6.1 第一招:更新优化器并设置学习速率
- 6.6.2 第二招:添加Dropout层
- 6.6.3 “大杀器”:进行数据增强
- 6.7 卷积网络中特征通道的可视化
- 6.8 各种大型卷积网络模型
- 6.8.1 经典的VGGNet
- 6.8.2 采用Inception结构的GoogLeNet
- 6.8.3 残差网络ResNet
- 6.9 本课内容小结
- 6.10 课后练习
- 第7课 循环神经网络——鉴定留言及探索系外行星
- 7.1 问题定义:鉴定评论文本的情感属性
- 7.2 循环神经网络的原理和结构
- 7.2.1 什么是序列数据
- 7.2.2 前馈神经网络处理序列数据的局限性
- 7.2.3 循环神经网络处理序列问题的策略
- 7.2.4 循环神经网络的结构
- 7.3 原始文本如何转化成向量数据
- 7.3.1 文本的向量化:分词
- 7.3.2 通过One-hot编码分词
- 7.3.3 词嵌入
- 7.4 用SimpleRNN鉴定评论文本
- 7.4.1 用Tokenizer给文本分词
- 7.4.2 构建包含词嵌入的SimpleRNN
- 7.4.3 训练网络并查看验证准确率
- 7.5 从SimpleRNN到LSTM
- 7.5.1 SimpleRNN的局限性
- 7.5.2 LSTM网络的记忆传送带
- 7.6 用LSTM鉴定评论文本
- 7.7 问题定义:太阳系外哪些恒星有行星环绕
- 7.8 用循环神经网络处理时序问题
- 7.8.1 时序数据的导入与处理
- 7.8.2 建模:CNN和RNN的组合
- 7.8.3 输出阈值的调整
- 7.8.4 使用函数式API
- 7.9 本课内容小结
- 7.10 课后练习
- 第8课 经典算法“宝刀未老”
- 8.1 K最近邻
- 8.2 支持向量机
- 8.3 朴素贝叶斯
- 8.4 决策树
- 8.4.1 熵和特征节点的选择
- 8.4.2 决策树的深度和剪枝
- 8.5 随机森林
- 8.6 如何选择最佳机器学习算法
- 8.7 用网格搜索超参数调优
- 8.8 本课内容小结
- 8.9 课后练习
- 第9课 集成学习“笑傲江湖”
- 9.1 偏差和方差——机器学习性能优化的风向标
- 9.1.1 目标:降低偏差与方差
- 9.1.2 数据集大小对偏差和方差的影响
- 9.1.3 预测空间的变化带来偏差和方差的变化
- 9.2 Bagging算法——多个基模型的聚合
- 9.2.1 决策树的聚合
- 9.2.2 从树的聚合到随机森林
- 9.2.3 从随机森林到极端随机森林
- 9.2.4 比较决策树、树的聚合、随机森林、极端随机森林的效率
- 9.3 Boosting算法——锻炼弱模型的“肌肉”
- 9.3.1 AdaBoost算法
- 9.3.2 梯度提升算法
- 9.3.3 XGBoost算法
- 9.3.4 Bagging算法与Boosting算法的不同之处
- 9.4 Stacking/Blending算法——以预测结果作为新特征
- 9.4.1 Stacking算法
- 9.4.2 Blending算法
- 9.5 Voting/Averaging算法——集成基模型的预测结果
- 9.5.1 通过Voting进行不同算法的集成
- 9.5.2 通过Averaging集成不同算法的结果
- 9.6 本课内容小结
- 9.7 课后练习
- 第10课 监督学习之外——其他类型的机器学习
- 10.1 无监督学习——聚类
- 10.1.1 K均值算法
- 10.1.2 K值的选取:手肘法
- 10.1.3 用聚类辅助理解营销数据
- 10.2 无监督学习——降维
- 10.2.1 PCA算法
- 10.2.2 通过PCA算法进行图像特征采样
- 10.3 半监督学习
- 10.3.1 自我训练
- 10.3.2 合作训练
- 10.3.3 半监督聚类
- 10.4 自监督学习
- 10.4.1 潜隐空间
- 10.4.2 自编码器
- 10.4.3 变分自编码器
- 10.5 生成式学习
- 10.5.1 机器学习的生成式
- 10.5.2 生成式对抗网络
- 10.6 本课内容小结
- 10.7 课后练习
- 第11课 强化学习实战——咖哥的冰湖挑战
- 11.1 问题定义:帮助智能体完成冰湖挑战
- 11.2 强化学习基础知识
- 11.2.1 延迟满足
- 11.2.2 更复杂的环境
- 11.2.3 强化学习中的元素
- 11.2.4 智能体的视角
- 11.3 强化学习基础算法Q-Learning详解
- 11.3.1 迷宫游戏的示例
- 11.3.2 强化学习中的局部最优
- 11.3.3 ε-Greedy策略
- 11.3.4 Q-Learning算法的伪代码
- 11.4 用Q-Learning算法来解决冰湖挑战问题
- 11.4.1 环境的初始化
- 11.4.2 Q-Learning算法的实现
- 11.4.3 Q-Table的更新过程
- 11.5 从Q-Learning算法到SARSA算法
- 11.5.1 异策略和同策略
- 11.5.2 SARSA算法的实现
- 11.6 用SARSA算法来解决冰湖挑战问题
- 11.7 Deep Q Network算法:用深度网络实现Q-Learning
- 11.8 本课内容小结
- 11.9 课后练习
- 尾声 如何实现机器学习中的知识迁移及持续性的学习
- 练习答案
展开全部
出版方
人民邮电出版社
人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。