展开全部

主编推荐语

本书首先介绍了机器学习的相关概念和发展历史,并在此基础上提出了深度学习。

内容简介

全书共12章,其中,第1~7章为机器学习的内容,分别介绍了机器学习的简单模型、贝叶斯学习、决策树、支持向量机、集成学习和聚类;第8~12章为深度学习的内容,由感知机与神经网络开始,之后分别介绍了卷积神经网络、循环神经网络、生成对抗网络及强化学习。

第2~12章均提供了相应的实验案例,不仅配有完整翔实的Python语言代码及相关注释,也给出了实验结果和实验分析,便于初学者上机操作并加强理解。本书注重易学性、系统性和实战性。

目录

  • 版权信息
  • 内容简介
  • 编写组
  • 总序
  • 前言
  • 第1章 引言
  • 1.1 人工智能概述
  • 1.1.1 人工智能产生的基础条件
  • 1.1.2 人工智能的发展史
  • 1.1.3 人工智能的几个重要分支
  • 1.1.4 人工智能与机器学习和深度学习的关系
  • 1.2 机器学习概述
  • 1.2.1 机器学习的定义
  • 1.2.2 机器学习的主要方法
  • 1.2.3 机器学习的应用及其相关课程介绍
  • 1.3 深度学习概述
  • 1.3.1 深度学习产生的背景
  • 1.3.2 深度学习的几种常用模型
  • 1.3.3 深度学习的应用场合
  • 1.3.4 深度学习开源工具
  • 习题
  • 参考文献
  • 第2章 简单模型
  • 2.1 KNN算法
  • 2.1.1 算法原理
  • 2.1.2 算法步骤
  • 2.1.3 算法描述
  • 2.1.4 算法评价
  • 2.1.5 算法实例
  • 2.2 线性回归
  • 2.2.1 算法原理
  • 2.2.2 模型求解
  • 2.2.3 算法步骤
  • 2.2.4 算法描述
  • 2.2.5 算法评价
  • 2.2.6 算法实例
  • 2.3 逻辑回归
  • 2.3.1 算法原理
  • 2.3.2 模型求解
  • 2.3.3 算法步骤
  • 2.3.4 算法描述
  • 2.3.5 算法评价
  • 2.4 实验:逻辑回归算法
  • 2.4.1 实验目的
  • 2.4.2 实验要求
  • 2.4.3 实验原理
  • 2.4.4 实验步骤
  • 2.4.5 实验结果
  • 2.4.6 结果分析
  • 习题
  • 参考文献
  • 第3章 贝叶斯学习
  • 3.1 贝叶斯方法简述
  • 3.2 贝叶斯基础理论
  • 3.2.1 概率基础
  • 3.2.2 贝叶斯方法
  • 3.3 朴素贝叶斯
  • 3.3.1 朴素贝叶斯法介绍
  • 3.3.2 朴素贝叶斯法实例
  • 3.3.3 朴素贝叶斯法优缺点
  • 3.4 贝叶斯网络
  • 3.4.1 贝叶斯网络介绍
  • 3.4.2 贝叶斯网络实现
  • 3.4.3 贝叶斯网络特性及应用
  • 3.5 实验
  • 3.5.1 实验目的
  • 3.5.2 实验要求
  • 3.5.3 实验原理
  • 3.5.4 实验步骤
  • 3.5.5 实验结果
  • 习题
  • 参考文献
  • 第4章 决策树
  • 4.1 决策树简述
  • 4.1.1 树形结构
  • 4.1.2 树的构建
  • 4.2 划分属性选择
  • 4.2.1 信息增益
  • 4.2.2 增益率
  • 4.2.3 基尼指数
  • 4.3 剪枝处理
  • 4.3.1 损失函数
  • 4.3.2 先剪枝
  • 4.3.3 后剪枝
  • 4.4 决策树算法
  • 4.4.1 ID3算法
  • 4.4.2 C4.5算法
  • 4.4.3 CART算法
  • 4.5 实验:基于CART算法的鸢尾花决策树构建
  • 4.5.1 实验目的
  • 4.5.2 实验要求
  • 4.5.3 实验原理
  • 4.5.4 实验步骤
  • 4.5.5 实验结果
  • 习题
  • 参考文献
  • 第5章 支持向量机
  • 5.1 最大间隔理论简介
  • 5.2 两类问题的线性分类
  • 5.2.1 线性可分的情况
  • 5.2.2 最大间隔与支持向量
  • 5.2.3 最大间隔的相关理论
  • 5.2.4 线性不可分的情况
  • 5.2.5 小结
  • 5.3 非线性空间映射与核函数
  • 5.3.1 非线性空间映射的概念和原理
  • 5.3.2 核函数的选择与分析
  • 5.3.3 核函数的选择依据
  • 5.3.4 小结
  • 5.4 多类问题的分类
  • 5.4.1 一对一法
  • 5.4.2 一对多法
  • 5.4.3 其他方法
  • 5.4.4 小结
  • 5.5 实验
  • 5.5.1 实验1:两类问题的线性可分问题
  • 5.5.2 实验2:两类问题的非线性分类问题
  • 5.5.3 实验3:UCI数据集中wine.data的多类分类问题
  • 5.5.4 实验4:USPS手写阿拉伯数据库的识别
  • 习题
  • 参考文献
  • 第6章 集成学习
  • 6.1 集成学习简述
  • 6.2 个体学习器与集成学习算法
  • 6.2.1 个体学习器
  • 6.2.2 集成学习算法
  • 6.3 Bagging算法和随机森林算法
  • 6.3.1 Bagging算法
  • 6.3.2 随机森林算法
  • 6.4 Boosting算法和AdaBoost算法
  • 6.4.1 Boosting算法
  • 6.4.2 AdaBoost算法
  • 6.5 结合策略
  • 6.5.1 平均法
  • 6.5.2 投票法
  • 6.5.3 学习法
  • 6.6 实验:集成学习实例
  • 6.6.1 一个简单的基于AdaBoost算法的二分类实现
  • 6.6.2 基于决策树、Bagging和AdaBoost模型的糖尿病预测实验
  • 习题
  • 参考文献
  • 第7章 聚类
  • 7.1 聚类简述
  • 7.1.1 基本概念
  • 7.1.2 聚类类型
  • 7.1.3 算法挑战
  • 7.2 原型聚类
  • 7.2.1 k均值聚类
  • 7.2.2 k中心点聚类
  • 7.3 密度聚类
  • 7.3.1 基本术语
  • 7.3.2 算法描述
  • 7.4 层次聚类
  • 7.4.1 层次聚类概述
  • 7.4.2 BIRCH算法
  • 7.4.3 CURE算法
  • 7.5 实验:用k均值聚类实现篮球运动员聚类
  • 7.5.1 实验目的
  • 7.5.2 实验原理
  • 7.5.3 实验步骤
  • 7.5.4 实验结果及分析
  • 习题
  • 参考文献
  • 第8章 感知机与神经网络
  • 8.1 感知机
  • 8.1.1 神经元模型
  • 8.1.2 激活函数
  • 8.1.3 感知机算法
  • 8.2 神经网络原理
  • 8.2.1 基本特征
  • 8.2.2 前馈神经网络
  • 8.3 反向传播神经网络
  • 8.4 Hopfield神经网络
  • 8.4.1 Hopfield神经网络简介
  • 8.4.2 离散Hopfield神经网络
  • 8.4.3 能量函数
  • 8.5 实验:基于Python的感知机实验
  • 8.5.1 实验目的
  • 8.5.2 实验要求
  • 8.5.3 实验原理
  • 8.5.4 实验步骤
  • 8.5.5 实验结果
  • 习题
  • 参考文献
  • 第9章 卷积神经网络
  • 9.1 卷积神经网络简述
  • 9.1.1 发展历程
  • 9.1.2 端到端的学习
  • 9.2 网络部件
  • 9.2.1 符号定义
  • 9.2.2 卷积层
  • 9.2.3 池化层
  • 9.2.4 激活函数层
  • 9.2.5 全连接层
  • 9.2.6 目标函数
  • 9.3 核心算法
  • 9.3.1 随机梯度下降法
  • 9.3.2 反向传播算法
  • 9.4 激活函数和损失函数
  • 9.4.1 激活函数
  • 9.4.2 损失函数
  • 9.5 经典CNN模型
  • 9.5.1 LeNet
  • 9.5.2 AlexNet
  • 9.5.3 VGGNet
  • 9.6 实验:应用CNN模型进行手写数字辨识
  • 9.6.1 实验目的
  • 9.6.2 实验要求
  • 9.6.3 实验原理
  • 9.6.4 实验步骤
  • 9.6.5 实验结果
  • 习题
  • 参考文献
  • 第10章 循环神经网络
  • 10.1 RNN简介
  • 10.1.1 RNN概述
  • 10.1.2 RNN的工作原理
  • 10.2 双向RNN
  • 10.3 LSTM
  • 10.3.1 LSTM遗忘门
  • 10.3.2 LSTM输入门
  • 10.3.3 LSTM输出门
  • 10.3.4 前向传播的代码实现
  • 10.3.5 反向传播的代码实现
  • 10.4 GRU
  • 10.5 RNN的实现
  • 10.5.1 定义初始化类和初始化函数
  • 10.5.2 定义激活函数
  • 10.5.3 定义前向传播和反向传播
  • 10.5.4 计算delta值和总的delta值
  • 10.5.5 计算各个梯度的值和总梯度
  • 10.5.6 定义梯度检查函数
  • 10.5.7 构建测试函数并运行
  • 10.6 实验:应用LSTM模型进行手写数字辨识
  • 10.6.1 实验目的
  • 10.6.2 实验要求
  • 10.6.3 实验原理
  • 10.6.4 实验步骤
  • 10.6.5 实验结果
  • 习题
  • 参考文献
  • 第11章 生成对抗网络
  • 11.1 生成对抗网络简述
  • 11.1.1 博弈
  • 11.1.2 对抗
  • 11.1.3 分类问题
  • 11.2 生成对抗网络的基本原理、学习机制、应用、特点
  • 11.2.1 生成对抗网络的基本原理
  • 11.2.2 生成对抗网络的学习机制
  • 11.2.3 生成对抗网络的应用
  • 11.2.4 生成对抗网络的特点
  • 11.3 生成对抗网络的变种网络
  • 11.3.1 JointGAN
  • 11.3.2 MD-GAN
  • 11.3.3 MsCGAN
  • 11.3.4 TGAN
  • 11.3.5 HexaGAN
  • 11.4 实验
  • 11.4.1 基于SRGAN模型的人脸超分辨率实验
  • 11.4.2 基于SRGAN的图像转换实验
  • 习题
  • 参考文献
  • 第12章 强化学习
  • 12.1 强化学习的引入
  • 12.1.1 强化学习的概念
  • 12.1.2 强化学习的特点
  • 12.1.3 强化学习与监督学习
  • 12.2 马尔可夫决策过程
  • 12.2.1 策略与环境模型
  • 12.2.2 值函数与Bellman公式
  • 12.3 有模型学习
  • 12.3.1 策略迭代
  • 12.3.2 值迭代
  • 12.3.3 广义策略迭代
  • 12.4 免模型学习
  • 12.4.1 蒙特卡罗方法
  • 12.4.2 时序差分方法与SARSA算法
  • 12.4.3 Q-Learning算法
  • 12.4.4 DQN
  • 12.5 实验
  • 12.5.1 实验1:方块走迷宫
  • 12.5.2 实验2:利用DQN实现“打砖块”游戏
  • 习题
  • 参考文献
  • 附录A 人工智能实验环境
  • 附录B 人工智能云平台
  • 反侵权盗版声明
展开全部

评分及书评

尚无评分
目前还没人评分

出版方

电子工业出版社

电子工业出版社成立于1982年10月,是国务院独资、工信部直属的中央级科技与教育出版社,是专业的信息技术知识集成和服务提供商。经过三十多年的建设与发展,已成为一家以科技和教育出版、期刊、网络、行业支撑服务、数字出版、软件研发、软科学研究、职业培训和教育为核心业务的现代知识服务集团。出版物内容涵盖了电子信息技术的各个分支及工业技术、经济管理、科普与少儿、社科人文等领域,综合出版能力位居全国出版行业前列。