展开全部

主编推荐语

全面理解神经网络与深度学习:基础理论与实例应用。

内容简介

本书从神经网络与深度学习的基础理论出发,并结合应用示例给予读者对神经网络与深度学习的全面理解。本书内容从人工智能当下及未来的发展现状开始,逐步介绍数学理论基础和机器学习基础,然后从传统的人工神经网络(前馈神经网络、反馈神经网络、自组织神经网络、随机神经网络)进入到目前的深度学习网络(卷积神经网络、递归神经网络、循环神经网络、深度信念网络、生成对抗网络)。本书由浅入深,循序渐进,通过实例使得读者快速掌握神经网络与深度学习相关专业内容。

目录

  • 封面
  • 版权页
  • 前言
  • 致谢
  • 目录
  • 基础篇
  • 第1章 时代崛起
  • 1.1 概要
  • 1.1.1 基本概念
  • 1.1.2 深度学习与机器学习的关系
  • 1.1.3 深度学习与人工智能的关系
  • 1.2 历史发展
  • 1.2.1 神经网络发展历史
  • 1.2.2 人工智能发展历史
  • 1.3 应用领域
  • 1.3.1 智能个人助理
  • 1.3.2 智能安防
  • 1.3.3 无人驾驶
  • 1.3.4 电商零售
  • 1.3.5 智慧医疗
  • 1.3.6 金融服务
  • 1.3.7 智能教育
  • 1.4 未来猜想
  • 1.4.1 人文的快速发展
  • 1.4.2 人类也是“机器人”
  • 1.4.3 新的不平等现象
  • 1.5 本章小结
  • 第2章 数学理论基础
  • 2.1 向量
  • 2.1.1 相关概念
  • 2.1.2 向量的线性相关性
  • 2.1.3 向量的外积
  • 2.1.4 向量夹角与余弦相似性
  • 2.1.5 实例:基于向量夹角的文本相似性分析
  • 2.2 矩阵
  • 2.2.1 矩阵乘法
  • 2.2.2 克罗内克积
  • 2.3 导数
  • 2.3.1 概述
  • 2.3.2 一般运算法则
  • 2.3.3 链式求导法则
  • 2.4 数值计算
  • 2.4.1 误差
  • 2.4.2 距离
  • 2.4.3 数值归一化
  • 2.5 概率分布
  • 2.5.1 二项分布
  • 2.5.2 超几何分布
  • 2.5.3 泊松分布
  • 2.5.4 指数分布
  • 2.5.5 正态分布
  • 2.6 参数估计
  • 2.6.1 概率
  • 2.6.2 贝叶斯估计
  • 2.6.3 最大似然估计
  • 2.6.4 最大后验估计
  • 2.7 回归分析
  • 2.7.1 线性回归
  • 2.7.2 逻辑回归
  • 2.8 判定问题
  • 2.8.1 P问题
  • 2.8.2 NP问题
  • 2.8.3 NP-Complete问题
  • 2.8.4 NP-Hard问题
  • 2.9 本章小结
  • 第3章 机器学习概要
  • 3.1 机器学习的类型
  • 3.1.1 有监督学习
  • 3.1.2 无监督学习
  • 3.1.3 强化学习
  • 3.2 机器学习中常见的函数
  • 3.2.1 激活函数
  • 3.2.2 损失函数
  • 3.2.3 核函数
  • 3.3 机器学习中的重要参数
  • 3.3.1 学习速率
  • 3.3.2 动量系数
  • 3.3.3 偏置项
  • 3.4 拟合问题
  • 3.4.1 过拟合现象
  • 3.4.2 欠拟合现象
  • 3.4.3 解决过拟合问题的一般方法
  • 3.4.4 实例:拟合与二元一次方程求解
  • 3.5 交叉检验
  • 3.5.1 数据类型种类
  • 3.5.2 留一交叉验证
  • 3.5.3 K折交叉验证
  • 3.6 线性可分与不可分
  • 3.7 机器学习的学习特征
  • 3.8 产生式模型与判别式模型
  • 3.9 机器学习效果的一般评价指标
  • 3.10 本章小结
  • 第4章 神经网络基础
  • 4.1 概述
  • 4.1.1 神经网络模型
  • 4.1.2 经典的神经网络结构
  • 4.1.3 一般业务场景中神经网络适应性
  • 4.1.4 神经网络的深度
  • 4.2 常见学习方法
  • 4.2.1 误差修正学习
  • 4.2.2 赫布学习规则
  • 4.2.3 最小均方规则
  • 4.2.4 竞争学习规则
  • 4.2.5 其他学习规则
  • 4.3 优化方法:梯度下降
  • 4.3.1 概述
  • 4.3.2 梯度下降法
  • 4.3.3 梯度下降的优化算法
  • 4.3.4 梯度消失问题
  • 4.3.5 示例:利用梯度下降法求函数极值
  • 4.4 常见的神经网络类型
  • 4.4.1 前馈型神经网络
  • 4.4.2 反馈型神经网络
  • 4.4.3 自组织竞争型神经网络
  • 4.5 深度学习中常见的网络类型
  • 4.5.1 卷积神经网络
  • 4.5.2 循环神经网络
  • 4.5.3 深度信念网络
  • 4.5.4 生成对抗网络
  • 4.5.5 深度强化学习
  • 4.6 其他神经网络与深度学习
  • 4.6.1 随机神经网络
  • 4.6.2 量子神经网络
  • 4.6.3 迁移学习
  • 4.7 深度学习与多层神经网络的关系
  • 4.8 调参技巧
  • 4.9 本章小结
  • 进阶篇
  • 第5章 前馈型神经网络
  • 5.1 概述
  • 5.2 常见结构
  • 5.3 单层感知器网络
  • 5.3.1 原理
  • 5.3.2 网络结构
  • 5.3.3 实例一:基于单层感知器“与”运算
  • 5.3.4 实例二:利用感知器判定零件是否合格
  • 5.4 BP神经网络
  • 5.4.1 概述
  • 5.4.2 反向传播算法
  • 5.4.3 异或问题的解决
  • 5.4.4 避免病态结果
  • 5.4.5 实例:基于多层感知器的手写体数字识别
  • 5.5 径向基函数神经网络
  • 5.5.1 原理介绍
  • 5.5.2 中心选择方法
  • 5.5.3 训练过程
  • 5.5.4 径向基函数神经网络与BP神经网络的差异
  • 5.6 本章小结
  • 第6章 反馈型神经网络
  • 6.1 概述
  • 6.1.1 基本原理
  • 6.1.2 与前馈型神经网络的差异
  • 6.2 Hopfield神经网络
  • 6.3 Elman神经网络
  • 6.3.1 结构组成
  • 6.3.2 学习算法
  • 6.4 递归神经网络
  • 6.4.1 产生背景
  • 6.4.2 基本结构
  • 6.4.3 前向计算过程
  • 6.4.4 反向传播:BPTS算法
  • 6.4.5 应用场景
  • 6.4.6 递归神经网络的结构改进
  • 6.4.7 应用实例
  • 6.5 本章小结
  • 第7章 自组织竞争型神经网络
  • 7.1 概述
  • 7.1.1 一般网络模型
  • 7.1.2 工作原理
  • 7.1.3 实例:用竞争学习规则进行模式分类
  • 7.2 常见的聚类方法
  • 7.2.1 系统聚类法
  • 7.2.2 基于划分的聚类算法
  • 7.2.3 基于密度的聚类算法
  • 7.2.4 基于层次的聚类算法
  • 7.3 自组织映射网络
  • 7.3.1 概述
  • 7.3.2 训练算法
  • 7.3.3 实例:利用自组织映射网络划分城市群
  • 7.3.4 优劣势分析
  • 7.4 其他自组织竞争型神经网络
  • 7.4.1 自适应共振理论
  • 7.4.2 对偶传播神经网络
  • 7.5 本章小结
  • 高阶篇
  • 第8章 卷积神经网络
  • 8.1 概述
  • 8.1.1 发展背景
  • 8.1.2 基本概念
  • 8.1.3 基本网络结构
  • 8.2 卷积
  • 8.2.1 卷积的物理意义
  • 8.2.2 卷积的理解
  • 8.2.3 卷积的实例
  • 8.3 卷积核
  • 8.3.1 卷积核的含义
  • 8.3.2 卷积操作
  • 8.3.3 卷积核的特征
  • 8.4 卷积神经网络中各层工作原理
  • 8.4.1 卷积层
  • 8.4.2 下采样层
  • 8.4.3 Softmax层
  • 8.5 卷积神经网络的逆向过程
  • 8.6 常见卷积神经网络结构
  • 8.6.1 LeNet-5
  • 8.6.2 AlexNet
  • 8.7 应用场景与效果评估
  • 8.7.1 场景1:图像分类
  • 8.7.2 场景2:目标检测
  • 8.7.3 场景3:实例分割
  • 8.8 MAXOUT NETWORKS
  • 8.9 本章小结
  • 第9章 循环神经网络
  • 9.1 概述
  • 9.2 一般循环神经网络
  • 9.2.1 概述
  • 9.2.2 单向循环神经网络
  • 9.2.3 双向循环神经网络
  • 9.2.4 深度循环神经网络
  • 9.3 训练算法:BPTT算法
  • 9.3.1 前向计算
  • 9.3.2 误差项计算
  • 9.3.3 权值梯度计算
  • 9.3.4 梯度爆炸与梯度消失问题
  • 9.4 长短时记忆网络
  • 9.4.1 背景
  • 9.4.2 核心思想
  • 9.4.3 详细结构
  • 9.4.4 训练过程
  • 9.4.5 相关变种简介
  • 9.5 常见循环神经网络结构
  • 9.5.1 N比N结构
  • 9.5.2 N比1结构
  • 9.5.3 1比N结构
  • 9.5.4 N比M结构
  • 9.6 与自然语言处理结合
  • 9.7 实例:文本自动生成
  • 9.8 本章小结
  • 第10章 深度信念网络
  • 10.1 概要
  • 10.1.1 背景
  • 10.1.2 基本结构
  • 10.2 受限玻尔兹曼机
  • 10.2.1 概述
  • 10.2.2 逻辑结构
  • 10.2.3 对比分歧算法
  • 10.3 训练过程
  • 10.3.1 工作流程
  • 10.3.2 调优过程
  • 10.4 本章小结
  • 第11章 生成对抗网络
  • 11.1 概述
  • 11.1.1 背景概要
  • 11.1.2 核心思想
  • 11.1.3 基本工作流程
  • 11.2 朴素生成对抗网络
  • 11.2.1 网络结构
  • 11.2.2 实例:基于朴素生成对抗网络生成手写体数字
  • 11.3 深度卷积生成对抗网络
  • 11.3.1 产生背景
  • 11.3.2 模型改进
  • 11.3.3 网络结构
  • 11.3.4 实例:基于深度卷积对抗网络生成手写体数字
  • 11.4 条件生成对抗网络
  • 11.4.1 网络结构
  • 11.4.2 实例:CGAN结合DCGAN生成手写体数字
  • 11.5 瓦瑟斯坦生成对抗网络
  • 11.5.1 概述
  • 11.5.2 差异化
  • 11.5.3 实例:WGAN结合DCGAN生成手写体数字
  • 11.6 生成对抗网络的探索
  • 11.6.1 价值与意义
  • 11.6.2 面临的问题
  • 11.6.3 应用场景示例
  • 11.6.4 未来探索
  • 11.7 本章小结
  • 第12章 深度强化学习
  • 12.1 概述
  • 12.1.1 概要
  • 12.1.2 基本原理
  • 12.2 马尔科夫决策过程
  • 12.2.1 马尔科夫过程
  • 12.2.2 隐马尔科夫模型
  • 12.2.3 马尔科夫决策过程
  • 12.3 深度强化学习算法
  • 12.3.1 DQN算法
  • 12.3.2 A3C算法
  • 12.3.3 UNREAL算法
  • 12.4 强化学习的探索
  • 12.4.1 应用场景探索
  • 12.4.2 面临的问题
  • 12.5 本章小结
展开全部

评分及书评

尚无评分
目前还没人评分

出版方

电子工业出版社

电子工业出版社成立于1982年10月,是国务院独资、工信部直属的中央级科技与教育出版社,是专业的信息技术知识集成和服务提供商。经过三十多年的建设与发展,已成为一家以科技和教育出版、期刊、网络、行业支撑服务、数字出版、软件研发、软科学研究、职业培训和教育为核心业务的现代知识服务集团。出版物内容涵盖了电子信息技术的各个分支及工业技术、经济管理、科普与少儿、社科人文等领域,综合出版能力位居全国出版行业前列。