展开全部

主编推荐语

本书细致阐释神经网络和深度学习的核心概念,带你掌握神经网络的工作原理。

内容简介

本书深入讲解神经网络和深度学习技术,侧重于阐释深度学习的核心概念。

作者以技术原理为导向,辅以贯穿全书的MNIST手写数字识别项目示例,介绍神经网络架构、反向传播算法、过拟合解决方案、卷积神经网络等内容,以及如何利用这些知识改进深度学习项目。

学完本书后,你将能够通过编写Python代码来解决复杂的模式识别问题。

目录

  • 版权信息
  • 内容提要
  • 作者简介
  • 本书赞誉
  • 译者序
  • 前言
  • 第1章 使用神经网络识别手写数字
  • 1.1 感知机
  • 1.2 sigmoid神经元
  • 1.3 神经网络的架构
  • 1.4 一个简单的神经网络:分类手写数字
  • 1.5 利用梯度下降算法进行学习
  • 1.6 实现分类数字的神经网络
  • 1.7 迈向深度学习
  • 第2章 反向传播算法工作原理
  • 2.1 热身:使用矩阵快速计算输出
  • 2.2 关于代价函数的两个假设
  • 2.3 阿达马积s⊙t
  • 2.4 反向传播的4个基本方程
  • 2.5 基本方程的证明(选学)
  • 2.6 反向传播算法
  • 2.7 反向传播代码
  • 2.8 就何而言,反向传播算快
  • 2.9 反向传播:全局观
  • 第3章 改进神经网络的学习方法
  • 3.1 交叉熵代价函数
  • 3.1.1 引入交叉熵代价函数
  • 3.1.2 使用交叉熵来对MNIST数字进行分类
  • 3.1.3 交叉熵的含义与起源
  • 3.1.4 softmax
  • 3.2 过拟合和正则化
  • 3.2.1 正则化
  • 3.2.2 为何正则化有助于减轻过拟合
  • 3.2.3 其他正则化技术
  • 3.3 权重初始化
  • 3.4 复探手写识别问题:代码
  • 3.5 如何选择神经网络的超参数
  • 3.6 其他技术
  • 3.6.1 随机梯度下降算法的变化形式
  • 3.6.2 其他人工神经元模型
  • 3.6.3 有关神经网络的故事
  • 第4章 神经网络可以计算任何函数的可视化证明
  • 4.1 两个预先声明
  • 4.2 一个输入和一个输出的普遍性
  • 4.3 多个输入变量
  • 4.4 不止sigmoid神经元
  • 4.5 修补阶跃函数
  • 4.6 小结
  • 第5章 为何深度神经网络很难训练
  • 5.1 梯度消失问题
  • 5.2 梯度消失的原因
  • 5.2.1 为何出现梯度消失
  • 5.2.2 梯度爆炸问题
  • 5.2.3 梯度不稳定问题
  • 5.2.4 梯度消失问题普遍存在
  • 5.3 复杂神经网络中的梯度不稳定
  • 5.4 深度学习的其他障碍
  • 第6章 深度学习
  • 6.1 卷积神经网络入门
  • 6.1.1 局部感受野
  • 6.1.2 共享权重和偏置
  • 6.1.3 池化层
  • 6.2 卷积神经网络的实际应用
  • 6.2.1 使用修正线性单元
  • 6.2.2 扩展训练数据
  • 6.2.3 插入额外的全连接层
  • 6.2.4 集成神经网络
  • 6.3 卷积神经网络的代码
  • 6.4 图像识别领域近期的进展
  • 6.4.1 2012年的LRMD论文
  • 6.4.2 2012年的KSH论文
  • 6.4.3 2014年的ILSVRC竞赛
  • 6.4.4 其他活动
  • 6.5 其他深度学习模型
  • 6.5.1 循环神经网络
  • 6.5.2 长短期记忆单元
  • 6.5.3 深度信念网络、生成模型和玻尔兹曼机
  • 6.5.4 其他想法
  • 6.6 神经网络的未来
  • 6.6.1 意图驱动的用户界面
  • 6.6.2 机器学习、数据科学和创新的循环
  • 6.6.3 神经网络和深度学习的作用
  • 6.6.4 神经网络和深度学习将主导人工智能
  • 附录 是否存在关于智能的简单算法
展开全部

评分及书评

4.4
12个评分
  • 用户头像
    给这本书评了
    5.0
    终于有正式出版物

    当年看的是英文原版和网友翻译版,这本书是真的好。

      转发
      评论

    出版方

    人民邮电出版社·图灵出品

    图灵社区成立于2005年6月,由人民邮电出版社投资控股,以策划出版高质量的科技书籍为核心业务,主要出版领域包括计算机、电子电气、数学统计、科普等,通过引进国际高水平的教材、专著,以及发掘国内优秀原创作品等途径,为目标读者提供一流的内容。