展开全部

主编推荐语

本书以神经网络为线索,沿着从线性模型到深度学习的路线讲解神经网络的原理和实现。

内容简介

本书将数学基础知识与机器学习和神经网络紧密结合,包含线性模型的结构与局限、损失函数、基于一阶和二阶信息的优化算法、模型自由度与正则化、神经网络的表达能力、反向传播与计算图自动求导、卷积神经网络等主题,帮助读者建立基于数学原理的较深刻的洞见和认知。

本书还提供了逻辑回归、多层全连接神经网络和多种训练算法的Python实现,以及运用TensorFlow搭建和训练多种卷积神经网络的代码实例。

目录

  • 版权信息
  • 内容提要
  • 前言
  • 目标读者
  • 内容概览
  • 阅读方式
  • 代码与网络资源
  • 致谢
  • 第一部分 线性模型
  • 第1章 逻辑回归
  • 1.1 作为一个神经元的逻辑回归
  • 1.2 基础向量几何
  • 1.3 从几何角度理解逻辑回归的能力和局限
  • 1.4 实例:根据鸟类骨骼判断生态类群
  • 1.5 小结
  • 第2章 模型评价与损失函数
  • 2.1 训练集与测试集
  • 2.2 分类模型的评价
  • 2.3 损失函数
  • 2.4 小结
  • 第3章 梯度下降法
  • 3.1 多元函数的微分
  • 3.2 梯度下降法
  • 3.3 梯度下降法的改进
  • 3.4 运用梯度下降法训练逻辑回归
  • 3.5 梯度下降法训练逻辑回归的Python实现
  • 3.6 小结
  • 第4章 超越梯度下降
  • 4.1 矩阵
  • 4.2 多元函数的局部二阶特性
  • 4.3 基于二阶特性的优化
  • 4.4 运用牛顿法训练逻辑回归
  • 4.5 牛顿法训练逻辑回归的Python实现
  • 4.6 小结
  • 第5章 正则化
  • 5.1 概率论回顾
  • 5.2 模型自由度与偏置-方差权衡
  • 5.3 正则化
  • 5.4 过拟合与欠拟合
  • 5.5 运用L2正则化训练逻辑回归
  • 5.6 运用L2正则化训练逻辑回归的Python实现
  • 5.7 小结
  • 第二部分 神经网络
  • 第6章 神经网络
  • 6.1 合作的神经元
  • 6.2 多层全连接神经网络
  • 6.3 激活函数
  • 6.4 多分类与SoftMax
  • 6.5 小结
  • 第7章 反向传播
  • 7.1 映射
  • 7.2 反向传播
  • 7.3 相关问题
  • 7.4 多层全连接神经网络的Python实现
  • 7.5 小结
  • 第8章 计算图
  • 8.1 计算图模型
  • 8.2 自动求导
  • 8.3 自动求导的实现
  • 8.4 计算图的Python实现
  • 8.5 小结
  • 第9章 卷积神经网络
  • 9.1 卷积
  • 9.2 卷积神经网络的组件
  • 9.3 深度学习的正则化方法
  • 9.4 小结
  • 第10章 经典CNN
  • 10.1 LeNet-5
  • 10.2 AlexNet
  • 10.3 VGGNet
  • 10.4 GoogLeNet
  • 10.5 ResNet
  • 10.6 小结
  • 第11章 TensorFlow实例
  • 11.1 多分类逻辑回归
  • 11.2 多层全连接神经网络
  • 11.3 LeNet-5
  • 11.4 AlexNet
  • 11.5 VGG16
  • 11.6 小结
  • 附录A CNN与元胞自动机
  • A.1 二维元胞自动机与CNN
  • A.2 元胞自动机的行为和分类
  • A.2.1 相空间、轨迹与吸引子
  • A.2.2 不可逆性、信息擦除与熵减
  • A.2.3 康托尔集与分形维数
  • A.2.4 4类规则与混沌边缘
  • A.3 图灵机与可计算性
  • A.3.1 图灵机
  • A.3.2 图灵-邱奇论题与图灵完备
  • A.3.3 递归语言与可计算性
  • A.3.5 停机问题
  • A.3.6 规则110的图灵完备性
  • A.4 分类、训练与吸引子分岔
  • A.5 小结
  • 参考文献
展开全部

评分及书评

评分不足
2个评分

出版方

人民邮电出版社·图灵出品

图灵社区成立于2005年6月,由人民邮电出版社投资控股,以策划出版高质量的科技书籍为核心业务,主要出版领域包括计算机、电子电气、数学统计、科普等,通过引进国际高水平的教材、专著,以及发掘国内优秀原创作品等途径,为目标读者提供一流的内容。