4.4   用户推荐指数
                        人工智能
                       类型
                        6.1
                       豆瓣评分
                        可以朗读
                       语音朗读
                        148千字
                       字数
                        2010-01-01
                       发行日期
                    展开全部
                    
主编推荐语
自早期以来,神经网络就一直是人工智能的支柱。现在,令人兴奋的新技术(例如深度学习和卷积)正在将神经网络带入一个全新的方向。
内容简介
在本书中,作者演示各种现实世界任务中的神经网络,例如图像识别和数据科学。作者研究了当前的神经网络技术,包括ReLU激活、随机梯度下降、交叉熵、正则化、Dropout及可视化等。
目录
- 版权信息
 - 版权声明
 - 内容提要
 - 引言/INTRODUCTION
 - 系列图书简介
 - 编程语言
 - 在线实验环境
 - 代码仓库
 - 本系列图书计划出版的书籍
 - 系列图书出版计划
 - 其他资源
 - 神经网络介绍
 - 背景资料
 - 神经网络路线指引
 - 本书中使用的数据集
 - 资源与支持
 - 第1章 神经网络基础
 - 1.1 神经元和层
 - 1.2 神经元的类型
 - 1.2.1 输入和输出神经元
 - 1.2.2 隐藏神经元
 - 1.2.3 偏置神经元
 - 1.2.4 上下文神经元
 - 1.2.5 其他神经元名称
 - 1.3 激活函数
 - 1.3.1 线性激活函数
 - 1.3.2 阶跃激活函数
 - 1.3.3 S型激活函数
 - 1.3.4 双曲正切激活函数
 - 1.4 修正线性单元
 - 1.4.1 Softmax激活函数
 - 1.4.2 偏置扮演什么角色?
 - 1.5 神经网络逻辑
 - 1.6 本章小结
 - 第2章 自组织映射
 - 2.1 自组织映射和邻域函数
 - 2.1.1 理解邻域函数
 - 2.1.2 墨西哥帽邻域函数
 - 2.1.3 计算SOM误差
 - 2.2 本章小结
 - 第3章 霍普菲尔德神经网络和玻尔兹曼机
 - 3.1 霍普菲尔德神经网络
 - 训练霍普菲尔德神经网络
 - 3.2 Hopfield-Tank神经网络
 - 3.3 玻尔兹曼机
 - 玻尔兹曼机概率
 - 3.4 应用玻尔兹曼机
 - 3.4.1 旅行商问题
 - 3.4.2 优化问题
 - 3.4.3 玻尔兹曼机训练
 - 3.5 本章小结
 - 第4章 前馈神经网络
 - 4.1 前馈神经网络结构
 - 用于回归的单输出神经网络
 - 4.2 计算输出
 - 4.3 初始化权重
 - 4.4 径向基函数神经网络
 - 4.4.1 径向基函数
 - 4.4.2 径向基函数神经网络示例
 - 4.5 规范化数据
 - 4.5.1 1-of-n编码
 - 4.5.2 范围规范化
 - 4.5.3 分数规范化
 - 4.5.4 复杂规范化
 - 4.6 本章小结
 - 第5章 训练与评估
 - 5.1 评估分类
 - 5.1.1 二值分类
 - 5.1.2 多类分类
 - 5.1.3 对数损失
 - 5.1.4 多类对数损失
 - 5.2 评估回归
 - 5.3 模拟退火训练
 - 5.4 本章小结
 - 第6章 反向传播训练
 - 6.1 理解梯度
 - 6.1.1 什么是梯度
 - 6.1.2 计算梯度
 - 6.2 计算输出节点增量
 - 6.2.1 二次误差函数
 - 6.2.2 交叉熵误差函数
 - 6.3 计算剩余节点增量
 - 6.4 激活函数的导数
 - 6.4.1 线性激活函数的导数
 - 6.4.2 Softmax激活函数的导数
 - 6.4.3 S型激活函数的导数
 - 6.4.4 双曲正切激活函数的导数
 - 6.4.5 ReLU激活函数的导数
 - 6.5 应用反向传播
 - 6.5.1 批量训练和在线训练
 - 6.5.2 随机梯度下降
 - 6.5.3 反向传播权重更新
 - 6.5.4 选择学习率和动量
 - 6.5.5 Nesterov动量
 - 6.6 本章小结
 - 第7章 其他传播训练
 - 7.1 弹性传播
 - 7.2 RPROP参数
 - 7.3 数据结构
 - 7.4 理解RPROP
 - 7.4.1 确定梯度的符号变化
 - 7.4.2 计算权重变化
 - 7.4.3 修改更新值
 - 7.5 莱文伯格-马夸特算法
 - 7.6 黑塞矩阵的计算
 - 7.7 具有多个输出的LMA
 - 7.8 LMA过程概述
 - 7.9 本章小结
 - 第8章 NEAT、CPPN和HyperNEAT
 - 8.1 NEAT神经网络
 - 8.1.1 NEAT突变
 - 8.1.2 NEAT交叉
 - 8.1.3 NEAT物种形成
 - 8.2 CPPN
 - CPPN表型
 - 8.3 HyperNEAT神经网络
 - 8.3.1 HyperNEAT基板
 - 8.3.2 HyperNEAT计算机视觉
 - 8.4 本章小结
 - 第9章 深度学习
 - 9.1 深度学习的组成部分
 - 9.2 部分标记的数据
 - 9.3 修正线性单元
 - 9.4 卷积神经网络
 - 9.5 神经元Dropout
 - 9.6 GPU训练
 - 9.7 深度学习工具
 - 9.7.1 H2O
 - 9.7.2 Theano
 - 9.7.3 Lasagne和nolearn
 - 9.7.4 ConvNetJS
 - 9.8 深度信念神经网络
 - 9.8.1 受限玻尔兹曼机
 - 9.8.2 训练DBNN
 - 9.8.3 逐层采样
 - 9.8.4 计算正梯度
 - 9.8.5 吉布斯采样
 - 9.8.6 更新权重和偏置
 - 9.8.7 DBNN反向传播
 - 9.8.8 深度信念应用
 - 9.9 本章小结
 - 第10章 卷积神经网络
 - 10.1 LeNet-5
 - 10.2 卷积层
 - 10.3 最大池层
 - 10.4 稠密层
 - 10.5 针对MNIST数据集的卷积神经网络
 - 10.6 本章小结
 - 第11章 剪枝和模型选择
 - 11.1 理解剪枝
 - 11.1.1 剪枝连接
 - 11.1.2 剪枝神经元
 - 11.1.3 改善或降低表现
 - 11.2 剪枝算法
 - 11.3 模型选择
 - 11.3.1 网格搜索模型选择
 - 11.3.2 随机搜索模型选择
 - 11.3.3 其他模型选择技术
 - 11.4 本章小结
 - 第12章 Dropout和正则化
 - 12.1 L1和L2正则化
 - 12.1.1 理解L1正则化
 - 12.1.2 理解L2正则化
 - 12.2 Dropout
 - 12.2.1 Dropout层
 - 12.2.2 实现Dropout层
 - 12.3 使用Dropout
 - 12.4 本章小结
 - 第13章 时间序列和循环神经网络
 - 13.1 时间序列编码
 - 13.1.1 为输入和输出神经元编码数据
 - 13.1.2 预测正弦波
 - 13.2 简单循环神经网络
 - 13.2.1 埃尔曼神经网络
 - 13.2.2 若当神经网络
 - 13.2.3 通过时间的反向传播
 - 13.2.4 门控循环单元
 - 13.3 本章小结
 - 第14章 构建神经网络
 - 14.1 评估神经网络
 - 14.2 训练参数
 - 14.2.1 学习率
 - 14.2.2 动量
 - 14.2.3 批次大小
 - 14.3 常规超参数
 - 14.3.1 激活函数
 - 14.3.2 隐藏神经元的配置
 - 14.4 LeNet-5超参数
 - 14.5 本章小结
 - 第15章 可视化
 - 15.1 混淆矩阵
 - 15.1.1 读取混淆矩阵
 - 15.1.2 创建混淆矩阵
 - 15.2 t-SNE降维
 - 15.2.1 t-SNE可视化
 - 15.2.2 超越可视化的t-SNE
 - 15.3 本章小结
 - 第16章 用神经网络建模
 - 16.1 Kaggle竞赛
 - 16.1.1 挑战赛的经验
 - 16.1.2 挑战赛取胜的方案
 - 16.1.3 我们在挑战赛中的方案
 - 16.2 用深度学习建模
 - 16.2.1 神经网络结构
 - 16.2.2 装袋多个神经网络
 - 16.3 本章小结
 - 附录A 示例代码使用说明
 - A.1 系列图书简介
 - A.2 保持更新
 - A.3 获取示例代码
 - A.3.1 下载压缩文件
 - A.3.2 克隆Git仓库
 - A.4 示例代码的内容
 - A.5 如何为项目做贡献
 - 参考资料
 
                        展开全部
                        
出版方
人民邮电出版社
人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。
