展开全部

主编推荐语

人工智能科学:探索神经网络、深度学习理论及应用

内容简介

人工智能是研究理解和模拟人类智能、智能行为及其规律的一门科学。其主要任务是建立智能信息处理理论、认知理论、行为控制理论等,进而设计出可以模仿人类智能行为的计算系统。本书主要从人工智能的连接主义思想出发,探索人工神经网络与深度学习的理论方法和技术应用。重视知识间的逻辑关系与理论推演,在此基础上,力求通过Pytorch或Matlab实现理论方法的典型应用,使读者能够对该领域知识融会贯通、活学活用。在神经网络计算中,主要介绍了神经网络计算概念、人工神经元模型,神经网络结构、神经网络学习规则。主要讨论了几种常用的神经网络,感知器神经网络、自组织竞争神经网络、径向基函数神经网络、反馈神经网络。深度学习算法是神经网络算法研究中的一个新的分支,目的是建立、模拟人脑的学习原理建立起来的人工神经网络。深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以现数据的分布式特征表示。深度学习算法主要介绍了受限玻尔兹曼机和深度置信网、堆栈式自动编码器、生成对抗网络、卷积神经网络、循环神经网络、深度强化学习以及深度学习的可解释性。随着深度学习应用的不断深入,更多的算法不断出现,在此理论基础上,可以演绎更深层次的学习算法。人工智能是综合性较高的交叉学科,本书从人工神经完了过智能科学范畴和应用领域,收集经典理论、方法和应用场景,试图在人工智能的多个应用领域能够揭示其基本原理、算法并具有实践指导意义。

目录

  • 版权信息
  • 内容简介
  • 前言
  • 第1章 绪论
  • 1.1 与深度学习有关的几个概念
  • 1.1.1 人工智能
  • 1.1.2 机器学习
  • 1.1.3 表示学习
  • 1.1.4 机器学习、神经网络与深度学习的关系
  • 1.1.5 深度学习常用的框架
  • 1.2 神经网络与深度学习的发展历程
  • 1.2.1 神经网络的诞生
  • 1.2.2 神经网络的复兴
  • 1.2.3 深度学习的崛起
  • 1.3 神经网络的产生机理
  • 1.3.1 大脑研究的基本情况
  • 1.3.2 脑组织的基本组成
  • 1.3.3 脑组织的分层结构
  • 1.3.4 大脑的基本工作原理
  • 1.4 生物神经网络基础
  • 1.4.1 神经元的基本结构
  • 1.4.2 神经元的基本分类
  • 1.4.3 神经元的信息传递机理
  • 1.4.4 生物神经网络的构成
  • 1.5 本书的知识框架体系
  • 1.6 本章小结
  • 第2章 人工神经网络计算
  • 2.1 神经网络概述
  • 2.2 人工神经元模型
  • 2.2.1 基本神经元模型
  • 2.2.2 常用激活函数
  • 2.2.3 Softmax输出分类
  • 2.3 神经网络结构
  • 2.3.1 单层前馈网络
  • 2.3.2 多层前馈网络
  • 2.3.3 反馈网络
  • 2.3.4 图网络
  • 2.4 神经网络的学习方法
  • 2.4.1 无监督学习的Hebb算法
  • 2.4.2 监督学习的Delta规则
  • 2.5 神经网络的损失函数
  • 2.5.1 均方差损失函数
  • 2.5.2 平均绝对误差损失函数
  • 2.5.3 交叉熵损失函数
  • 2.6 神经网络的学习规则
  • 2.6.1 极大似然估计
  • 2.6.2 经验风险最小化准则
  • 2.6.3 过拟合与欠拟合
  • 2.7 梯度下降法
  • 2.7.1 一维梯度下降
  • 2.7.2 多维梯度下降
  • 2.7.3 随机梯度下降
  • 2.8 网络正则化方法
  • 2.8.1 L1和L2正则化
  • 2.8.2 提前停止
  • 2.8.3 权重衰减
  • 2.8.4 丢弃法
  • 2.8.5 数据增强
  • 2.8.6 标签平滑
  • 2.9 模型评估方法
  • 2.9.1 混淆矩阵
  • 2.9.2 准确率、精确率、召回率
  • 2.9.3 ROC/AUC/PR曲线
  • 2.10 本章小结
  • 第3章 多层感知器神经网络
  • 3.1 感知器及其发展过程
  • 3.2 感知器学习算法
  • 3.2.1 离散单输出感知器学习算法
  • 3.2.2 离散多输出感知器学习算法
  • 3.2.3 多层感知器线性处理问题
  • 3.3 多层感知器的算法实现
  • 3.4 反向传播算法
  • 3.4.1 反向传播多层感知器模型
  • 3.4.2 反向传播算法的原理
  • 3.4.3 反向传播算法的执行步骤
  • 3.4.4 梯度消失和梯度爆炸问题
  • 3.4.5 反向传播网络的数据拟合问题
  • 3.5 本章小结
  • 第4章 自组织竞争神经网络
  • 4.1 竞争学习的概念与原理
  • 4.1.1 竞争学习规则
  • 4.1.2 竞争学习原理
  • 4.2 SOFM网络
  • 4.2.1 SOFM网络结构
  • 4.2.2 运行原理
  • 4.2.3 学习过程
  • 4.2.4 两阶段学习
  • 4.3 ART网络
  • 4.3.1 ART网络结构
  • 4.3.2 网络运行与训练
  • 4.3.3 网络运行的参数说明
  • 4.4 自组织竞争神经网络的算法实现
  • 4.5 本章小结
  • 第5章 径向基函数神经网络
  • 5.1 径向基函数介绍及结构
  • 5.2 函数逼近与内插
  • 5.2.1 插值问题的定义
  • 5.2.2 径向基函数的一般形式
  • 5.2.3 径向基函数的性质
  • 5.3 正则化理论
  • 5.4 径向基函数神经网络学习
  • 5.4.1 随机选取径向基函数中心
  • 5.4.2 自组织学习选取径向基函数中心
  • 5.4.3 监督学习选取径向基函数中心
  • 5.5 本章小结
  • 第6章 卷积神经网络
  • 6.1 卷积神经网络的概念及特点
  • 6.1.1 卷积的定义
  • 6.1.2 卷积的变形
  • 6.1.3 卷积与互相关操作
  • 6.1.4 卷积神经网络的特点
  • 6.2 卷积神经网络的基本结构
  • 6.2.1 卷积层
  • 6.2.2 汇聚层
  • 6.2.3 全连接层
  • 6.2.4 输出层
  • 6.3 卷积神经网络参数学习
  • 6.4 卷积神经网络常用模型
  • 6.4.1 LeNet模型
  • 6.4.2 AlexNet模型
  • 6.4.3 VGGNet模型
  • 6.4.4 GoogLeNet模型
  • 6.4.5 ResNet模型
  • 6.4.6 DenseNet模型
  • 6.5 卷积神经网络的算法实现
  • 6.6 本章小结
  • 第7章 循环神经网络
  • 7.1 循环神经网络的概念
  • 7.2 循环神经网络模型
  • 7.3 循环神经网络参数学习
  • 7.3.1 BPTT算法
  • 7.3.2 RTRL算法
  • 7.4 网络梯度问题改进
  • 7.5 长短期记忆
  • 7.6 门控循环单元网络
  • 7.7 深度循环神经网络
  • 7.7.1 堆叠循环神经网络
  • 7.7.2 双向循环神经网络
  • 7.8 循环神经网络算法实现
  • 7.9 本章小结
  • 第8章 注意力机制与反馈网络
  • 8.1 注意力机制网络
  • 8.1.1 注意力机制网络的概念及分类
  • 8.1.2 自注意力模型
  • 8.2 离散型Hopfield神经网络
  • 8.2.1 网络的结构与工作方式
  • 8.2.2 网络的能量状态分析
  • 8.2.3 网络吸引子的性质
  • 8.3 连续型Hopfield神经网络(CHNN)
  • 8.3.1 CHNN的拓扑结构
  • 8.3.2 CHNN的能量与稳定性分析
  • 8.4 Hopfield神经网络应用实例
  • 8.5 Hopfield神经网络求解TSP
  • 8.6 本章小结
  • 第9章 深度学习网络优化
  • 9.1 参数初始化
  • 9.1.1 固定方差参数初始化
  • 9.1.2 方差缩放参数初始化
  • 9.1.3 正交初始化
  • 9.2 数据预处理
  • 9.3 逐层归一化
  • 9.3.1 批量归一化
  • 9.3.2 层归一化
  • 9.3.3 权重归一化
  • 9.3.4 局部响应归一化
  • 9.4 超参数优化
  • 9.4.1 网格搜索
  • 9.4.2 随机搜索
  • 9.4.3 贝叶斯优化
  • 9.4.4 动态资源分配
  • 9.4.5 神经架构搜索
  • 9.5 优化算法
  • 9.5.1 空间变量的非凸优化
  • 9.5.2 Momentum
  • 9.5.3 NAG
  • 9.5.4 AdaGrad
  • 9.5.5 AdaDelta
  • 9.5.6 RMSProp
  • 9.5.7 Adam
  • 9.6 本章小结
  • 第10章 受限玻尔兹曼机和深度置信网络
  • 10.1 概率图模型
  • 10.2 受限玻尔兹曼机的基本结构
  • 10.3 受限玻尔兹曼机的能量模型和似然函数
  • 10.4 受限玻尔兹曼机的学习任务
  • 10.4.1 最优参数的梯度计算
  • 10.4.2 吉布斯采样
  • 10.4.3 对比散度算法
  • 10.5 深度置信网络
  • 10.5.1 网络模型
  • 10.5.2 网络训练算法
  • 10.6 深度置信网络的应用
  • 10.6.1 音频特征提取
  • 10.6.2 多模态数据建模
  • 10.7 本章小结
  • 第11章 栈式自编码器
  • 11.1 自编码器
  • 11.2 稀疏自编码器
  • 11.3 栈式自编码器的原理
  • 11.4 降噪自编码器
  • 11.5 自编码器的图像还原
  • 11.6 自编码器的机器翻译应用
  • 11.7 本章小结
  • 第12章 生成对抗网络
  • 12.1 深度生成模型
  • 12.1.1 概率密度估计
  • 12.1.2 生成样本
  • 12.2 生成对抗网络的基本结构
  • 12.3 原始-对偶次梯度方法训练
  • 12.4 生成对抗网络的应用
  • 12.4.1 人脸图像的生成
  • 12.4.2 生成对抗网络的算法实现
  • 12.5 本章小结
  • 第13章 图神经网络
  • 13.1 图网络概述
  • 13.1.1 图的定义
  • 13.1.2 图数据网络的性质和特点
  • 13.1.3 图神经网络的发展
  • 13.2 图卷积神经网络
  • 13.2.1 谱域图卷积神经网络
  • 13.2.2 切比雪夫网络
  • 13.2.3 图卷积神经网络
  • 13.3 图循环神经网络
  • 13.3.1 不动点理论
  • 13.3.2 归纳式图表示学习
  • 13.3.3 图注意力网络
  • 13.4 消息传递神经网络
  • 13.5 图神经网络模型的应用
  • 13.5.1 图分类
  • 13.5.2 知识图谱与注意力模型
  • 13.5.3 基于图神经网络的推荐系统
  • 13.5.4 计算机视觉
  • 13.6 本章小结
  • 第14章 深度强化学习
  • 14.1 强化学习概述
  • 14.2 马尔可夫决策过程
  • 14.2.1 价值函数
  • 14.2.2 动作价值函数
  • 14.2.3 最优价值函数
  • 14.2.4 策略迭代
  • 14.2.5 价值迭代
  • 14.3 Q-Learning算法
  • 14.4 Deep Q-Network强化学习
  • 14.5 蒙特卡罗算法
  • 14.6 AlphaGo强化学习
  • 14.6.1 AlphaGo发展概述
  • 14.6.2 AlphaGo Fan算法的原理
  • 14.6.3 AlphaGo Zero算法的原理
  • 14.7 强化学习的应用
  • 14.7.1 游戏领域
  • 14.7.2 机器人控制领域
  • 14.7.3 自然语言处理领域
  • 14.7.4 其他领域
  • 14.8 本章小结
  • 第15章 深度学习的可解释性
  • 15.1 可解释性的定义
  • 15.2 可解释性方法
  • 15.2.1 模型透明度
  • 15.2.2 模型功能
  • 15.3 可视化方法分类
  • 15.3.1 特征可视化
  • 15.3.2 关系可视化
  • 15.3.3 过程可视化
  • 15.4 神经网络特征可视化
  • 15.5 本章小结
  • 第16章 多模态预训练模型
  • 16.1 预训练
  • 16.2 多模态数据的特征表示
  • 16.2.1 文本特征
  • 16.2.2 图像特征
  • 16.3 Transformer模型
  • 16.3.1 模型的基本结构
  • 16.3.2 编码模型
  • 16.3.3 解码模型
  • 16.3.4 基于Transformer模型的扩展
  • 16.4 预训练模型学习
  • 16.4.1 预训练模型的学习方式
  • 16.4.2 预训练迁移学习
  • 16.5 大模型的训练与预测
  • 16.5.1 大模型的共享模式和组合方式
  • 16.5.2 多模态预训练方法
  • 16.5.3 预训练模型实例
  • 16.6 本章小结
  • 附录A 主要符号
  • 参考文献
展开全部

评分及书评

尚无评分
目前还没人评分

出版方

电子工业出版社

电子工业出版社成立于1982年10月,是国务院独资、工信部直属的中央级科技与教育出版社,是专业的信息技术知识集成和服务提供商。经过三十多年的建设与发展,已成为一家以科技和教育出版、期刊、网络、行业支撑服务、数字出版、软件研发、软科学研究、职业培训和教育为核心业务的现代知识服务集团。出版物内容涵盖了电子信息技术的各个分支及工业技术、经济管理、科普与少儿、社科人文等领域,综合出版能力位居全国出版行业前列。