展开全部

主编推荐语

全面阐述元学习知识体系。

内容简介

本书介绍了元学习方法的发展历史、起源、思想、近来流行的元学习方法,以及这些方法的组织思路、改进方案、相互继承、如何应用。

本书共11章,分为两部分:元学习方法思想的介绍和元学习应用场景中模型的介绍。这些内容介绍了如何在元学习框架下融入强化学习、模仿学习、在线学习、无监督学习、迁移学习等,实现对实际应用中深度模型的改进,以适应复杂多变的实际任务。

目录

  • 版权信息
  • 内容简介
  • 前言
  • 1 元学习概述
  • 1.1 研究背景
  • 1.1.1 元学习与深度学习的区别和联系
  • 1.1.2 元学习应用举例
  • 1.2 元学习的起源
  • 1.2.1 1987年的Jürgen Schmidhuber
  • 1.2.2 1990年的Stuart Russell和Eric H.Wefald
  • 1.3 近期发展
  • 1.3.1 1997年的长短期记忆网络LSTM
  • 1.3.2 2001年的LSTM元学习系统
  • 1.3.3 2017年的MAML算法
  • 1.3.4 2019年基于LSTM的元学习器
  • 1.3.5 2019年基于高效基础学习器的元学习
  • 2 元学习框架
  • 2.1 元学习研究常用数据集
  • 2.2 定义任务
  • 2.2.1 元学习任务的定义
  • 2.2.2 元强化学习任务的定义
  • 2.2.3 任务分解
  • 2.3 元学习训练框架
  • 2.4 元学习方法分类
  • 2.4.1 神经网络适应法
  • 2.4.2 度量学习适应法
  • 2.4.3 基础学习器和元学习器适应法
  • 2.4.4 贝叶斯元学习适应法
  • 2.4.5 元学习与其他学习框架结合
  • 2.5 元学习方法的比较
  • 3 元学习神经网络方法
  • 3.1 神经网络
  • 3.1.1 神经元
  • 3.1.2 权重、偏差和激活函数
  • 3.1.3 网络反向传播算法
  • 3.1.4 学习率、批尺寸、动量和权值衰减
  • 3.1.5 神经网络模型的正则化
  • 3.1.6 批归一化
  • 3.1.7 随机失活
  • 3.2 卷积神经网络
  • 3.2.1 卷积层和滤波器
  • 3.2.2 池化层和下采样层
  • 3.2.3 全连接层和上采样层
  • 3.2.4 经典卷积神经网络
  • 3.3 残差网络
  • 3.3.1 残差网络模块
  • 3.3.2 高速路神经网络
  • 3.3.3 宽残差网络
  • 3.4 元学习神经网络模型
  • 3.4.1 学会学习的神经网络学习器
  • 3.4.2 预训练深度神经网络的适应
  • 3.4.3 具有适应性的神经元设计
  • 3.5 自动化机器学习
  • 3.5.1 超参数优化
  • 3.5.2 元学习和自动化机器学习
  • 3.5.3 加速自动化机器学习
  • 3.5.4 决策式自动化机器学习
  • 3.5.5 渐进式自动化机器学习
  • 3.6 总结
  • 4 基于度量的元学习方法
  • 4.1 基于度量的学习
  • 4.1.1 度量的定义
  • 4.1.2 度量学习的应用
  • 4.1.3 有监督度量学习
  • 4.1.4 半监督度量学习
  • 4.1.5 无监督度量学习
  • 4.2 注意力模型
  • 4.3 记忆模块
  • 4.4 SNAIL算法
  • 4.5 Relation Network算法
  • 4.6 Prototypical Network算法
  • 4.7 TADAM算法
  • 4.8 Dynamic Few-Shot算法
  • 4.9 mAP算法
  • 4.10 总结
  • 5 基础学习器和元学习器结合的元学习方法
  • 5.1 基础学习器
  • 5.2 元学习器
  • 5.3 MAML算法
  • 5.4 Reptile算法
  • 5.5 循环神经网络
  • 5.5.1 RNN基础结构
  • 5.5.2 Bidirectional RNN
  • 5.5.3 LSTM
  • 5.5.4 Gated Recurrent Unit
  • 5.6 RNN元学习算法
  • 5.7 Meta-LSTM算法
  • 5.8 R2D2算法
  • 5.9 LR2D2算法
  • 5.10 MetaOptNet算法
  • 5.11 Transductive Propagation Network算法
  • 5.12 Latent Embedding Optimization算法
  • 6 贝叶斯思想下的元学习方法
  • 6.1 Bayesian Program Learning算法
  • 6.2 Neural Statistician算法
  • 6.3 LLAMA算法
  • 6.4 BMAML算法
  • 6.5 PLATIPUS算法
  • 6.6 VERSA算法
  • 7 元学习的应用场景
  • 7.1 元迁移学习
  • 7.2 元强化学习
  • 7.3 元模仿学习
  • 7.4 在线元学习
  • 7.5 无监督元学习
  • 8 元强化学习
  • 8.1 强化学习
  • 8.2 基于MAML的元强化学习
  • 8.3 GrBAL算法
  • 9 元模仿学习
  • 9.1 模仿学习
  • 9.2 MAML算法用于元模仿学习
  • 9.3 MetaMimic算法
  • 10 在线元学习
  • 10.1 在线学习
  • 10.2 FTML算法
  • 11 无监督元学习
  • 11.1 无监督学习
  • 11.2 CACTUs算法
展开全部

评分及书评

评分不足
2个评分
  • 用户头像
    给这本书评了
    5.0
    从元认知到元学习,基础到应用看看这本书。

    元学习,元,指的是万物的本质,Meta-Physics 指的是形而上学,即研究事物本质的哲学。元学习的含义有两层,第一层是让机器学会学习,让机器具备分析和解决问题的能力,机器通过完成任务获取经验,提高完成任务的能力;第二层是让机器学习模型可以更好地泛化到新领域中,并且在新领域中创新、综合,从而完成差异很大的新任务。元学习框架包括两个部分:(1)处理任务的基础层模型;(2)综合分析所有任务,并且指导基础层模型的元层,元层指导基础层模型更快更好地适应新任务。元层是综合所有问题解决经验的指挥层,代表知识层级中更加本质和普适的知识,能推广到新任务。基础层和元层表示任务包含的知识层级,基础层表示任务特性的知识,元层表示任务共性的知识。元认知是探索人类学习和认知方式的研究,人类将不同来源的信息进行综合,找到共同点和不同点,发现逻辑推理规律,进而创新,找到新问题的解决方案。例如,万有引力定律、作用力和反作用力都是人类长期观察客观世界,归纳总结,推导出来可以推而广之的客观物理定律。叶斯元学习适应法将贝叶斯方法融入元学习算法,扩大了学习器的选择范围,对分布进行抽样或者近似,加速学习器的更新,通过生成式的抽样方式,加入演化,使用有监督学习方式对学习器进行更新。模仿学习是机器人对另一个机器人或者人类的行为进行模仿,模仿人类或机器人的行为,估计奖励机制,然后根据奖励机制优化策略。类似地,元模仿学习是元学习和模仿学习结合产生的领域,使机器人通过一次模仿学会新动作。神经网络适应法依赖于深度神经网络模型丰富强大的表示力来描述复杂问题,在小样本高维输入数据上,神经网络模型对高维输入数据进行降维。由于样本少,神经网络模型参数很多,只能依靠对预训练的深度模型进行局部调参,适应到小样本任务上来解决问题。元学习模型可以借鉴过去的模型训练结果,这些结果存储在记忆模块中。记忆模块需要具备以下功能,一是记忆更新功能,二是记忆删除功能,三是记忆搜索功能。记忆模块可以被添加到任何神经网络模型中,在模型训练过程中,存储模型训练中产生的重要参数。在贝叶斯思想下,参数被视为随机变量,随机变量的概率分布用样本进行模拟。贝叶斯思想包括以下方面:一是根据联合分布和条件分布,生成新的数据,以假乱真,对数据集进行扩充;二是实现数据的遗传演化和渐变,根据新数据基于过去数据的条件分布,由过去的数据生成新数据;三是使用多层贝叶斯模型,对模型中的参数进行建模,给出所有参数的先验分布和后验分布;四是贝叶斯变分推理,给出后验分布的最优近似,快速有效,得到隐藏层参数或者背景参数的后验分布近似。

      转发
      评论

    出版方

    电子工业出版社

    电子工业出版社成立于1982年10月,是国务院独资、工信部直属的中央级科技与教育出版社,是专业的信息技术知识集成和服务提供商。经过三十多年的建设与发展,已成为一家以科技和教育出版、期刊、网络、行业支撑服务、数字出版、软件研发、软科学研究、职业培训和教育为核心业务的现代知识服务集团。出版物内容涵盖了电子信息技术的各个分支及工业技术、经济管理、科普与少儿、社科人文等领域,综合出版能力位居全国出版行业前列。