展开全部

主编推荐语

本书全面系统地介绍了统计学习的主要方法。

内容简介

全书共分两篇。

第一篇系统介绍监督学习的各种重要方法,包括决策树、感知机、支持向量机、最大熵模型与逻辑斯谛回归、推进法、多类分类法、EM算法、隐马尔科夫模型和条件随机场等;

第二篇介绍无监督学习,包括聚类、奇异值、主成分分析、潜在语义分析等。

两篇中,除概论和总结外,每章介绍一或二种方法。

目录

  • 版权信息
  • 内容简介
  • 第2版序言
  • 第1版序言
  • 第1篇 监督学习
  • 第1章 统计学习及监督学习概论
  • 1.1 统计学习
  • 1.2 统计学习的分类
  • 1.3 统计学习方法三要素
  • 1.4 模型评估与模型选择
  • 1.5 正则化与交叉验证
  • 1.6 泛化能力
  • 1.7 生成模型与判别模型
  • 1.8 监督学习应用
  • 本章概要
  • 继续阅读
  • 习题
  • 第2章 感知机
  • 2.1 感知机模型
  • 2.2 感知机学习策略
  • 2.3 感知机学习算法
  • 本章概要
  • 继续阅读
  • 习题
  • 第3章 k近邻法
  • 3.1 k近邻算法
  • 3.2 k近邻模型
  • 3.3 k近邻法的实现:kd树
  • 本章概要
  • 继续阅读
  • 习题
  • 第4章 朴素贝叶斯法
  • 4.1 朴素贝叶斯法的学习与分类
  • 4.2 朴素贝叶斯法的参数估计
  • 本章概要
  • 继续阅读
  • 习题
  • 第5章 决策树
  • 5.1 决策树模型与学习
  • 5.2 特征选择
  • 5.3 决策树的生成
  • 5.4 决策树的剪枝
  • 5.5 CART算法
  • 本章概要
  • 继续阅读
  • 习题
  • 第6章 逻辑斯谛回归与最大熵模型
  • 6.1 逻辑斯谛回归模型
  • 6.2 最大熵模型
  • 6.3 模型学习的最优化算法
  • 本章概要
  • 继续阅读
  • 习题
  • 第7章 支持向量机
  • 7.1 线性可分支持向量机与硬间隔最大化
  • 7.2 线性支持向量机与软间隔最大化
  • 7.3 非线性支持向量机与核函数
  • 7.4 序列最小最优化算法
  • 本章概要
  • 继续阅读
  • 习题
  • 第8章 提升方法
  • 8.1 提升方法AdaBoost算法
  • 8.2 AdaBoost算法的训练误差分析
  • 8.3 AdaBoost算法的解释
  • 8.4 提升树
  • 本章概要
  • 继续阅读
  • 习题
  • 第9章 EM算法及其推广
  • 9.1 EM算法的引入
  • 9.2 EM算法的收敛性
  • 9.3 EM算法在高斯混合模型学习中的应用
  • 9.4 EM算法的推广
  • 本章概要
  • 继续阅读
  • 习题
  • 第10章 隐马尔可夫模型
  • 10.1 隐马尔可夫模型的基本概念
  • 10.2 概率计算算法
  • 10.3 学习算法
  • 10.4 预测算法
  • 本章概要
  • 继续阅读
  • 习题
  • 第11章 条件随机场
  • 11.1 概率无向图模型
  • 11.2 条件随机场的定义与形式
  • 11.3 条件随机场的概率计算问题
  • 11.4 条件随机场的学习算法
  • 11.5 条件随机场的预测算法
  • 本章概要
  • 继续阅读
  • 习题
  • 第12章 监督学习方法总结
  • 第2篇 无监督学习
  • 第13章 无监督学习概论
  • 13.1 无监督学习基本原理
  • 13.2 基本问题
  • 13.3 机器学习三要素
  • 13.4 无监督学习方法
  • 本章概要
  • 继续阅读
  • 第14章 聚类方法
  • 14.1 聚类的基本概念
  • 14.2 层次聚类
  • 14.3 k均值聚类
  • 本章概要
  • 继续阅读
  • 习题
  • 第15章 奇异值分解
  • 15.1 奇异值分解的定义与性质
  • 15.2 奇异值分解的计算
  • 15.3 奇异值分解与矩阵近似
  • 本章概要
  • 继续阅读
  • 习题
  • 第16章 主成分分析
  • 16.1 总体主成分分析
  • 16.2 样本主成分分析
  • 本章概要
  • 继续阅读
  • 习题
  • 第17章 潜在语义分析
  • 17.1 单词向量空间与话题向量空间
  • 17.2 潜在语义分析算法
  • 17.3 非负矩阵分解算法
  • 本章概要
  • 继续阅读
  • 习题
  • 第18章 概率潜在语义分析
  • 18.1 概率潜在语义分析模型
  • 18.2 概率潜在语义分析的算法
  • 本章概要
  • 继续阅读
  • 习题
  • 第19章 马尔可夫链蒙特卡罗法
  • 19.1 蒙特卡罗法
  • 19.2 马尔可夫链
  • 19.3 马尔可夫链蒙特卡罗法
  • 19.4 Metropolis-Hastings算法
  • 19.5 吉布斯抽样
  • 本章概要
  • 继续阅读
  • 习题
  • 第20章 潜在狄利克雷分配
  • 20.1 狄利克雷分布
  • 20.2 潜在狄利克雷分配模型
  • 20.3 LDA的吉布斯抽样算法
  • 20.4 LDA的变分EM算法
  • 本章概要
  • 继续阅读
  • 习题
  • 第21章 PageRank算法
  • 21.1 PageRank的定义
  • 21.2 PageRank的计算
  • 本章概要
  • 继续阅读
  • 习题
  • 第22章 无监督学习方法总结
  • 22.1 无监督学习方法的关系和特点
  • 22.2 话题模型之间的关系和特点
  • 附录A 梯度下降法
  • 附录B 牛顿法和拟牛顿法
  • 附录C 拉格朗日对偶性
  • 附录D 矩阵的基本子空间
  • 附录E KL散度的定义和狄利克雷分布的性质
  • 索引
展开全部

评分及书评

5.0
6个评分
  • 用户头像
    给这本书评了
    5.0
    统计学习方法

    #管中窥豹读书计划第 978 本(251)#《统计学习方法》🚢统计学习(statistical learning)是关于计算机基于数据构建概率统计模型并运用模型对数据进行预测与分析的一门学科。统计学习也称为统计机器学习。对 “学习” 给出以下定义:“如果一个系统能够通过执行某个过程改进它的性能,这就是学习。”🚢统计学习研究的对象是数据(data)。它从数据出发,提取数据的特征,抽象出数据的模型,发现数据中的知识,又回到对数据的分析与预测中去。作为统计学习的对象,数据是多样的,包括存在于计算机及网络上的各种数字、文字、图像、视频、音频数据以及它们的组合。🚢统计学习用于对数据的预测与分析,特别是对未知新数据的预测与分析。对数据的预测可以使计算机更加智能化,或者说使计算机的某些性能得到提高;对数据的分析可以让人们获取新的知识,给人们带来新的发现。对数据的预测与分析是通过构建概率统计模型实现的。统计学习总的目标就是考虑学习什么样的模型和如何学习模型,以使模型能对数据进行准确的预测与分析,同时也要考虑尽可能地提高学习效率。🚢统计学习的方法是基于数据构建概率统计模型从而对数据进行预测与分析。统计学习由监督学习、无监督学习和强化学习等组成。统计学习方法包括模型的假设空间、模型选择的准则以及模型学习的算法。称其为统计学习方法的三要素,简称为模型(model)、策略(strategy)和算法(algorithm)。🚢实现统计学习方法的步骤如下:(1)得到一个有限的训练数据集合;(2)确定包含所有可能的模型的假设空间,即学习模型的集合;(3)确定模型选择的准则,即学习的策略;(4)实现求解最优模型的算法,即学习的算法;(5)通过学习方法选择最优模型;(6)利用学习的最优模型对新数据进行预测或分析。🚢无监督学习是指从无标注数据中学习预测模型的机器学习问题。无标注数据是自然得到的数据,预测模型表示数据的类别、转换或概率。无监督学习的本质是学习数据中的统计规律或潜在结构。🚢模型的输入与输出的所有可能取值的集合分别称为输入空间与输出空间。输入空间与输出空间可以是有限元素集合,也可以是欧氏空间。每个输入是一个实例,由特征向量表示。每一个输出是对输入的分析结果,由输入的类别、转换或概率表示。模型可以实现对数据的聚类、降维或概率估计。🚢强化学习是指智能系统在与环境的连续互动中学习最优行为策略的机器学习问题。假设智能系统与环境的互动基于马尔可夫决策过程,智能系统能观测到的是与环境互动得到的数据序列。强化学习的本质是学习最优的序贯决策。智能系统的目标不是短期奖励的最大化,而是长期累积奖励的最大化。强化学习过程中,系统不断地试错,以达到学习最优策略的目的。🚢贝叶斯学习,又称为贝叶斯推理,是统计学、机器学习中重要的方法。其主要想法是,在概率模型的学习和推理中,利用贝叶斯定理,计算在给定数据条件下模型的条件概率,即后验概率,并应用这个原理进行模型的估计,以及对数据的预测。将模型、未观测要素及其参数用变量表示,使用模型的先验分布是贝叶斯学习的特点。🚢算法是指学习模型的具体计算方法。统计学习基于训练数据集,根据学习策略,从假设空间中选择最优模型,最后需要考虑用什么样的计算方法求解最优模型。这时,统计学习问题归结为最优化问题,统计学习的算法成为求解最优化问题的算法。如果最优化问题有显式的解析解,这个最优化问题就比较简单。🚢模型选择的典型方法是正则化。正则化是结构风险最小化策略的实现,是在经验风险上加一个正则化项或罚项。正则化项一般是模型复杂度的单调递增函数,模型越复杂,正则化值就越大。正则化符合奥卡姆剃刀(Occams razor)原理。奥卡姆剃刀原理应用于模型选择时变为以下想法:在所有可能选择的模型中,能够很好地解释已知数据并且十分简单才是最好的模型,也就是应该选择的模型。

      转发
      评论
      用户头像
      给这本书评了
      5.0
      ML必读书

      期待光速更新

        转发
        评论

      出版方

      清华大学出版社

      清华大学出版社成立于1980年6月,是由教育部主管、清华大学主办的综合出版单位。植根于“清华”这座久负盛名的高等学府,秉承清华人“自强不息,厚德载物”的人文精神,清华大学出版社在短短二十多年的时间里,迅速成长起来。清华大学出版社始终坚持弘扬科技文化产业、服务科教兴国战略的出版方向,把出版高等学校教学用书和科技图书作为主要任务,并为促进学术交流、繁荣出版事业设立了多项出版基金,逐渐形成了以出版高水平的教材和学术专著为主的鲜明特色,在教育出版领域树立了强势品牌。