展开全部

主编推荐语

本书深入浅出讲AI,将看似高深莫测的AI技术抽丝剥茧、化繁为简,娓娓道来。

内容简介

本书从理论到实践,循序渐进地介绍了人工智能算法的基础知识,帮助读者敲开人工智能算法之门。

本书内容共8章,包括算法的历史背景与基本概念、算法相关的数学基础知识、信息学算法与数据结构相关的概念与知识,以及业界常用的机器学习算法。

同时,本书还介绍了算法工程的组成部分,以及一个典型的算法工程实践项目,手把手带领读者体验算法的魅力。本书还介绍了人工智能算法的三大研究方向,帮助读者迈向AI算法的进阶学习之路。

书中每一章的内容都采用了“总分总”形式,并且在章节末尾提炼出该章的核心关键词,方便读者进一步查询回顾。其中,第2章~第7章配有若干代表性的思考题,帮助读者巩固章节所学知识。

本书适合从事与人工智能相关的工程技术人员和高等院校相关专业的学生,以及在AI领域就业一两年以内的职场人士阅读。

目录

  • 版权信息
  • 内容简介
  • 推荐序
  • 前言
  • 致谢
  • 第1章 算法入门
  • 1.1 打开算法之门
  • 1.1.1 算法简史
  • 1.1.2 算法与人工智能
  • 1.1.3 什么是数据分析
  • 1.1.4 什么是数据挖掘
  • 1.1.5 什么是机器学习
  • 1.2 如何学习算法
  • 1.3 本书结构
  • 关键词回顾
  • 第2章 算法之内力
  • 2.1 线性代数
  • 2.1.1 名词解释
  • 2.1.2 向量和矩阵
  • 2.2 排列组合
  • 2.3 高等数学
  • 2.3.1 导数
  • 2.3.2 梯度
  • 2.4 概率与统计
  • 2.4.1 名词解释
  • 2.4.2 概率分布
  • 2.5 最优化原理
  • 2.6 动脑时刻
  • 2.7 本章小结
  • 关键词回顾
  • 第3章 算法之招式
  • 3.1 数据结构
  • 3.1.1 数组与链表
  • 3.1.2 队列和栈
  • 3.1.3 树
  • 3.1.4 图
  • 3.1.5 散列表
  • 3.2 基础算法
  • 3.2.1 排序
  • 3.2.2 递归与分治
  • 3.2.3 贪婪算法和动态规划
  • 3.2.4 搜索
  • 3.2.5 最短路径
  • 3.2.6 最小生成树
  • 3.2.7 树状数组
  • 3.2.8 线段树
  • 3.2.9 平衡二叉树
  • 3.2.10 并查集
  • 3.2.11 匈牙利算法
  • 3.3 在线评测系统
  • 3.3.1 LeetCode
  • 3.3.2 POJ与ZOJ
  • 3.3.3 Tsinsen
  • 3.4 动脑时刻
  • 3.5 本章小结
  • 关键词回顾
  • 第4章 算法之武功秘籍
  • 4.1 类别划分
  • 4.1.1 按是否有监督信号划分
  • 4.1.2 按学习目标划分
  • 4.2 线性回归模型与逻辑回归模型
  • 4.2.1 线性回归模型
  • 4.2.2 逻辑回归模型
  • 4.3 人工神经网络
  • 4.3.1 初识人工神经网络
  • 4.3.2 深度神经网络
  • 4.3.3 卷积神经网络
  • 4.3.4 递归神经网络
  • 4.3.5 图神经网络
  • 4.4 决策树
  • 4.4.1 概念与方法
  • 4.4.2 剪枝
  • 4.4.3 梯度提升决策树
  • 4.4.4 随机森林
  • 4.5 聚类
  • 4.5.1 距离度量
  • 4.5.2 划分聚类
  • 4.5.3 层次聚类
  • 4.5.4 密度聚类
  • 4.5.5 模型聚类
  • 4.6 贝叶斯分类
  • 4.6.1 概率基础
  • 4.6.2 朴素贝叶斯分类
  • 4.7 支持向量机
  • 4.8 动脑时刻
  • 4.9 本章小结
  • 关键词回顾
  • 第5章 算法工程的组成部分
  • 5.1 数据分析
  • 5.1.1 宏观把握数据
  • 5.1.2 微观感受数据
  • 5.1.3 分析方法
  • 5.2 特征工程
  • 5.2.1 数据预处理
  • 5.2.2 特征分类
  • 5.2.3 工程技巧
  • 5.3 建模与调参
  • 5.3.1 建模
  • 5.3.2 调参
  • 5.4 效果评估
  • 5.4.1 数据集划分
  • 5.4.2 评估指标
  • 5.4.3 直观理解AUC
  • 5.5 模型托管
  • 5.6 动脑时刻
  • 5.7 本章小结
  • 关键词回顾
  • 第6章 算法工程实战
  • 6.1 环境准备
  • 6.1.1 设备配置
  • 6.1.2 环境搭建
  • 6.1.3 开发工具
  • 6.1.4 基础调试
  • 6.2 开源算法库
  • 6.2.1 scikit-learn
  • 6.2.2 TensorFlow
  • 6.3 算法实践
  • 6.3.1 线性回归模型
  • 6.3.2 神经网络模型
  • 6.4 工程实战
  • 6.4.1 数据准备
  • 6.4.2 数据分析
  • 6.4.3 特征工程
  • 6.4.4 模型训练
  • 6.4.5 模型的保存与载入
  • 6.5 算法竞赛介绍
  • 6.5.1 Kaggle
  • 6.5.2 KDD Cup
  • 6.6 动脑时刻
  • 6.7 本章小结
  • 关键词回顾
  • 第7章 进阶学习
  • 7.1 深度学习
  • 7.1.1 起源
  • 7.1.2 难点与方法
  • 7.1.3 经典模型:AlexNet
  • 7.2 强化学习
  • 7.2.1 起源
  • 7.2.2 流派与分类
  • 7.2.3 经典案例:AlphaGo
  • 7.3 迁移学习
  • 7.3.1 简介
  • 7.3.2 方法与研究方向
  • 7.3.3 经典模型:TrAdaBoost
  • 7.4 动脑时刻
  • 7.5 本章小结
  • 关键词回顾
  • 第8章 思考与展望
  • 8.1 思考
  • 8.1.1 人工智能感悟
  • 8.1.2 万物数据化
  • 8.2 展望
  • 8.2.1 人工智能最终能做什么
  • 8.2.2 人类最终能做什么
  • 8.3 本章小结
展开全部

评分及书评

4.7
9个评分
  • 用户头像
    给这本书评了
    4.0

    下面从数学角度给出标量、向量和矩阵的概念,以便加深读者对线性代数基本概念的理解。・标量:表示一个简单的数,如 29、31 等。・向量:表示一组有序的标量,能够写成一行或一列的形式。・矩阵:表示一组有序的向量(一个或多个),可以用二维数组的形式表示。导数简单地说,导数主要用于描述函数图像中某一点切线的倾斜程度,这个倾斜程度又称为斜率。所谓连续函数,就是函数图像随着 x 值的连续变化,y 值的变化也是连续的。连续函数不一定处处可导,可导函数的图像一定是处处连续的。研究自然界中随机现象统计规律的数学方法,称为概率统计,又称为数理统计。概率统计主要的研究对象为随机事件、随机变量及随机过程。最优化问题分为有约束的最优化问题和无约束的最优化问题。有约束的最优化问题分为等式约束优化问题和不等式约束优化问题,这类问题通常使用拉格朗日乘数法和 KKT 条件解决;无约束的最优化问题分为全局最优化问题和局部最优化问题,这类问题可以使用牛顿法和最小二乘法解决。人工神经网络:深度神经网络卷积神经网络递归神经网络图神经网络

      转发
      评论

    出版方

    电子工业出版社

    电子工业出版社成立于1982年10月,是国务院独资、工信部直属的中央级科技与教育出版社,是专业的信息技术知识集成和服务提供商。经过三十多年的建设与发展,已成为一家以科技和教育出版、期刊、网络、行业支撑服务、数字出版、软件研发、软科学研究、职业培训和教育为核心业务的现代知识服务集团。出版物内容涵盖了电子信息技术的各个分支及工业技术、经济管理、科普与少儿、社科人文等领域,综合出版能力位居全国出版行业前列。