展开全部

主编推荐语

一本对当下人工智能大潮的反思之作,既诊断出了当下人工智能领域的真实疾病,也开出了切实可行的治愈良方。

内容简介

当下的AI存在哪些风险?真的有可信的AI吗?理想的AI与现实的AI之间究竟存在哪些差距?如何构建人类和AI之间的信任?关于人工智能的炒作总是甚嚣尘上,但要得到真正可信的AI,却远比想象的要复杂得多,超级智能的时代还远没有到来。创造真正可信的AI需要赋予机器常识和深度理解,而不是简单地统计分析数据。本书勾勒了未来人工智能发展的最佳路线图,对当前人工智能的现状进行了清晰且客观的评估。

作者盖瑞·马库斯是人工智能领域的专家,同时还是心理学和神经科学教授,在计算机科学、认知科学、语言学、人工智能等领域都练就了相当深厚的学术功底,并敢于挑战学术界的主流观点。当整个人工智能学术界都在过分乐观地高歌猛进时,他不断撰文和发表演讲来指出以深度学习为代表的当下AI的弊端和局限性,《如何创造可信的AI》这本书正是马库斯对他关于人工智能观点的最佳总结。

盖瑞·马库斯和欧内斯特·戴维斯从深度学习算法固有的缺陷出发,阐述了当下AI技术发展的桎梏,对当前AI的场景应用和研究范式中的问题进行了分析,他指出AI真正的问题在于信任,常识才是深度理解的关键。最终从认知科学中提炼出了11条对人工智能发展方面的启示,以通用人工智能为发展目标,给出了未来 AI 技术的一种发展方向。

目录

  • 版权信息
  • 赞誉
  • 推荐序 可信的AI
  • 第1章 AI该往何处走
  • 真的有可信的AI吗
  • 狭义AI与广义AI
  • 理想与现实之间的鸿沟
  • 如何跨越AI鸿沟
  • 第2章 当下AI的9个风险
  • 机器人有暴力倾向吗
  • 机器也会犯错
  • 当下AI的9个风险
  • 第3章 深度学习的好与坏
  • 人工智能>机器学习>深度学习
  • 什么是深度学习
  • 深度学习的三个核心问题
  • 深度学习是一个“美好”的悲剧
  • 第4章 计算机若真有那么聪明,为什么还不会阅读
  • Talk to Books无法回答一切问题
  • 人是怎样阅读的
  • 搜索引擎和语音虚拟助手的困惑
  • 计算机不会阅读的三大原因
  • 常识很重要
  • 第5章 哪里有真正的机器人管家
  • 从扫地机器人到机器人管家
  • 机器人管家必备的四个能力
  • 认知模型和深度理解才是关键
  • 第6章 从认知科学中获得的11个启示
  • 从认知科学中获得的11个启示
  • 为机器赋予常识
  • 第7章 常识,实现深度理解的关键
  • 建立常识库的三种方法
  • 知识表征
  • 通用人工智能应具备的常识
  • 推理能力
  • 常识,深度理解的关键
  • 第8章 创造可信的AI
  • 优秀的工程实践
  • 用深度理解取代深度学习
  • 赋予机器道德价值观
  • 重启AI
  • 后记
  • 致谢
  • 推荐书目
  • 注释
  • 参考文献
展开全部

评分及书评

3.9
7个评分
  • 用户头像
    给这本书评了
    4.0
    AI 的下一步该往哪里走?

    在这本书中,作者非常客观的列出了人工智能,机器人,深度学习的一些目前没有解决的问题,以及理想与现实之间的一些鸿沟。书里面的内容并不是纸上谈兵,对着人工智能发一些没有用的牢骚。盖瑞马库斯第 1 次创业就是一家 AI 公司,之后被 Uber 收购,出任了 Uber 的第一任首席科学家。然后,他跟 “机器人之父” Rodney Brooks,一起创办了 Robust.AI。他在书中的一些观点和总结,都是通过创业过程中的摸爬滚打得到的。作者本身是做 AI 出身,非常希望 AI 能够一路发展下去,他指出人工智能系统的一些问题,并不是唱衰 AI,恰恰相反,他是希望人们更早的开始思考未来 AI 的方向。在书的最后,他给出的一些创建可信 AI 的建议,非常具有参考价值。这本书的写作逻辑非常清晰,首先列出了人工智能的九个缺点,深度学习的三大核心问题,以及如何创建可信 AI 的 11 个建议。下面将书中的核心干货提炼出来。理想与现实之间的三个鸿沟:1. “轻信坑”:当我们拿到一个人工智能系统后,很容易轻易的相信这个系统,真的具备了人类的智能水平,但其实,系统背后只是一些矩阵和向量,还远远达不到人类的理解水平。2. “虚幻进步坑”:人工智能有 “三起三落”,每一次人工智能的崛起,都伴随着很多人对于人工智能一路高歌猛进的期待。但之后,都会慢慢归于平静。3. “鲁棒坑”:深度学习系统对于有些场景可以给出非常可靠的答案,但对于另外一些场景,则会给出非常离谱的答案,鲁棒性还差很多。目前人类大脑具有计算机无法媲美的 5 大优势:1. 我们能理解语言。2. 我们能理解周遭世界。3. 我们能灵活适应新环境。4. 我们能快速学习新事物(即使没有大量数据)。5. 我们能够在不完整甚至有矛盾的数据前进行推理。人工智能的九大风险:1. 基本超归因错误: Al 总是误让我们以为它具有跟人类相似的智慧,但其实它并没有。2. 鲁棒性的缺失。3. 现代机器学习系统大量依赖于训练集的精准细节,泛化性比较差。4. 当需要更微妙的方法时,盲目的过分依赖于数据,还会导致过时的社会偏见长期存在。5. 当代 AI 对训练集的严重依赖,也会引发严重的回音室效应,系统是被之前自己产出的数据所训练的。6. 有些程序依赖于公众可随意操控的数据。7. 之前已经存在的偏见加上回音室效应,会进一步加剧社会性偏见。8. 太容易落入错误目标陷阱。9. AI 可能会被有心人利用,对社会造成危害。深度学习的三个核心问题:1. 深度学习是对数据贪婪的。2. 深度学习是不透明的。3. 深度学习是脆弱的。从认知科学中获得的 11 条启示:1. 没有银弹:类似于软件工程中的没有银弹,不要期望深度学习系统可以解决一切问题。2. 认知大量利用内部表征。3. 抽象和概括在认知中发挥着至关重要的作用。4. 认知系统是高度结构化的。5. 即便是看似简单的认知,有时也需要多种工具。6. 人类思想和语言是由成分组成的。7. 对世界的鲁棒理解,既需要自上向下的信息,也需要自下而上的信息。8. 概念嵌于理论之中。9. 因果关系是理解世界的基础。获得推理能力的三种方法:1. 通过在网络中爬取来获得日常知识。2. 使用众包模式向普通人求助。3. 让训练有素的人用计算机可理解的语言写下来:专家系统。几条优秀的工程实践:1. 引入类似汽车开发中的标准工序:压力测试。2. 提前进行系统设计,以便于维护:这部分内容可以参考 MLOps 实践。3. 从软件工程中借鉴很多实用的工程技术:保证鲁棒性。4. 靠谱的评测体系。通过价值观,深度理解,优秀的工程实践以及强大的监管和执行框架,所有以上内容一经就位,就能够让深度学习系统的鲁棒性一点点增强。

      转发
      评论

    出版方

    湛庐文化

    “湛庐”之名取自相传是春秋时铸剑大师欧冶子“十年磨一剑” 所铸造的,享有“天下第一剑”之誉的湛庐剑。 北京湛庐文化传播有限公司是国内领先的专业出版商,专业从事经济管理类、心理学类图书的策划和出版。湛庐倡导“独立”“理性”的阅读,努力帮助读者实现独立思考、理性分辨,让读者运用自己的理智,用理性之光照亮蒙昧的心智。我们倡导“精进”“深入”的阅读,努力帮助读者降低阅读成本,提升阅读价值,让"无价"的内容能转化成出版相关者应获得的价值。