展开全部

主编推荐语

【得到独家首发】AI热潮下的冷思考,辨识AI的功能与局限。

内容简介

如今,AI已渗透各个领域,为人们的生活和工作赋能。伴随着AI的快速发展,夸大的宣传、误导性信息也层出不穷。如果你对AI感到困惑,担忧它对全球和个人未来的影响,本书值得一看。本书提供了清晰视角,深入剖析AI的运作原理及局限性,帮助你辨识AI何时能带来真正的价值,何时可能引发隐患,提醒你警惕企业炒作,推销那些既不实用,未来也无前景的AI产品。

本书在肯定部分AI技术潜力的同时,深入探讨了AI在教育、医疗、招聘、银行、保险和刑事司法等领域的实际应用所带来的问题与危害。作者将现阶段的AI分为三类,即生成式AI、预测式AI和内容审核AI,详细解析了不同类型AI的核心区别、潜力与缺陷。

书中还指出,人类对AI的使用方式远比技术本身的威胁更值得关注。除此之外,书中警示了大型科技公司垄断AI技术可能带来的潜在风险,强调在缺乏问责机制的情况下,AI不仅可能无法解决社会问题,反而可能加剧现有的社会矛盾。

目录

  • 版权信息
  • 联合前言 AI:承诺、陷阱与前行之路
  • 译者前言 AI迷雾中的理性之光
  • 第1章 引言
  • AI作为消费品的曙光
  • AI颠覆娱乐业
  • 预测式AI:非凡之言,需有非凡之证
  • 单笔描绘AI诱人却失真
  • 一连串奇妙际遇成就此书
  • AI炒作漩涡
  • 什么是AI万金油
  • 本书适合的读者
  • 第2章 预测式AI何以误入歧途
  • 以预测式AI定人生之变局
  • 预测再准未必决策得当
  • 晦暗AI纵生巧诈之机
  • 过度自动化
  • 错识人群,枉生预言
  • 预测式AI加剧既有不公
  • 没有预测的世界
  • 回顾
  • 第3章 何以AI难测未来苍穹
  • 计算机预测未来简史
  • 明确分析
  • “脆弱家庭挑战”项目
  • 为何“脆弱家庭挑战”项目以失败告终
  • 刑事司法中的预测
  • 失败难料,成功又几何
  • 迷因彩票——潮流中的“幸运儿”
  • 从个人到群体的预测
  • 回顾
  • 第4章 通往生成式AI的漫漫长途
  • 生成式AI承载八十载创新之路
  • 沉寂与新生
  • 训练机器以“眼”观世
  • ImageNet技术和文化意义
  • 分类和生成图像
  • 生成式AI攫取创造之功
  • AI图像识别技术转瞬成监控之眼
  • 从图像到文本
  • 从模型到聊天机器人
  • 自动化胡编乱造
  • 深度伪造、欺诈和其他恶意滥用
  • 改善的代价
  • 回顾
  • 第5章 高级AI是否关乎存亡之险
  • 专家怎么看
  • 通用性阶梯
  • 阶梯上的下一级是什么
  • 加速进步了吗
  • 会有恶意AI吗
  • 全球禁止强大的AI
  • 更优之道:防御特定威胁
  • 回顾
  • 第6章 为什么AI无法修复社交媒体
  • 当一切都被断章取义
  • 文化无能
  • 貌似善于预言实为复刻过去
  • AI对抗人类智慧
  • 生死攸关的问题
  • 现在加入监管因素
  • 艰难之处在于划清界限
  • 回顾
  • 自作自受的问题
  • 内容审核的未来
  • 第7章 为何关于AI的迷思经久不衰
  • AI炒作有别于昔日科技狂潮
  • AI社区具有炒作的文化和历史
  • 公司缺乏透明化的激励
  • AI研究中的可复制性危机
  • 新闻媒体误导公众
  • 公众人物传播AI炒作
  • 认知偏见使我们误入歧途
  • 第8章 接下来我们该何去何从
  • AI万金油令失序机构趋之若鹜
  • 拥抱随机性
  • 监管:打破虚假的两难困境
  • 监管的局限性
  • AI与未来职场
  • 在凯的世界与AI共同成长
  • 在玛雅的世界与AI共同成长
  • 致谢
  • 参考文献
展开全部

评分及书评

4.2
210个评分
  • 用户头像
    给这本书评了
    3.0
    给AI热潮泼冷水

    本书是由普林斯顿大学计算机科学教授阿尔文德・纳拉亚南与前脸书工程师萨亚什・卡普尔合著,两位作者均入选《时代》周刊 “全球 AI 领域最具影响力 100 人”。本书以 “AI 万金油”(源自 19 世纪江湖骗术 “蛇油”)为隐喻,批判当前 AI 技术生态中过度炒作、虚假宣传与盲目应用的现象,呼吁公众回归技术理性。我粗看了一下,有点老登的感觉,英伟达突破 5 万亿美元,黄仁勋画出 “AI 生态” 的大饼,从 6G 网络到量子技术,英伟达希望成为未来世界技术的基座,大家是否记得当年互联网初期炒域名和网名,新技术的出现肯定伴随泡沫,但也会成就新的英雄。在美股纷纷创新高的今天,大公司也在裁员,当年黄仁勋 呼吁传统车企要改变思路,电动车已经不是简单的运输工具,是新的物种,可奔驰大佬不当回事,现在追悔莫及。作者认为 AI 竞赛本质是商业利益驱动,非技术革命;提出 “智能革命的终极命题不是‘AI 多强大’,而是‘我们想成为怎样的人’。” 有些鸡汤,只要认真回顾 30 年来的世界变化,无论是战场上的无人机,还是已经无所不在的 AI,技术已经在改变世界。2025 年 #360

      4
      5
      用户头像
      给这本书评了
      5.0
      AI时代的焦虑与困惑

      万金油的英文名叫 “Snake Oil”,指的就是 19 世纪末美国江湖游医兜售的那种 “包治百病” 的蛇油。这本书的作者阿尔文德・纳拉亚南是普林斯顿大学的计算机科学教授,他和学生萨亚什・卡普尔收集了约 50 个 AI 应用的真实案例,专门讲 AI 是怎么 “翻车” 的。书里有个案例特别震撼:美国联合健康集团要求员工必须服从 AI 决策,多次反对可能被解雇。结果呢?超过 90% 的 AI 决策都是错误的。还有好事达保险,用 AI 调整汽车保险费率,结果 AI 发现 62 岁以上老年人更少货比三家、更换保险的意愿低,于是系统性地给他们定更高的保费 —— 这就是 “精准割韭菜”。这本书最大的价值不是告诉你 AI 有多糟糕,而是告诉你 AI 的边界在哪里 —— 什么时候能用、什么时候不能用、怎样用才安全。当有人跟你说 “我们的 AI 能做某某事” 时,你要学会追问:AI 的目标函数是什么?是为了公平还是利润?数据从哪来?有没有可能走捷径?在 AI 狂热的时代,这本书能帮你保持清醒。

        转发
        评论
        用户头像
        给这本书评了
        3.0
        当技术祛魅后,我们该如何与AI共处?

        ChatGPT 掀起的 AI 狂潮中,普林斯顿大学教授阿尔文德・纳拉亚南与前脸书工程师萨亚什・卡普尔合著的《AI 万金油:商业幻想与科技狂潮》,像一剂冷静的清醒剂 —— 它撕开了 “万能 AI” 的神话外衣,用手术刀般的精准剖析,带读者看见技术光环下的真实沟壑。作为《时代》周刊 “全球 AI 领域最具影响力 100 人” 得主,两位作者以学术界与产业界的双重视角,将 “AI 万金油”(AI Snake Oil)这一源自 19 世纪江湖骗局的概念,投射到当下过热的技术生态中:那些宣称 “包治百病” 的 AI 技术,实则可能是披着创新外衣的商业幻想。一、技术祛魅:当 “万能 AI” 回归工具本质全书最锋利的洞察,莫过于戳破了 “AI 同质化” 的认知误区。作者以 “交通工具” 为喻:当大众笼统谈论 “AI 很强大” 时,其实就像有人在说 “汽车能飞”—— 忽略了生成式 AI(如 ChatGPT)、预测式 AI(如犯罪风险预测工具)与内容审核 AI(如平台过滤系统)的本质差异。生成式 AI:高效却危险的 “数字电锯”  这类 AI 擅长快速生产文本、图像等内容,像 DALL-E 生成画作、GPT-4 撰写报告,确实重塑了创意与办公场景。但作者警告,它更像 “没有安全装置的电锯”:Bard 曾在宣传视频中错误宣称 “詹姆斯・韦伯望远镜拍摄了首张系外行星照片”;某招聘 AI 生成的职位描述因算法偏见,自动排除了女性候选人。其 “创造力” 本质是对训练数据的统计重组,却常被包装成 “智能创作” 的神话。预测式 AI:伪科学的 “算命先生”  这是书中批判最猛烈的领域。从司法系统的 “犯罪风险预测” 到医疗领域的 “疾病发展预判”,这类 AI 试图通过数据建模 “预言人类行为”,但现实是:某美国法庭使用的犯罪风险评估工具准确率仅略高于随机猜测;挪威科技大学对 400 篇 AI 顶刊论文的可重复性检验显示,没有一篇完全满足科学标准。作者尖锐指出:“人类行为的复杂性,让预测式 AI 从根本上就成了‘伪科学’。” 内容审核 AI:文化盲视的 “过滤筛子”  平台依赖这类 AI 识别违规内容,却常陷入 “文化误判”:某东南亚短视频因包含当地传统舞蹈动作,被 AI 误判为 “低俗内容” 下架;讽刺性文章因关键词触发敏感词库,被直接删除而无法申诉。其根源在于 AI 难以理解语境与文化背景,却被赋予了 “内容裁判” 的绝对权力。二、炒作机制:谁在编织 “AI 万能” 的幻梦?书中用大量篇幅拆解了 “AI 万金油” 现象的生成逻辑,堪称一部 “技术炒作解剖学”。学术与产业的合谋  AI 研究的高成本依赖企业资助,导致学者与企业形成 “利益共同体”:某 AI 顶会论文宣称 “模型准确率达 97%”,实则数据存在严重作弊;企业为吸引投资,故意隐瞒 AI 系统的错误率 —— 正如作者所言:“当学术论文成了‘广告文案’,科学精神早已荡然无存。” 媒体与公众的推波助澜  新闻标题常以 “AI 通过律师资格考试”“AI 将取代放射科医生” 制造恐慌与期待,却忽略职业考试仅测试知识记忆,而医生的工作还包含临床判断、医患沟通等 AI 无法替代的维度。公众对技术的陌生感,让 “AI 无所不能” 的叙事轻易占据认知高地。监管的滞后性  在司法、医疗等敏感领域,AI 应用缺乏统一标准:某银行使用 AI 评估贷款申请者,却因训练数据偏见导致少数族裔通过率骤降;某医院引入 AI 辅助诊断,却未建立 “人类复核” 机制,导致误诊事件频发。作者警告:“当 AI 进入关乎生命与权利的领域,‘先上车后补票’的监管逻辑,正在将社会推向风险边缘。” 三、破局之道:在狂热中锚定人类价值尽管全书充满批判,却并非否定 AI 的价值。作者强调:“技术本身无罪,有罪的是将其神化的使用方式。” 他们提出的 “人机共生三原则”,为普通人提供了穿越技术迷雾的指南针:工具化认知:不把 AI 当 “伙伴”,而当 “可编程的螺丝刀”  书中以 “填空式提示词模板” 为例 —— 与其迷信 “AI 懂我”,不如像编程般明确指令:“扮演___(角色),完成___(任务),避免___(错误)”。这种 “理性操控” 思维,能让 AI 回归 “增强人类能力” 的工具本质。批判性验证:对 AI 输出保持 “有罪推定”  生成式 AI 的 “幻觉”(虚构事实)、预测式 AI 的 “偏见”(数据歧视),要求使用者必须交叉验证结果。作者建议建立 “AI 可信度 checklist”:来源是否可追溯?数据是否多元?是否有人类专家复核?系统性治理:让 AI 发展 “嵌入社会契约”  书中呼吁从三方面发力:企业公开 AI 训练数据与算法逻辑(打破黑箱);政府建立跨领域监管框架(如医疗 AI 需通过伦理审查);公众参与技术标准制定(避免少数企业垄断话语权)。正如作者所言:“AI 的未来不在代码里,而在我们如何定义‘好的技术’—— 它应当服务于人的尊严,而非替代人的价值。” 结语:祛魅之后,是更清醒的共生《AI 万金油》最动人的,是它在批判之余始终保持的人文温度。它没有否定 AI 的革命性潜力 —— 毕竟生成式 AI 确实让设计师效率提升 300%,预测式 AI 在气象预警中准确率达 85%—— 但它更提醒我们:技术狂潮中,最稀缺的不是 “驾驭 AI 的能力”,而是 “不被 AI 驾驭的理性”。这本书尤其适合三类读者:技术从业者需警惕 “技术崇拜”,政策制定者需平衡创新与风险,普通用户则能学会在 “AI 无所不能” 的宣传中保持清醒。当我们终于看清:AI 不是 “万能神药”,而是需要谨慎使用的 “双刃剑”,或许才能真正开启 “人机共生” 的良性未来。毕竟,智能革命的终极命题从来不是 “AI 有多强大”,而是 “我们想成为怎样的人”。🔍

          1
          评论
        • 查看全部43条书评

        出版方

        中信出版集团

        中信出版社,成立于1988年,隶属于中国中信集团公司,是全国中央级出版社。2008年改制为中信出版股份有限公司。 中信出版集团满怀激情,关注思想、关注理念、关注人物、关注资讯、关注时尚,为读者提供最前沿的思想与最优秀的学习实践,通过有价值的、有享受的阅读,倡导与展示新的文化主流,启动一个“大众阅读时代”。