科技
类型
6.9
豆瓣评分
可以朗读
语音朗读
253千字
字数
No.40
科学技术
2025-08-01
发行日期
展开全部
主编推荐语
【得到独家首发】AI热潮下的冷思考,辨识AI的功能与局限。
内容简介
如今,AI已渗透各个领域,为人们的生活和工作赋能。伴随着AI的快速发展,夸大的宣传、误导性信息也层出不穷。如果你对AI感到困惑,担忧它对全球和个人未来的影响,本书值得一看。本书提供了清晰视角,深入剖析AI的运作原理及局限性,帮助你辨识AI何时能带来真正的价值,何时可能引发隐患,提醒你警惕企业炒作,推销那些既不实用,未来也无前景的AI产品。
本书在肯定部分AI技术潜力的同时,深入探讨了AI在教育、医疗、招聘、银行、保险和刑事司法等领域的实际应用所带来的问题与危害。作者将现阶段的AI分为三类,即生成式AI、预测式AI和内容审核AI,详细解析了不同类型AI的核心区别、潜力与缺陷。
书中还指出,人类对AI的使用方式远比技术本身的威胁更值得关注。除此之外,书中警示了大型科技公司垄断AI技术可能带来的潜在风险,强调在缺乏问责机制的情况下,AI不仅可能无法解决社会问题,反而可能加剧现有的社会矛盾。
目录
-
版权信息
-
联合前言 AI:承诺、陷阱与前行之路
-
译者前言 AI迷雾中的理性之光
-
第1章 引言
-
AI作为消费品的曙光
-
AI颠覆娱乐业
-
预测式AI:非凡之言,需有非凡之证
-
单笔描绘AI诱人却失真
-
一连串奇妙际遇成就此书
-
AI炒作漩涡
-
什么是AI万金油
-
本书适合的读者
-
第2章 预测式AI何以误入歧途
-
以预测式AI定人生之变局
-
预测再准未必决策得当
-
晦暗AI纵生巧诈之机
-
过度自动化
-
错识人群,枉生预言
-
预测式AI加剧既有不公
-
没有预测的世界
-
回顾
-
第3章 何以AI难测未来苍穹
-
计算机预测未来简史
-
明确分析
-
“脆弱家庭挑战”项目
-
为何“脆弱家庭挑战”项目以失败告终
-
刑事司法中的预测
-
失败难料,成功又几何
-
迷因彩票——潮流中的“幸运儿”
-
从个人到群体的预测
-
回顾
-
第4章 通往生成式AI的漫漫长途
-
生成式AI承载八十载创新之路
-
沉寂与新生
-
训练机器以“眼”观世
-
ImageNet技术和文化意义
-
分类和生成图像
-
生成式AI攫取创造之功
-
AI图像识别技术转瞬成监控之眼
-
从图像到文本
-
从模型到聊天机器人
-
自动化胡编乱造
-
深度伪造、欺诈和其他恶意滥用
-
改善的代价
-
回顾
-
第5章 高级AI是否关乎存亡之险
-
专家怎么看
-
通用性阶梯
-
阶梯上的下一级是什么
-
加速进步了吗
-
会有恶意AI吗
-
全球禁止强大的AI
-
更优之道:防御特定威胁
-
回顾
-
第6章 为什么AI无法修复社交媒体
-
当一切都被断章取义
-
文化无能
-
貌似善于预言实为复刻过去
-
AI对抗人类智慧
-
生死攸关的问题
-
现在加入监管因素
-
艰难之处在于划清界限
-
回顾
-
自作自受的问题
-
内容审核的未来
-
第7章 为何关于AI的迷思经久不衰
-
AI炒作有别于昔日科技狂潮
-
AI社区具有炒作的文化和历史
-
公司缺乏透明化的激励
-
AI研究中的可复制性危机
-
新闻媒体误导公众
-
公众人物传播AI炒作
-
认知偏见使我们误入歧途
-
第8章 接下来我们该何去何从
-
AI万金油令失序机构趋之若鹜
-
拥抱随机性
-
监管:打破虚假的两难困境
-
监管的局限性
-
AI与未来职场
-
在凯的世界与AI共同成长
-
在玛雅的世界与AI共同成长
-
致谢
-
参考文献
展开全部
给AI热潮泼冷水
本书是由普林斯顿大学计算机科学教授阿尔文德・纳拉亚南与前脸书工程师萨亚什・卡普尔合著,两位作者均入选《时代》周刊 “全球 AI 领域最具影响力 100 人”。本书以 “AI 万金油”(源自 19 世纪江湖骗术 “蛇油”)为隐喻,批判当前 AI 技术生态中过度炒作、虚假宣传与盲目应用的现象,呼吁公众回归技术理性。我粗看了一下,有点老登的感觉,英伟达突破 5 万亿美元,黄仁勋画出 “AI 生态” 的大饼,从 6G 网络到量子技术,英伟达希望成为未来世界技术的基座,大家是否记得当年互联网初期炒域名和网名,新技术的出现肯定伴随泡沫,但也会成就新的英雄。在美股纷纷创新高的今天,大公司也在裁员,当年黄仁勋 呼吁传统车企要改变思路,电动车已经不是简单的运输工具,是新的物种,可奔驰大佬不当回事,现在追悔莫及。作者认为 AI 竞赛本质是商业利益驱动,非技术革命;提出 “智能革命的终极命题不是‘AI 多强大’,而是‘我们想成为怎样的人’。” 有些鸡汤,只要认真回顾 30 年来的世界变化,无论是战场上的无人机,还是已经无所不在的 AI,技术已经在改变世界。2025 年 #360
AI时代的焦虑与困惑
万金油的英文名叫 “Snake Oil”,指的就是 19 世纪末美国江湖游医兜售的那种 “包治百病” 的蛇油。这本书的作者阿尔文德・纳拉亚南是普林斯顿大学的计算机科学教授,他和学生萨亚什・卡普尔收集了约 50 个 AI 应用的真实案例,专门讲 AI 是怎么 “翻车” 的。书里有个案例特别震撼:美国联合健康集团要求员工必须服从 AI 决策,多次反对可能被解雇。结果呢?超过 90% 的 AI 决策都是错误的。还有好事达保险,用 AI 调整汽车保险费率,结果 AI 发现 62 岁以上老年人更少货比三家、更换保险的意愿低,于是系统性地给他们定更高的保费 —— 这就是 “精准割韭菜”。这本书最大的价值不是告诉你 AI 有多糟糕,而是告诉你 AI 的边界在哪里 —— 什么时候能用、什么时候不能用、怎样用才安全。当有人跟你说 “我们的 AI 能做某某事” 时,你要学会追问:AI 的目标函数是什么?是为了公平还是利润?数据从哪来?有没有可能走捷径?在 AI 狂热的时代,这本书能帮你保持清醒。
当技术祛魅后,我们该如何与AI共处?
在 ChatGPT 掀起的 AI 狂潮中,普林斯顿大学教授阿尔文德・纳拉亚南与前脸书工程师萨亚什・卡普尔合著的《AI 万金油:商业幻想与科技狂潮》,像一剂冷静的清醒剂 —— 它撕开了 “万能 AI” 的神话外衣,用手术刀般的精准剖析,带读者看见技术光环下的真实沟壑。作为《时代》周刊 “全球 AI 领域最具影响力 100 人” 得主,两位作者以学术界与产业界的双重视角,将 “AI 万金油”(AI Snake Oil)这一源自 19 世纪江湖骗局的概念,投射到当下过热的技术生态中:那些宣称 “包治百病” 的 AI 技术,实则可能是披着创新外衣的商业幻想。一、技术祛魅:当 “万能 AI” 回归工具本质全书最锋利的洞察,莫过于戳破了 “AI 同质化” 的认知误区。作者以 “交通工具” 为喻:当大众笼统谈论 “AI 很强大” 时,其实就像有人在说 “汽车能飞”—— 忽略了生成式 AI(如 ChatGPT)、预测式 AI(如犯罪风险预测工具)与内容审核 AI(如平台过滤系统)的本质差异。生成式 AI:高效却危险的 “数字电锯” 这类 AI 擅长快速生产文本、图像等内容,像 DALL-E 生成画作、GPT-4 撰写报告,确实重塑了创意与办公场景。但作者警告,它更像 “没有安全装置的电锯”:Bard 曾在宣传视频中错误宣称 “詹姆斯・韦伯望远镜拍摄了首张系外行星照片”;某招聘 AI 生成的职位描述因算法偏见,自动排除了女性候选人。其 “创造力” 本质是对训练数据的统计重组,却常被包装成 “智能创作” 的神话。预测式 AI:伪科学的 “算命先生” 这是书中批判最猛烈的领域。从司法系统的 “犯罪风险预测” 到医疗领域的 “疾病发展预判”,这类 AI 试图通过数据建模 “预言人类行为”,但现实是:某美国法庭使用的犯罪风险评估工具准确率仅略高于随机猜测;挪威科技大学对 400 篇 AI 顶刊论文的可重复性检验显示,没有一篇完全满足科学标准。作者尖锐指出:“人类行为的复杂性,让预测式 AI 从根本上就成了‘伪科学’。” 内容审核 AI:文化盲视的 “过滤筛子” 平台依赖这类 AI 识别违规内容,却常陷入 “文化误判”:某东南亚短视频因包含当地传统舞蹈动作,被 AI 误判为 “低俗内容” 下架;讽刺性文章因关键词触发敏感词库,被直接删除而无法申诉。其根源在于 AI 难以理解语境与文化背景,却被赋予了 “内容裁判” 的绝对权力。二、炒作机制:谁在编织 “AI 万能” 的幻梦?书中用大量篇幅拆解了 “AI 万金油” 现象的生成逻辑,堪称一部 “技术炒作解剖学”。学术与产业的合谋 AI 研究的高成本依赖企业资助,导致学者与企业形成 “利益共同体”:某 AI 顶会论文宣称 “模型准确率达 97%”,实则数据存在严重作弊;企业为吸引投资,故意隐瞒 AI 系统的错误率 —— 正如作者所言:“当学术论文成了‘广告文案’,科学精神早已荡然无存。” 媒体与公众的推波助澜 新闻标题常以 “AI 通过律师资格考试”“AI 将取代放射科医生” 制造恐慌与期待,却忽略职业考试仅测试知识记忆,而医生的工作还包含临床判断、医患沟通等 AI 无法替代的维度。公众对技术的陌生感,让 “AI 无所不能” 的叙事轻易占据认知高地。监管的滞后性 在司法、医疗等敏感领域,AI 应用缺乏统一标准:某银行使用 AI 评估贷款申请者,却因训练数据偏见导致少数族裔通过率骤降;某医院引入 AI 辅助诊断,却未建立 “人类复核” 机制,导致误诊事件频发。作者警告:“当 AI 进入关乎生命与权利的领域,‘先上车后补票’的监管逻辑,正在将社会推向风险边缘。” 三、破局之道:在狂热中锚定人类价值尽管全书充满批判,却并非否定 AI 的价值。作者强调:“技术本身无罪,有罪的是将其神化的使用方式。” 他们提出的 “人机共生三原则”,为普通人提供了穿越技术迷雾的指南针:工具化认知:不把 AI 当 “伙伴”,而当 “可编程的螺丝刀” 书中以 “填空式提示词模板” 为例 —— 与其迷信 “AI 懂我”,不如像编程般明确指令:“扮演___(角色),完成___(任务),避免___(错误)”。这种 “理性操控” 思维,能让 AI 回归 “增强人类能力” 的工具本质。批判性验证:对 AI 输出保持 “有罪推定” 生成式 AI 的 “幻觉”(虚构事实)、预测式 AI 的 “偏见”(数据歧视),要求使用者必须交叉验证结果。作者建议建立 “AI 可信度 checklist”:来源是否可追溯?数据是否多元?是否有人类专家复核?系统性治理:让 AI 发展 “嵌入社会契约” 书中呼吁从三方面发力:企业公开 AI 训练数据与算法逻辑(打破黑箱);政府建立跨领域监管框架(如医疗 AI 需通过伦理审查);公众参与技术标准制定(避免少数企业垄断话语权)。正如作者所言:“AI 的未来不在代码里,而在我们如何定义‘好的技术’—— 它应当服务于人的尊严,而非替代人的价值。” 结语:祛魅之后,是更清醒的共生《AI 万金油》最动人的,是它在批判之余始终保持的人文温度。它没有否定 AI 的革命性潜力 —— 毕竟生成式 AI 确实让设计师效率提升 300%,预测式 AI 在气象预警中准确率达 85%—— 但它更提醒我们:技术狂潮中,最稀缺的不是 “驾驭 AI 的能力”,而是 “不被 AI 驾驭的理性”。这本书尤其适合三类读者:技术从业者需警惕 “技术崇拜”,政策制定者需平衡创新与风险,普通用户则能学会在 “AI 无所不能” 的宣传中保持清醒。当我们终于看清:AI 不是 “万能神药”,而是需要谨慎使用的 “双刃剑”,或许才能真正开启 “人机共生” 的良性未来。毕竟,智能革命的终极命题从来不是 “AI 有多强大”,而是 “我们想成为怎样的人”。🔍
- 查看全部43条书评
出版方
中信出版集团
中信出版社,成立于1988年,隶属于中国中信集团公司,是全国中央级出版社。2008年改制为中信出版股份有限公司。
中信出版集团满怀激情,关注思想、关注理念、关注人物、关注资讯、关注时尚,为读者提供最前沿的思想与最优秀的学习实践,通过有价值的、有享受的阅读,倡导与展示新的文化主流,启动一个“大众阅读时代”。