- 给这本书评了3.0给AI热潮泼冷水
本书是由普林斯顿大学计算机科学教授阿尔文德・纳拉亚南与前脸书工程师萨亚什・卡普尔合著,两位作者均入选《时代》周刊 “全球 AI 领域最具影响力 100 人”。本书以 “AI 万金油”(源自 19 世纪江湖骗术 “蛇油”)为隐喻,批判当前 AI 技术生态中过度炒作、虚假宣传与盲目应用的现象,呼吁公众回归技术理性。我粗看了一下,有点老登的感觉,英伟达突破 5 万亿美元,黄仁勋画出 “AI 生态” 的大饼,从 6G 网络到量子技术,英伟达希望成为未来世界技术的基座,大家是否记得当年互联网初期炒域名和网名,新技术的出现肯定伴随泡沫,但也会成就新的英雄。在美股纷纷创新高的今天,大公司也在裁员,当年黄仁勋 呼吁传统车企要改变思路,电动车已经不是简单的运输工具,是新的物种,可奔驰大佬不当回事,现在追悔莫及。作者认为 AI 竞赛本质是商业利益驱动,非技术革命;提出 “智能革命的终极命题不是‘AI 多强大’,而是‘我们想成为怎样的人’。” 有些鸡汤,只要认真回顾 30 年来的世界变化,无论是战场上的无人机,还是已经无所不在的 AI,技术已经在改变世界。2025 年 #360
4转发同时评论快速转发545分享「微信」扫码分享给这本书评了5.0AI时代的焦虑与困惑万金油的英文名叫 “Snake Oil”,指的就是 19 世纪末美国江湖游医兜售的那种 “包治百病” 的蛇油。这本书的作者阿尔文德・纳拉亚南是普林斯顿大学的计算机科学教授,他和学生萨亚什・卡普尔收集了约 50 个 AI 应用的真实案例,专门讲 AI 是怎么 “翻车” 的。书里有个案例特别震撼:美国联合健康集团要求员工必须服从 AI 决策,多次反对可能被解雇。结果呢?超过 90% 的 AI 决策都是错误的。还有好事达保险,用 AI 调整汽车保险费率,结果 AI 发现 62 岁以上老年人更少货比三家、更换保险的意愿低,于是系统性地给他们定更高的保费 —— 这就是 “精准割韭菜”。这本书最大的价值不是告诉你 AI 有多糟糕,而是告诉你 AI 的边界在哪里 —— 什么时候能用、什么时候不能用、怎样用才安全。当有人跟你说 “我们的 AI 能做某某事” 时,你要学会追问:AI 的目标函数是什么?是为了公平还是利润?数据从哪来?有没有可能走捷径?在 AI 狂热的时代,这本书能帮你保持清醒。
转发转发同时评论快速转发评论32分享「微信」扫码分享给这本书评了3.0当技术祛魅后,我们该如何与AI共处?在 ChatGPT 掀起的 AI 狂潮中,普林斯顿大学教授阿尔文德・纳拉亚南与前脸书工程师萨亚什・卡普尔合著的《AI 万金油:商业幻想与科技狂潮》,像一剂冷静的清醒剂 —— 它撕开了 “万能 AI” 的神话外衣,用手术刀般的精准剖析,带读者看见技术光环下的真实沟壑。作为《时代》周刊 “全球 AI 领域最具影响力 100 人” 得主,两位作者以学术界与产业界的双重视角,将 “AI 万金油”(AI Snake Oil)这一源自 19 世纪江湖骗局的概念,投射到当下过热的技术生态中:那些宣称 “包治百病” 的 AI 技术,实则可能是披着创新外衣的商业幻想。一、技术祛魅:当 “万能 AI” 回归工具本质全书最锋利的洞察,莫过于戳破了 “AI 同质化” 的认知误区。作者以 “交通工具” 为喻:当大众笼统谈论 “AI 很强大” 时,其实就像有人在说 “汽车能飞”—— 忽略了生成式 AI(如 ChatGPT)、预测式 AI(如犯罪风险预测工具)与内容审核 AI(如平台过滤系统)的本质差异。生成式 AI:高效却危险的 “数字电锯” 这类 AI 擅长快速生产文本、图像等内容,像 DALL-E 生成画作、GPT-4 撰写报告,确实重塑了创意与办公场景。但作者警告,它更像 “没有安全装置的电锯”:Bard 曾在宣传视频中错误宣称 “詹姆斯・韦伯望远镜拍摄了首张系外行星照片”;某招聘 AI 生成的职位描述因算法偏见,自动排除了女性候选人。其 “创造力” 本质是对训练数据的统计重组,却常被包装成 “智能创作” 的神话。预测式 AI:伪科学的 “算命先生” 这是书中批判最猛烈的领域。从司法系统的 “犯罪风险预测” 到医疗领域的 “疾病发展预判”,这类 AI 试图通过数据建模 “预言人类行为”,但现实是:某美国法庭使用的犯罪风险评估工具准确率仅略高于随机猜测;挪威科技大学对 400 篇 AI 顶刊论文的可重复性检验显示,没有一篇完全满足科学标准。作者尖锐指出:“人类行为的复杂性,让预测式 AI 从根本上就成了‘伪科学’。” 内容审核 AI:文化盲视的 “过滤筛子” 平台依赖这类 AI 识别违规内容,却常陷入 “文化误判”:某东南亚短视频因包含当地传统舞蹈动作,被 AI 误判为 “低俗内容” 下架;讽刺性文章因关键词触发敏感词库,被直接删除而无法申诉。其根源在于 AI 难以理解语境与文化背景,却被赋予了 “内容裁判” 的绝对权力。二、炒作机制:谁在编织 “AI 万能” 的幻梦?书中用大量篇幅拆解了 “AI 万金油” 现象的生成逻辑,堪称一部 “技术炒作解剖学”。学术与产业的合谋 AI 研究的高成本依赖企业资助,导致学者与企业形成 “利益共同体”:某 AI 顶会论文宣称 “模型准确率达 97%”,实则数据存在严重作弊;企业为吸引投资,故意隐瞒 AI 系统的错误率 —— 正如作者所言:“当学术论文成了‘广告文案’,科学精神早已荡然无存。” 媒体与公众的推波助澜 新闻标题常以 “AI 通过律师资格考试”“AI 将取代放射科医生” 制造恐慌与期待,却忽略职业考试仅测试知识记忆,而医生的工作还包含临床判断、医患沟通等 AI 无法替代的维度。公众对技术的陌生感,让 “AI 无所不能” 的叙事轻易占据认知高地。监管的滞后性 在司法、医疗等敏感领域,AI 应用缺乏统一标准:某银行使用 AI 评估贷款申请者,却因训练数据偏见导致少数族裔通过率骤降;某医院引入 AI 辅助诊断,却未建立 “人类复核” 机制,导致误诊事件频发。作者警告:“当 AI 进入关乎生命与权利的领域,‘先上车后补票’的监管逻辑,正在将社会推向风险边缘。” 三、破局之道:在狂热中锚定人类价值尽管全书充满批判,却并非否定 AI 的价值。作者强调:“技术本身无罪,有罪的是将其神化的使用方式。” 他们提出的 “人机共生三原则”,为普通人提供了穿越技术迷雾的指南针:工具化认知:不把 AI 当 “伙伴”,而当 “可编程的螺丝刀” 书中以 “填空式提示词模板” 为例 —— 与其迷信 “AI 懂我”,不如像编程般明确指令:“扮演___(角色),完成___(任务),避免___(错误)”。这种 “理性操控” 思维,能让 AI 回归 “增强人类能力” 的工具本质。批判性验证:对 AI 输出保持 “有罪推定” 生成式 AI 的 “幻觉”(虚构事实)、预测式 AI 的 “偏见”(数据歧视),要求使用者必须交叉验证结果。作者建议建立 “AI 可信度 checklist”:来源是否可追溯?数据是否多元?是否有人类专家复核?系统性治理:让 AI 发展 “嵌入社会契约” 书中呼吁从三方面发力:企业公开 AI 训练数据与算法逻辑(打破黑箱);政府建立跨领域监管框架(如医疗 AI 需通过伦理审查);公众参与技术标准制定(避免少数企业垄断话语权)。正如作者所言:“AI 的未来不在代码里,而在我们如何定义‘好的技术’—— 它应当服务于人的尊严,而非替代人的价值。” 结语:祛魅之后,是更清醒的共生《AI 万金油》最动人的,是它在批判之余始终保持的人文温度。它没有否定 AI 的革命性潜力 —— 毕竟生成式 AI 确实让设计师效率提升 300%,预测式 AI 在气象预警中准确率达 85%—— 但它更提醒我们:技术狂潮中,最稀缺的不是 “驾驭 AI 的能力”,而是 “不被 AI 驾驭的理性”。这本书尤其适合三类读者:技术从业者需警惕 “技术崇拜”,政策制定者需平衡创新与风险,普通用户则能学会在 “AI 无所不能” 的宣传中保持清醒。当我们终于看清:AI 不是 “万能神药”,而是需要谨慎使用的 “双刃剑”,或许才能真正开启 “人机共生” 的良性未来。毕竟,智能革命的终极命题从来不是 “AI 有多强大”,而是 “我们想成为怎样的人”。🔍
1转发同时评论快速转发评论23分享「微信」扫码分享给这本书评了3.0谁在推动AI神话“AI 万金油” 这一概念指的是那些实际上不具备,也不可能具备实际效果的 AI 技术。两位作者将现阶段的 AI 分为三类:生成式 AI、预测式 AI 和内容审核 AI,并详细解析了它们的核心区别、潜力与缺陷。预测式 AI 总体上最不靠谱。在刑事司法系统中,犯罪风险预测工具的准确率仅略高于随机猜测。而在招聘自动化领域,企业明知工具无效却大肆营销。生成式 AI 如 ChatGPT 等工具,虽然能生成逼真内容,却存在自动化胡编乱造的问题。这些工具作为产品仍处于初级阶段,存在不成熟、不可靠及易被滥用的特点。AI 炒作已经形成一个完整的生态系统,渗透到研究领域、企业界和媒体等多个层面。2018 年,挪威科技大学计算机科学家对 AI 顶刊的 400 篇论文进行可重复性检验,结果没有 1 篇完全满足所有可重复性要求。企业界同样缺乏透明化的激励。没有一家招聘自动化公司发表过经过同行评审的论文来验证其预测式 AI 的能力,更不用说允许外部研究人员进行独立评估。媒体则成为炒作的放大器。2024 年的一项研究分析了 50 篇新闻文章,发现媒体报道往往未经批判地重复研究机构的宣传,对 AI 进行拟人化描述,并淡化其局限性。面对汹涌的 AI 浪潮,我们需要建立更为理性的判断框架。本书提供了清晰的视角,帮助读者辨识 AI 何时能带来真正的价值,何时可能引发隐患。作者指出,人类对 AI 的使用方式远比技术本身的威胁更值得关注。在治理 AI 问题上,关键不在于控制技术本身,而在于治理采用 AI 的机构和人员。很多 AI 问题根源不是技术,而是人。他们建议从三个层面着手:认真理解 AI 机理、加强监管、推动技术民主化。但同时也承认监管面临挑战,需要在保护公众利益和避免抑制创新之间找到平衡。
转发转发同时评论快速转发19分享「微信」扫码分享给这本书评了5.0AI 的进化就是算法的进化!!我相信截至目前或在未来很长一段时间,都只是辅助工作!不可能全面取代人类!!目前给人的生活带来了不少便利!如购物、娱乐、获取知识!!自 GPT 出世以来!各个 AI(人工智能)百花齐放!!现在来讲用 AI 搜索代替了传统搜索引擎;用 AI 做会议纪要相当好用,能分类做综合;可以讲故事,能有陪伴;尤瓦尔赫拉利曾说:科技宗教定义:科技人文主义和数据主义!!有的人相信数据到表一切,数据能做到任何事,本书作者告诉我们 AI 是有能力范围的,我们要给 AI “去魅”;结合我自身的案例说一下 AI 能力范围:今年 5 月底,余承东在汽车大会上吐槽某网红车企质量不合格;第二天小米高管王腾就接话了,用了一句张冠李戴的名句:诋毁本身就是一种仰望 -- 莫言!!我当时问豆包和 DEEPSEEK,并没有告诉我这句话的真正出处!!我在得到搜索找到了这本销售书《不会说话,还怎么做销售》-- 金文;我截图发在抖音评论区,同时也有人发到微博等社交媒体上!没过几天豆包和 DEEPSEEK 就能给出出处和作者!!另外关于 AI 较火的事件事美国用 AI 大模型实盘炒币和炒股!!炒币已经结束、炒股还在进行,各个模型表现好坏我认为都是随机事件!!以下是 AI(豆包)给本书写一个推荐序,看文采怎么样:于狂热中锚定真相:AI 时代的清醒剂当 “AI 无所不能” 的叙事席卷商业世界,当资本狂欢与技术神话交织成层层迷雾,我们格外需要一本敢于刺破幻象、回归本质的著作。《AI 万金油:商业幻想与科技狂潮》恰是这样一剂及时的清醒剂,两位作者阿尔文德・纳拉亚南与萨亚什・卡普尔以深厚的学术积淀和犀利的批判视角,为我们揭开了 AI 热潮背后的真实逻辑。作为长期深耕 AI 伦理、技术治理与商业应用交叉领域的学者,两位作者没有跟风追捧技术奇迹,而是将目光聚焦于 “幻想与现实的鸿沟”。他们用大量实证案例拆解了 AI 在商业场景中的过度包装 —— 从被神化的 “通用人工智能” 落地困境,到企业盲目跟风 AI 转型的资源浪费,再到技术宣传与实际效能的巨大落差。书中既没有否定 AI 的核心价值,也没有回避其技术边界、伦理风险与商业泡沫,这种不偏不倚的理性分析,正是当下 AI 领域最稀缺的品质。在人人谈论 AI 的时代,我们最需要的不是更多狂热的预测,而是看清真相的能力。这本书为从业者提供了辨别技术价值的思维工具,帮投资者避开炒作陷阱,给政策制定者提供了审视行业生态的多元视角,更让普通读者得以穿透舆论喧嚣,理解 AI 真正能改变什么、不能改变什么。它提醒我们:真正的技术革命,从来不是源于虚无缥缈的幻想,而是建立在对规律的尊重、对边界的认知之上。当科技狂潮裹挟着商业野心奔涌向前,愿每一位读者都能通过这本书,在狂热中保持清醒,在喧嚣中锚定方向,真正让 AI 成为服务人类的工具,而非被幻想绑架的枷锁。
转发转发同时评论快速转发评论3分享「微信」扫码分享给这本书评了3.0值得警醒AI的副作用在三个方面 AI 如果不加监管将会出现负面 1.AI 预测(特别是政府滥用,国民又无从选择的时候,比如是否适合保释,要缴纳多少健康保险,是否有潜在的犯罪风险等等预测,因为模型是不可靠的,且有反身性)2.AI 生成式内容(这个不用多说,马上即将充斥大量 AI 内容的时代即将到来(已经到来)3.AI 审核:算法如果被不合理人为作恶,那极有可能造成社会不公,又有可能有人利用算法漏洞而牟利。AI 是一个非常大而空泛的概念,我们必须小心求证并逐步定义它的应用领域。正如我们只是用 “交通工具” 来指代一切出行手段,当我们把 “交通工具” 这个定义 “人工智能” 来替代,实在没有办法描述其具体应用。例如之前的 “IT 行业” 的说法,大而无当。
转发转发同时评论快速转发评论3分享「微信」扫码分享给这本书评了4.0对AI祛魅我们一分欢喜读书会 2026 年开年首读的共读书目是《AI 万金油:商业幻想与科技狂潮》,这本书的两位作者阿尔文德・纳拉亚南和萨亚什・卡普尔都来自普林斯顿大学,入选过《时代》周刊"全球 AI 领域最具影响力 100 人"。 第一作者阿尔文德是研究 AI 局限性的专家,他们写这本书的目的是因为相信 AI 将继续对社会产生深远的影响。"帮助人们理解并应对 AI 的挑战"。书的开头就开宗明义:AI 是一个涵盖一组松散相关技术的统称。 作者说"AI 看起来像一个万能药,即便它实际上只是万金油"。我是从这本书才理解到 ChatGPT 的意思:G ~generative, 用"杀鸡用牛刀"式的方法检索,找到文本搭配,生成,自动补全;T ~Transformer 矩阵计算,找到像素与像素的联系;P ~Pretrained 预训练(核心思想是向模型提供大量带标签的指令及期望的输出示例)以更好地响应用户需求。按书里举的例子和 DS 玩"石头剪刀布"的游戏让我哈哈大笑,书里的原话是这个例子"试图通过模拟对话记录而不是通过实际互动来构建智能的局限性",可能是 AI 永远不能取代人与人之间的连结互动的生动表现。本书将 AI 分成三类:预测式 AI、生成式 AI 和内容审核 AI。预测式 AI 即通过数据分析得出一个结论。比如人脸识别、垃圾邮件过滤、医疗影像诊断,甚至书里还举的一些恶意例子:判断下一年度谁的保费可以涨,谁可以优先获得得医疗救助,甚至在器官移植排队的优先顺序。预测 AI 的表现不佳,甚至可以说不可能准确的预测,其原因在于其训练的数据无法达到"足够",基于预测问题的复杂性,预测行为本身也成了系统的一个部分,AI 训练中的"数据泄漏"把相关性误以为是因果性。而生成式 AI 就是我们熟悉的 ChatGPT,DS、豆包等等,可以生成图片文字音频视频等内容。AI 产生"幻觉"和"一本正经地胡说八道"是基于其技术原理。我学习北京航空航天大学大学的刘学峰教授的文章说"与能够精确检索信息的数据库不同,大型语言模型是一个概率性的文本生成器。它通过在数万亿词元(Token)的庞大语料库上进行训练,学习词语与词语之间的统计关系。它的任务是预测 “下一个最有可能出现的词是什么”,从而生成一段在语言模式上 “看似合理” 的文本,而非确保其内容的真实性。事实准确性,从来不是其核心设计目标。"而在训练 AI 的过程中的基准测试"将复杂、多维的现实世界简化为单一、刻板的评分标准"。作者还是比较单纯: "依靠劳动保护措施无法应对 AI 带来的突发性和不可预测的工作替代,需要考虑更大胆的解决方案。一个日益受到关注的方案是 “全民基本收入”(Universal Basic Income,简写为 UBI)模式,即无论就业状况如何,每个人都能获得固定的月度补助。"基于我浅薄的经济学和社会学知识,这类白左建议我是不敢苟同的。今天的新闻是携程被立案调查。它弄"大数据杀熟"可不是一天两天了。这个"大数据杀熟"也是 AI 技术。北京航空航天大学大学的刘学峰教授指出这就是:"设计者为了自身利益,有意将 AI 的目标函数设定为服务于特定目的,即便这会牺牲用户或社会的公平性。绝大多数模型的开发者并不会公开其目标函数的具体设计。这种不透明性制造了一个危险的漏洞开发者可以利用复杂的算法和海量数据作为掩护,让 AI 悄无声息地为其谋利。"我非常赞同刘教授的观点:技术之上应有理性,理性之上应有良知。读完这本书,我对 AI 的功能表示服气又对 AI 的神通祛魅,更不相信文艺作品演绎的 AI 的无所不能和妖魔化,想用一个我们人类"有的是力气和手段"的表情包来表达我读完本书的心情。本书的一个 surprise 是里面引用了很多我们一分欢喜读书会 2025 年 11 月共读的《思考快与慢》里的概念,比如光环效应、锚定效应启发效应可得性偏见…,简直有转角遇到熟人的惊喜。(这本书有 329 页,结果有 61 页都是作者引用内容的出处,实在为作者的严谨细致表示佩服。)
转发转发同时评论快速转发评论2分享「微信」扫码分享给这本书评了5.0洪大的钟未被敲击却已发出鸣响,幽深的山谷不说话却自有回音。人生中真正充盈和强大,无需刻意行动就能产生深远影响。当你打磨好了自身的潜力和内在修为力量,就能无声而有言!试想,钟从来不是因为拒绝被击打才发出声音。它的整个存在就是为了鸣响而铸造的。那未击之鸣,不是钟的矜持,而是它早已将自己活成了一种随时准备回应的状态。谷之所以为谷,正是它早已将自己掏空成了一种接纳的姿态。这边是它更深刻的表达,我以我的空旷,接住你的呼喊,我以我的深邃,放大你的声音。问题从来不是你够不够强大,是你有没有活成你该有的样子。一定要认清了自己存在的频率,是否找到了与这个世界共振的方式。每个人的存在本身,就已经是对这个世界最大的回应。你是否诚实地活成了你该有的样子。钟若安于做钟,一生只响一次,也惊天动地。谷若甘于为谷,永不发声,也声声不息。
转发转发同时评论快速转发评论2分享「微信」扫码分享给这本书评了4.0《AI 万金油:商业幻想与科技狂潮》像一剂清醒针,刺破了 AI 时代的 "万能神话"。两位作者用 50 个真实案例(从医疗决策 90% 错误率到 AI 诈骗工具),撕开了技术狂热的外衣:AI 会走捷径(新冠诊断靠 "成人 / 儿童" 数据差异蒙混过关)、藏黑箱(保险算法为利润 "精准割韭菜")、被滥用(伪造语音诈骗),更可怕的是 —— 它的错误常被 "技术中立" 包装成免责盾牌。 书的价值不在否定 AI,而在划清边界:当企业说 "AI 客观决策" 时,要追问 "目标是谁?";看到 AI 生成内容时,多问 "这数据哪来的?"。毕竟,人不是数据集,社会不是算法题,那些 "预测人生" 的玄学工具,权当游戏就好。 在 AI 狂潮里,保持清醒比懂技术更重要 —— 毕竟,真正的 AI 素养,是敢对 "AI 说" 三个字:"我不信"。
转发转发同时评论快速转发评论2分享「微信」扫码分享给这本书评了4.0《AI万金油》读后有感普遍来说,一个人过了而立之年,三观基本稳定下来了。我记得以前有个说法,说在我 30 岁左右出现的科技,都是足以改变世界的伟大创造。是的,过去的都是序言,从今往后,我们这代人有了一个绕不过去的主题 ——AI。但正如那句广告词说的,疗效虽好,可不要贪杯哦。AI 是很强大,AI 也注定会改变世界,但你先别急,这里面有泡沫吗?有陷阱吗?有自吹自擂、虚假宣传吗?这本书来给你泼泼冷水,答案是有!不仅有,还挺多!对于一项注定改变世界的技术,想搭上这趟便车的人很多,有实干家当然也有神棍。就连我们熟知的 OPENAI,在这本书看来也难免为了产品王婆卖瓜一下。比如,GPT4 在一些专业考试的成绩上打败了绝大多数的人类选手,可以说处于顶尖水准。类似这样的新闻一度让我震惊,人类该何去何从?但这本书试图让你冷静下来思考,理论能力等于实际工作能力吗?你会发现,还真不一定,所以你 OPENAI 鼓吹这方面的能力实际上有夸大宣传的嫌疑。行业领军企业尚且如此,何况那些小企业呢?本书列举了大量企业虚假宣传的案例,有的企业直接就可以视为神棍企业,纯靠忽悠,他们的失败也是命中注定。当然,这也不是一本纯批判的书,AI 注定会改变世界,但你也要擦亮眼睛,哪些是能带来生产力提升的,哪些是来坑你的。你也不必过度恐慌,觉得工作都要被抢走了,伟大的技术通常都是润物细无声的,回顾历史,没有什么技术能在极短的时间里完全淘汰掉一个岗位,除了那个可怜的电梯操作员……
转发转发同时评论快速转发评论1分享「微信」扫码分享给这本书评了5.0不论没有 AI 时代多么美好,也回不去了本书是市面上所有关于 AI 的书,为数不多的值得看的之一。虽然作为一个 AI 狂热者,刚看的时候还是有些生理性抵触的,但与其它反对 AI 的说法来说,没有终结者言论,道德家言论存在一点点,可以忽略。作者是技术出身,反对的也只是 AI 万金油思想,并不是 AI 技术本身,目前确实很多不适宜使用 AI 解决事情都在想方设法披上 AI 外衣,和古人的附庸风雅没什么区别。现在 AI 也是只早期阶段,本书可以提供一些思想上的指导,但跌跌撞撞绕弯路,还是前进路上必不可少的。
转发转发同时评论快速转发评论1分享「微信」扫码分享 - 加载中...

