索洛悖论的 AI 版——为什么狂飙的算力没有带来生产率革命
1987 年索洛说"计算机随处可见,唯独在生产率数据中不见踪影"。2026 年这句话像回旋镖一样砸向了 AI。从弱链接理论、J 曲线到智能化缺口,再到空间与阶层鸿沟,拆解 AI 狂飙之下宏观经济为何如此平静——以及那场关于生命价值的奥本海默式终极权衡。
ai-economy · solow-paradox · productivity · economics · weak-links
这篇是 《科技慢半拍》EP127:AI 狂飙下的索洛悖论|为什么宏观经济如此平静? 的文字稿整理版,把节目里快速带过的弱链接框架、杰文斯悖论与阶层鸿沟展开来讲。
楔子:两份互相打脸的报告
2026 年初,数据中心越建越多,电力供给发生争抢,算力资源像子弹一样被大模型快速消耗,资本市场开出史无前例的基础设施账单。英伟达的黄仁勋说,“数据中心”这个词已经过时了——今天的机房其实是”AI 工厂”,你只要把电力灌进去,它就能规模化生产一种叫 tokens 的新时代”工业原料”。
有人甚至把未来的算力集群称作”数据中心里的天才国家”——上百万个 AI 智能体在里面并行协作,像一个国家的整个科研体系在同时运转。
然后你打开两份研究报告:
- 一份说,目前约有 45.6% 的劳动者已经在工作中使用 AI
- 另一份却说,95% 的企业和组织在生成式 AI 上的投资回报率是零
这个冲突,不是情绪问题,而是机制问题。
索洛悖论:1987 年的回旋镖
1987 年,经济学家罗伯特·索洛留下了一句很刻薄的警句:
“计算机时代随处可见,唯独在生产率数据中不见踪影。”
这就是著名的**“索洛悖论”**。它的核心是一个宏观拷问:如果一项技术真的在全局范围内显著提高了效率,我们理应能在劳动生产率或全要素生产率这些核心数据里”看见”它。但如果看不到呢?
时间来到 2026 年,索洛悖论戴上了 AI 的面具,又一次精准地回来了。
要回答这个问题,我们需要从机制层面分四个角度来拆:
- 弱链接与 J 曲线——经济结构决定了 AI 效率无法直接转化为总产出增长
- 智能化缺口——组织改造能力远远跟不上模型迭代速度
- 空间与阶层鸿沟——AI 是选择性降雨,不是均匀的涟漪
- 终极权衡——这一切背后更深的问题
一、弱链接与 J 曲线
O 型环理论:乘法游戏里的零
经济学家克雷默很早就提出了”O 型环”理论,来自一个真实案例:航天飞机的发射依赖数以万计的精密零件,但只要其中一个只值几美元的 O 型橡胶环出了问题,整架价值几十亿美元的机器可能就会在空中解体。
生产是一连串互补任务的”连乘”,而不是简单的”加法”。
加法逻辑里,一个环节得了 100 分、另一个得了 0 分,总分加起来还是 100。但在乘法逻辑里,100 × 100 × 0 = 0。增长是一场关于乘法的游戏,链条末端的一个零,足以抹平前面所有的无穷大。
AI 制造的”局部超导”
AI 现在带来的效率爆发,在很大程度上是一种”局部超导”。当文案、代码、初稿这些”容易的任务”变得近乎免费时,那些必须由人类亲自处理的”困难任务”——高风险决策、跨部门协同、处理突发异常——反而显得更加稀缺、也更加昂贵。
举个具体的例子:就算 AI 能把商业计划书的初稿写作时间从三天压缩到三分钟,效率提升上千倍;但如果这份计划书必须经过法务部门合规签字,而这个签字流程雷打不动地需要等一周——那整个项目的交付周期最短仍然是一周。前面被压缩的三天,几乎可以忽略不计。
Charles Jones 还提出了另一个关键视角:“成本份额”。
假设一家公司的总支出里,软件开发成本只占 10%。那么,即便 AI 让代码生成效率提高到近乎免费,这家公司的整体成本最多也就降低 10%。更多的成本被牢牢锁定在土地、能源、原材料和各种复杂的现场服务里——而这些,AI 目前基本碰不到。
杰文斯悖论:效率提升反而制造更多工作
这里有一个令人不安的现实:AI 节省下来的时间,往往并没有变成假期。
一个程序员原本需要四小时手写一段复杂代码,现在 AI 在 10 秒内生成了代码框架。但接下来,他要花整整五个小时仔细排查 AI 生成代码里那些微小但可能致命的逻辑漏洞。
研究数据显示,校对和修复 AI 生成内容的心理压力,比从零原创高出约 30%。因为我们的大脑在处理”不确定它是否正确”的信息时,前额叶皮层的活跃程度要远高于处理确定性任务。
这就是在知识工作领域重演的一遍杰文斯悖论(Jevons Paradox):
工业革命早期,蒸汽机效率提高后,人们并没有减少煤炭使用,反而因为蒸汽动力变便宜了,煤炭消耗量大幅增加。
今天也是一样:当生成一份文档的成本趋近于零时,组织对”文档数量”的需求就会指数级增长。过去你可能一周只需要交一份高质量深度报告,现在老板可能要求你每天生成三份分析报告让他挑选。
AI 没有消灭任务,它只是把任务从”动手”变成了”坐牢”——一种对海量平庸产出进行终身监守的认知囚笼。
还有另一种更隐性的消耗:企业管理层最喜欢说,AI 能”释放员工去从事高价值任务”。但这个逻辑有一个根本性的漏洞——高价值任务本身就是极度消耗精力和专注力的。
就像告诉马拉松运动员”以后不用跑去赛场了,飞机空投过去”——听起来不错,但代价是你一到场就必须立刻连续跑三个马拉松。那些过去被我们看作”低价值杂事”的工作,比如整理文件、回复简单邮件,其实扮演了一种”散热片”的角色,给了大脑必要的喘息和切换空间。当企业通过 AI 把工作之间的所有”空隙”消除掉,他们也同时消除掉了大脑必要的散热时间。
J 曲线:下潜期就是当下
这就引出了 J 曲线效应。在引入 AI 的早期,一个组织的生产率并不会立刻起飞——恰恰相反,它很可能会先经历一个明显的下潜期。
要让一个 AI 模型真正跑起来,一家公司要做多少准备工作?你要打通那些尘封已久、格式各异的数据记录;要按照 AI 的逻辑重写整个业务流程;更难的是还要重新划分每个岗位的责任和绩效算法。
这个改造过程短期内一定是混乱的。员工会因为熟悉的旧习惯被打破而无所适从;管理层会因为投入了巨大预算却迟迟看不到回报而焦虑。
AI 不是一个即插即用的 U 盘或外接涡轮增压器,它更像是一份要求你把整个引擎都重新设计的改造蓝图。
我们今天在宏观数据上看到的”冰封”,其实就是无数个企业正在经历 J 曲线下沉阶段的合力结果。
二、智能化缺口
模型溢出,组织吸收率极低
“智能化缺口”描述的场景非常现实:模型在外面飞快升级,但组织在里面原地打转。 这好比外面已经普及了 5G 信号,但你的公司内部连电线都还没铺设好。
据说高达七成的企业高管,在面对 AI 时都有一种深深的无力感——看着演示视频心潮澎湃,回到办公室面对那些混乱散落的原始数据,只能摇头叹气。
AI 应用的瓶颈,已经悄悄从”算力够不够”转移到了”实施能力强不强”上。 模型的能力已经溢出,但绝大多数组织的吸收率低得可怜。
AI 是一场”重新布线”
研究员 Cassidy 给出了一个很尖锐的警告:AI 绝对不是”即插即用”的 Copilot 插件,它更像是一场对整条生产线的**“重新布线”**。
如果你想让 AI 真正进入你的业务,必须先完成一系列极其繁琐的底层建设:
- 把数据从混乱的、老旧系统里一点点捞出来
- 把过去几十年都靠老师傅人脑记忆、口传心授的业务流程,变成可以被系统调用的、结构化的步骤
- 给模型设定好上下文、权限和各种工具接口
- 建立完整的监控、回滚和审计机制
举个例子:一家传统制造企业想用 AI 优化供应链。听起来很美好。但它马上会发现,旗下不同工厂对同一个零件的命名规则、编码方式可能完全不一样。在 AI 进来之前,不解决这个问题,AI 连最基本的数据都看不懂。
这就是为什么那么多公司嘴上说着要拥抱 AI,实际上却迟迟没有动作。
试点陷阱
Cassidy 的研究发现,绝大多数公司的 AI 投资都死在了”试点阶段”。在部署了六个月之后,只有极少数公司能看到可度量的财务回报。
问题出在哪?很多公司选择的试点场景,要么太宽泛——“提升全员办公效率”,根本无法定义具体的 ROI 指标;要么员工只是自己用 ChatGPT 写周报,这种个体效率提升,收益留在个人手里,并没有沉淀到组织的业务结果里。
一个成功的 AI 部署,目标绝对不是做漂亮的 Demo,而是要敢于触碰那些真正决定公司损益表(P&L)的关键流程。
只有当你把 AI 嵌入到定价逻辑、库存预测、坏账分析这些硬核环节时,财务数据才有可能发生真正的跳变。
三、空间与阶层鸿沟
全球还有 84% 的人从未使用过 AI
这个数字会把人从 AI 狂热的氛围中猛地拉回来:到今天为止,全球还有 84% 的人从未使用过 AI。
AI 的扩散,不是一块石头丢进水里泛起均匀的涟漪。它更像一场**“选择性降雨”**——有的地方已经暴雨成灾,而地球上的大部分地方还是一片干涸,滴水未见。
第一层鸿沟:物理边界
对很多人来说,AI 已经像空气和水一样默认存在——如果你在硅谷、北京、上海或深圳。
但如果你在非洲或东南亚偏远地区,限制你的根本不是”有没有更强的模型”,而是”有没有能让模型进入你生活的管道”。一台破旧的智能手机、时断时续的电力供应、要占收入两成的网络流量费——在这样的现实条件下,就算把全世界最强大的 AI 免费给你用,对他来说仍然是一个远在天边的传说。
AI 不是一个可以独立存在的软件,它是一系列昂贵”互补品”的总和:稳定的电力、廉价的网络、数字支付体系,还有最基础的数字素养。当这些底座缺失时,AI 带来的所有技术红利就像撞上了一堵看不见的墙,被死死地锁在了少数几个发达地区。
第二层鸿沟:组织温差
即便在网络和电力完备的城市中心,AI 的扩散速度依然有着惊人的差异——取决于你离技术”核心”有多近。
软件开发、广告营销、内容创作这些行业,已经开始了各种”大模型提示词竞赛”。但在同一个城市里,银行的柜台、工厂的车间、医院的诊室,AI 就像不存在一样。
背后的核心原因在于,不同行业对”犯错”的容忍度完全不同:
- 一个程序员写错一行代码,了不起系统崩了,重跑一次就行
- 但如果一个医生参考了错误的 AI 诊断建议,代价可能是一条人命
离 AI 世界近的行业天然就习惯”持续试错”;而那些处在”强责任链条”里的传统行业,每一个流程的改变都必须经过漫长而严格的合规审计。
这种”缓慢”不只是落后。它其实是社会系统的一种防御机制——如果银行系统和医疗系统也像初创公司一样每天激进地试错,我们的社会秩序可能早就崩溃了。
第三层鸿沟:杠杆的偏见
就算在同一个办公室、同一个行业里,为什么 AI 能让一些人如虎添翼,却让另一些人感到深深的无力甚至被替代的恐惧?
阶层的分水岭正在悄悄改变。 它不再区分”谁会用电脑”,而是变成了”谁能把 AI 变成一个属于自己的杠杆”。
一个真正能从 AI 中获益的人,往往具备一种高级能力:把一个模糊的、复杂的业务问题,拆解成 AI 能够理解并可以执行的具体任务。
一个高级咨询顾问可以用 AI 在半小时内快速分析几百份财报,然后把精力集中在提出战略洞察上。但一个只把 AI 当搜索引擎用的基础文员,不仅无法获得任何效率溢价,反而可能被 AI 产出的海量内容所淹没,变得更加手忙脚乱。
AI 是放大镜,不是平均主义工具。它放大的是你本来就已经拥有的那些能力:专业知识、决策权限,还有调动资源的能力。
这就形成了一个残酷的悖论:你越是处于能够”定义任务”的高阶位置,AI 对你的加持效果就越明显;反过来,你越处在”执行任务”的末端,AI 就越像一个时刻在催促你交卷的监考老师。
还有一个更深远的担忧:“去技能化”陷阱。
对于大量初级白领和行政岗位来说,AI 正在拿走那些可以被标准化的”微任务”——写会议纪要、做数据整理。剩下的工作变得越来越琐碎,也越来越难形成清晰的职业晋升路径。
那些过去让新人”练手”的、虽然辛苦但能学到东西的”基础苦活”,现在都被 AI 做完了。底层和顶层之间的跨越,可能会因此变得前所未有的艰难。
四、AI 的终极权衡
把以上这些碎片——弱链接、J 曲线、智能化缺口、三层鸿沟——全部拼在一起,你就能看清宏观数据为什么如此平静了。
但还有一个更深的问题。
奥本海默时刻
经济学家 Charles Jones 把 AI 的风险问题,变成了一个”奥本海默式”的严肃讨论。
1945 年曼哈顿计划的第一次原子弹试验之前,参与项目的科学家们考虑过一个极端风险:如果核链式反应在爆炸后无法停止,点燃地球大气层,导致绝大多数生命灭绝,该怎么办?物理学家汉斯·贝特最终计算了这个概率,认为极低,试验得以进行。
现在我们面对的是类似的权衡:
如果有一种技术,能把癌症、心脏病这些死亡率直接砍掉一半,但代价是它有那么一点点微小的概率,会引发整个系统的崩溃,甚至文明灾难——你怎么选?
这不是科幻。顶尖 AI 模型在药物研发、预测蛋白质结构这些领域的效率,已经是传统实验室的上百倍了。治愈绝症的钥匙,可能真的就在我们手上了。
当面对这种能直接改写生命曲线的巨大诱惑时,人类对 AI 这个”新威胁”表现出了极高的忍耐度——为了抵御疾病这个”旧的威胁”。这说明,推动 AI 发展的根本动力,也许不是商业上的贪婪,而是我们每个人心底最深层的、对死亡的焦虑和恐惧。
AI 安全是被低估的公共品
但这里有一个致命的盲点:AI 的风险是”尾部风险”——发生的概率极低,但一旦发生,损失大到无法承受。
用概率性的、可能毁灭一切的风险,去交换确定性的健康收益——本质上是一场跨越代际的豪赌。我们给”活着”这件事开出了极高的价格,却给”安全”贴上了一个廉价的标签。
Jones 指出,如果用”统计生命价值”(VSL)来衡量 AI 可能造成的生命损失风险,目前全世界在 AI 安全上的投入,可能在量级上被低估了几十倍。
现实是:头部 AI 实验室嘴上都说安全很重要,但因为竞争太激烈,大家都陷入了”先跑起来再说,出了问题再修补”的逻辑。这就像赛车比赛里,所有人都知道不装刹车跑得更快,但只要有一个人为了拿冠军把刹车拆了,其他人为了不被淘汰,也只能跟着拆。
AI 安全是一种”强外部性”的公共品——它的好处是全社会共享的,但成本由那几家研发机构自己承担。在季度财报里,为了防范几十年后才可能发生的系统性灾难而投入的钱,看起来像是毫无产出的多余开销。于是,在短期的商业博弈里,安全研究被系统性地边缘化、被压价了。
当安全变成一种人人都觉得重要、但人人都很少投钱的”公共品”时,我们实际上是在为一个我们根本无法承受的后果,开具一张面值巨大的空头支票。
结语:肌肉撕裂正在发生
我们总热衷于争论 AI 到底有没有表现出”通用智能”。但这个问题的优先级并不高。
真正关乎命运的真相是:AI 从来不是一个会自动打开的”开关”,而是一场极度消耗、充满摩擦的长期改造。
宏观数据之所以还未起飞,是因为整个社会系统正在为了适配这种新的、强大的能力,进行着一场痛苦的、无声的肌肉撕裂:
- 弱链接让 AI 的局部超导无法传导到全局总产出
- J 曲线让每一家正在改造的企业都在经历下潜期
- 智能化缺口让组织改造速度远远跟不上模型迭代速度
- 空间与阶层鸿沟把 84% 的人挡在了这场革命的门外
我们正在疯狂地加速数字世界里的比特,但我们绝大多数人,依然生活在物理世界的原子里。
索洛悖论的真正解法,不是等 AI 变得更强——它已经足够强了。解法是在每一个企业、每一个行业、每一个地区,一点点地完成那场艰难而必要的底层改造。
那些原本被掩盖的、被我们视而不见的问题,AI 已经全部把它们逼了出来。接下来就看谁愿意正视它们,并且真正动手去解决了。