Ian Wang
Index

← 播客 / Podcast

AI反对派(上)|那些末日论、怀疑论和警醒者们
EP 65 · 108 min

AI反对派(上)|那些末日论、怀疑论和警醒者们

AI 的反对者是一个光谱,不是一个阵营。从相信 AI 会消灭人类的末日论者,到质疑 AI 连"理解"都谈不上的怀疑论者,再到不反对 AI 但坚持要先把风险讲清楚的警醒者——这期节目完整走一遍这个光谱,看看他们在争什么、为什么争。

在此页收听 / Listen here

在小宇宙收听 ↗

这期讲了什么

  • 三类反对派的谱系:末日论者(AI 会杀死人类)、怀疑论者(AI 根本不算智能)、警醒者(AI 有用但危险被严重低估)——三类人的诉求完全不同,却经常被混为一谈
  • 末日论者的代表人物:尤德科夫斯基、波斯特洛姆、泰格马克、斯图尔特·拉塞尔——他们的核心论点是”超级智能一旦出现,人类无法对齐它的目标”
  • 怀疑论的两条路:哲学路线(瑟尔的中文房间、德雷福斯的具身认知)和语言学路线(本德的随机鹦鹉、乔姆斯基的语言本能)——两条路都指向同一个结论:LLM 没有理解,只有统计
  • AI 警醒者(AI Safety):辛顿、本吉奥、苏茨克维尔,以及背后的 EA 有效利他主义运动——他们不是反对 AI,而是要求”先把对齐问题解决了再加速”
  • 纳拉亚南与 Scaling Law 的批判:《AI Snake Oil》作者拆解了大量被夸大的 AI 能力研究——Scaling Law 不是自然规律,是商业叙事
  • 格布鲁和米切尔的谷歌事件:两位 AI 伦理研究员被谷歌相继解雇,引发学界震动——她们在研究 LLM 的种族和性别偏见

试图回答的几个问题

  • 末日论者说的”对齐失败”到底是什么意思?
  • 瑟尔的中文房间思想实验,今天还成立吗?
  • “随机鹦鹉”这个批评,真的击中了 LLM 的要害吗?
  • 有效利他主义为什么会和 AI 安全绑定在一起?
  • 格布鲁事件说明了什么:是谷歌压制异见,还是学术批评走错了方向?

几个关键判断

  • 末日论的问题不是结论,是前提:尤德科夫斯基的论证链很长,只要有一个前提失效,整个末日叙事就垮掉——但也因此很难被证伪
  • 怀疑论低估了涌现,末日论高估了主体性:LLM 确实没有”理解”,但它产生的效果远超怀疑论者的预期;超级智能确实有潜在风险,但”AI 有自己的意志要消灭人类”这个前提远比看起来强
  • 警醒者是最难被驳倒的一类:他们不说 AI 不行,也不说 AI 要消灭人类,只说”你们走太快了、没有想清楚”——这个姿态在道德上无懈可击
  • 格布鲁事件是权力问题,不是技术问题:谁有资格定义 AI 的危害?谁有权力停止一项研究?这些才是这个故事的核心

时间轴

  • 00:15 开场白
  • 06:17 《黑客帝国》前传《二次文艺复兴》
  • 07:50 电影《终结者2》
  • 11:43 尼克·波斯特洛姆《超级智能》
  • 14:23 斯图尔特·拉塞尔《人类兼容》
  • 14:54 马克·泰格马克《生命3.0》
  • 16:38 埃利泽·尤德科夫斯基
  • 21:33 美剧《疑犯追踪》
  • 26:49 休伯特·德雷福斯《计算机不能做什么》
  • 28:52 约翰·瑟尔”中文房间”
  • 33:42 随机鹦鹉理论
  • 34:20 艾米丽·本德《随机鹦鹉的危险》
  • 37:06 诺姆·乔姆斯基《ChatGPT的虚假承诺》
  • 39:03 MIT《Nature》论文《语言不是思考的工具》
  • 40:59 杰瑞德·库尼·霍瓦斯
  • 50:21 乔·卡尔史密斯
  • 52:54 杰弗里·辛顿
  • 54:45 杨立昆
  • 55:54 朱松纯
  • 59:19 美剧《西部世界》
  • 01:01:25 有效利他主义(EA)
  • 01:02:17 超级对齐主义者
  • 01:03:17 约书亚·本吉奥
  • 01:03:43 伊利亚·苏茨克维尔
  • 01:04:02 达里奥·阿莫代
  • 01:04:20 威廉·麦克阿斯基尔
  • 01:04:29 卡里·图纳
  • 01:05:29 阿尔温德·纳拉亚南
  • 01:12:57 《苦涩的教训》
  • 01:22:14 《Nature》论文《更大更易指导的语言模型变得不太可靠》
  • 01:24:01 《LLMs仍无法制定计划》
  • 01:28:29 道格拉斯·拉什科夫《向谷歌巴士扔石头》
  • 01:30:37 莫法特·奥金尼
  • 01:34:27 蒂姆尼特·格布鲁
  • 01:39:54 玛格丽特·米切尔
  • 01:44:30 电影《2001 太空漫游记》

推荐阅读