Ian Wang
Index

← 文章 / Writing

· 30 min

从专家系统到智能大脑——知识管理的四十年

从培根 1597 年的拉丁文小书,到 Palantir 的本体论平台——知识管理这件事在过去四十年里反复回答了同一个问题:怎么把人脑里的隐性经验,变成组织能调用的资产。这是《科技慢半拍》知识管理上下两期的合篇文字稿。

knowledge-management · expert-system · ontology · ai · rag · palantir

这篇是 《科技慢半拍》EP131:专家系统的兴衰与演进EP132:从图书馆到智能大脑 的合篇文字稿,把两集”知识管理”按时间和理论顺序贯通成一篇。

序:知识就是力量

“Ipsa scientia potestas est.” ——Francis Bacon, Meditationes Sacrae, 1597

“Knowledge is Power” 这句话我们从小听到大,更准确的拉丁原文出自培根 1597 年的《沉思录》。它的核心思想是:人类可以通过知识理解自然、进而控制自然——知识带来的不是抽象的修养,而是实实在在的能力。

在中世纪人们普遍相信知识来自神的启示;培根说,不,知识来自实验、来自人对自然的主动探索。这在当时是革命性的。

伴随计算机的发展,知识管理早已不再停留在纸张和书本上——它转换成 0 和 1 这样的硅基生命,在网络与数字世界中不断传播。

知识在 AI 加持下,正在变成一套透明、分层、带有决策记忆的动态体系。它的目标,是为 AI 构建一面”永不坍塌的数字镜像”,让 AI 真正看清用户的现实世界。

这篇文章我们从两条线展开:先讲 1950–1980 年代的”专家系统”为什么辉煌过又冷却下去;再讲 1990 年代以后,企业级知识管理怎样从图书馆变成咖啡馆,又一路走到今天 Palantir 式的本体论平台。


第一部分:专家系统的兴衰

符号主义的萌芽

1950 — 70 年代初,AI 研究还处在”符号主义 AI”的萌芽阶段。当时科学家关注的是推理——他们想用纯粹的形式逻辑、规则演算去模拟人类的思考过程。诞生了”逻辑推理程序”和”通用问题求解器”这样的成果。

但很快暴露问题:AI 的算法本身是空的,没有知识库的支撑。它们只能处理高度抽象、环境极其封闭的小问题——证明逻辑公式、玩搭积木的游戏,离现实世界的复杂问题差得太远。

那时候 AI 能做的事,全靠程序员一句一句手工编码进去的知识、符号和规则,在一个非常狭小的、预先定义好的世界里运作。

正是在这种困境里,一个关键思想萌芽:也许智能的奥秘不在于算法多精巧,而在于一个系统到底拥有多少专业知识。

专家系统的四件套

到了 1970 年代,研究重心从纯算法转向了一个更具体的问题:怎样系统化、结构化、形式化地把人类专家的知识、经验,甚至判断直觉都存进计算机?

这就是专家系统诞生的背景。它第一次让 AI 真正解决了现实世界的问题:化学领域分析复杂化合物,医学辅助诊断,地质学帮助找矿,工业用于设备维护,金融甚至用来做投资决策。这些是当时企业能立刻用得上、能产生真金白银的成果。

一个专家系统的核心由四部分组成:

  • 知识库——某领域的事实和经验规则,通常是 if-then 形式:“如果病人发烧、并且咳嗽,那么可能是上呼吸道感染。”
  • 推理机——专家的”大脑”。根据输入信息,去知识库匹配规则,逐步推理出结论或建议。
  • 用户界面——让用户提问、看结果。注意:是对规范问题的回答,不具备今天大模型那种”什么都能聊”的能力。
  • 解释子系统——告诉用户它是怎么得出这个结论的:“根据规则 A 和事实 B,我得出 C。”

专家系统代表了 AI 历史上的”符号主义”路径:自上而下,人先把知识编码成规则灌进系统。知识表示是符号化、逻辑化的,人能读懂,可解释性极强,整个决策链条透明。

它的缺点也非常明显——泛化能力极弱,只能在预定义的知识范围内工作,遇到知识库里没有的新问题就立刻失灵。

而我们今天的主流 AI——大模型、深度学习——走的是反过来的”联结主义”路径:自下而上,从海量非结构化数据中自己发现模式和特征。知识表示是一堆我们看不懂的权重、矩阵、向量。泛化能力极强,但代价是可解释性极弱,决策过程通常是黑箱。

Dendral:第一个专家系统

20 世纪 60 年代中期,斯坦福大学聚集了一群顶尖学者,由爱德华·费根鲍姆(Edward Feigenbaum)和诺贝尔奖得主约书亚·莱德伯格(Joshua Lederberg)领头。他们想干一件事:让计算机不再只是个计算器,而能像人类专家一样解决复杂问题。

Dendral 的任务目标是:给它一堆质谱数据,反向推断出未知有机化合物的化学结构。 这是当时顶尖有机化学家才能干的活。Dendral 不仅做到了,而且做得很好。

它成为公认的世界上第一个专家系统,标志着 AI 第一次从理论的象牙塔走进真实的应用世界。

Dendral 给”智能”这个词提供了一个全新的定义:智能可以在一个非常狭窄、高度专业化的知识领域里展现出超越常规计算的能力。

MYCIN 与”确定性因子”

1970 年代斯坦福大学,博士生爱德华·肖特利夫(Edward Shortliffe)做出了 MYCIN——名字模仿青霉素 Penicillin 等抗生素的命名。它的任务是识别能导致严重感染的细菌(菌血症、脑膜炎),像真正的医生一样推荐合适的抗生素,甚至根据病人体重调整剂量。

MYCIN 有两个法宝。第一个是基于 if-then 规则的推理机制——庞大的知识库里存了成百上千条诊断规则。第二个,也是它最具创新性的贡献,叫做确定性因子(Certainty Factor)

医学诊断从来不是非黑即白的世界。一个好医生想的不是”你 100% 得了这个病”,而是”根据症状我有八成把握是这个病,但也有两成可能是另一种”。MYCIN 的确定性因子,是尝试让机器去量化这种”把握有多大”的感觉。

它让系统能够在信息不全时进行模糊推理和判断,而不只是简单的”是”或”否”。处理不确定性的能力,对 AI 想在真实世界落地实在太重要了。

MYCIN 的学术影响力是巨大的——甚至催生了一个叫 EMYCIN 的”专家系统外壳”:一个没装载具体知识的”专家大脑”模板,可以填充任何领域的知识来构建该领域的专家系统。

但 MYCIN 从未真正投入临床。原因和今天阻碍 AI 医疗的一样:法律和责任风险——如果 MYCIN 诊断错了,谁来负责?

Internist-I 与 CADUCEUS

几乎同一时期,匹兹堡大学开发了 Internist-I,目标是把医学院内科主任的毕生经验”复制”到计算机里。它和 MYCIN 专注感染领域不同,瞄准的是更广阔的内科疾病诊断——知识库当时就包含约 500 种疾病和 3500 多种临床表现。

Internist-I 走的是实用主义路线:没追求 MYCIN 那种优雅的不确定性数学模型,而是用规模巨大的结构化知识库 + 决策树推理,尽可能覆盖更广的临床需求。它真的在美国一些医学院里被用于教学和临床试验。

它的继任者 CADUCEUS 把知识库进一步扩大到能诊断 1000 种不同疾病,同时强调概率推理。在当时被称为”现存最具知识密集性的专家系统”。

从 Dendral 到 MYCIN,到 Internist-I,再到 CADUCEUS——这串名字揭示了早期 AI 的一个关键权衡:理论上的突破,与实际应用的广度之间的权衡。

费根鲍姆的那句话

支撑这一系列系统的,是费根鲍姆那句被引用了四十年的话:

“智能系统的威力,来自于它们所拥有的知识,而不是它们所使用的特定形式主义和推理方案。”

这句话直接催生了 AI 的一个重要分支——知识工程。它的核心是:与其打造一把能解决所有问题的”万能钥匙”,不如针对每一把特定的”锁”,精心打造一把专门的钥匙。而这把钥匙,就是那个领域专家的知识。

我们今天常听到的本体论、知识图谱、可解释 AI——根上都能找到专家系统的影子。

Lisp、Prolog 与”AI 编程”的产业化

要把专家的知识”灌”进计算机,那个年代离不开两种 AI 语言:

Lisp——AI 奠基人 John McCarthy 1958 年提出,“AI 的第一语言”。Dendral 就是用 Lisp 构建的。在美国 AI 圈广为采用。

Prolog——1972 年由法国学者 Alain Colmerauer 和逻辑学家 Robert Kowalski 提出。逻辑编程语言,天生支持推理和搜索,特别适合做专家系统和自然语言处理。在欧洲更受青睐,甚至被日本”第五代计算机计划”选定为核心语言。

围绕这两门语言,一个全新产业开始蓬勃发展。美国甚至诞生了专门为运行 Lisp 优化的硬件——Symbolics、LISP Machines Inc. 制造的”Lisp 机器”。欧洲也出现了 APES 这样基于 Prolog 的开发工具,目标是让医生、地质学家这种不懂编程的领域专家也能直接构建知识库。

为了让一个软件跑得更快,不惜专门设计和制造一套硬件——这种对技术专长的深度投入,今天都是难以想象的。APES 这类工具的出现,预示了今天”低代码 / 无代码 AI 开发”的萌芽。

但历史并不一帆风顺。Lisp 机器太昂贵且用途单一,没能大规模普及,反而成了后来 AI 冬天的一个标志。Prolog 的严谨逻辑推理在面对现实世界的模棱两可时不够灵活。两种语言在商业化中都遇到了瓶颈。

SID 与 XCON:一个叫好不叫座,一个真金白银

1980 年代 AI 进入”面向对象与形式化”阶段,研究重点从塞规则转向更精密的知识表达。诞生了 KRL、KL-ONE 这样的知识表示语言,以及”对象导向的知识库”——每个知识点不再孤立,自带属性、关系、处理方法。

SID(Synthesis of Integral Design) 1982 年诞生,第一个被用来做大规模产品设计的专家系统。它的任务是为 VAX 9000 CPU 生成 93% 的逻辑门。

工程师先输入一大堆资深逻辑设计师编写的设计规则。但 SID 不是简单执行者——它会扩展这些规则,生成远超原始规模的逻辑方案。最终拿出的某些设计成果,比创造它的人类专家还要优秀。

最有意思的细节:一开始专家输入的规则有些是相互矛盾的——一个追求极致速度,一个追求最小面积。SID 通过顶层控制参数在矛盾规则间权衡协调,找到最优解。它甚至具备一种原始的自我修改和自我学习能力——可以根据新输入的规则自创新规则。

SID 在实际应用中却遭遇重重阻力——叫好不叫座。

几乎同期诞生的另一个系统 XCON 取得了商业上的成功。1980 年卡内基梅隆大学一位教授为 DEC 开发了 R1,后来改名 XCON——“专家配置器”,根据客户五花八门的需求自动配置 VAX 计算机的各种组件。最终积累了约 2500 条规则。

XCON 把人类专家配置复杂系统时脑里那些零散的经验形式化、系统化了。到 1986 年它已处理 8 万份订单,准确率 95–98%,每年为 DEC 节省约 2500 万美元。

DEC 后续还做了 XCON 的兄弟版本——给销售用的 XSEL,做场地规划的 XSITE。专家系统真正进入了企业日常运营的核心。

Cyc:试图穷尽人类常识

1980 年代是一个对 AI 充满无限乐观的时代——五分之三的财富 500 强公司在用专家系统。在这种狂热里,两场最宏大的 AI 实验拉开了序幕:

  1. 日本倾全国之力打造的”第五代计算机”——1982 年成立 ICOT,10 年计划,总投资接近 570 亿日元。
  2. 美国试图穷尽人类所有知识的 Cyc 项目——1984 年 Douglas Lenat 启动。

如果说日本的项目是想造一个更强的”大脑”,Cyc 就是想给这个大脑装一个最全的”知识”。它要把那些我们觉得理所当然、甚至意识不到的隐性知识——“水是湿的""人不能同时在两个地方”——一条一条写下来,编成机器能懂的代码。

这就像在写一本关于”如何做人”的完全使用说明书。Pedro Domingos 后来称它是”灾难性的失败”。

为什么失败?

  • 工作量天文数字——人工输入所有常识根本无法覆盖人类知识的广度和深度
  • 维护越来越难——知识库越大越容易自相矛盾
  • 缺乏泛化——学到的知识是死的,遇到新问题就不会了

Marvin Minsky 直接批评:这种专家系统连一个三岁小孩的常识都学不会。

回看历史,Cyc 的失败恰恰为后来的研究者指明了一条走不通的路——试图用符号和规则去穷尽人类常识是不可能的。

SCI 计划与 1987 年的转折

1983 年冷战大背景下,DARPA 启动了”战略计算倡议”(SCI)。两年砸进 1 亿美元,覆盖全球 60 个机构、92 个子项目,钱最多的就是专家系统。

业内普遍相信:只要砸的钱足够多,雇足够多的顶尖专家,就能像搭积木一样从特定领域的专家系统通往无所不能的通用人工智能。

但其实早就有人看出问题。Marvin Minsky 和 Roger Schank 1984 年就警告这种热情已经失控,描述了一种类似”核冬天”的连锁反应:悲观情绪从学术界开始,传导到媒体,最后资本断供。

1987 年,转折点来了。Jack Schwarz 接管 DARPA 那个负责 AI 投资的办公室。他用了一个极其刻薄但形象的比喻:DARPA 应该去”冲浪”——追逐最有前景的科技浪潮,而不应该”狗刨”——在没水的地方瞎费力气。 在他看来,当时的 AI 就是在狗刨。

随之而来的是对 SCI 项目”残酷而彻底”的资助削减。同年华尔街大崩盘,金融危机让本来就对 AI 失去信心的资本界瞬间清场。

专家系统从”政府与资本的宠儿”一夜之间变成了”科技界的弃子”——降级成”一种聪明的编程而已”。第二次 AI 冬天就此开启,长达十多年。

知识工程瓶颈:撞墙的根本原因

资本退出只是表面,专家系统内部其实一直存在一个无法逾越的逻辑黑洞——知识工程瓶颈

具体来说就是:专家往往知道怎么做,但他自己也说不清自己是怎么想的,很多判断依赖直觉和上下文。 一旦规则增加到一定数量,新规则和旧规则之间的冲突就像一团乱掉的毛线球,根本没法理清。

这就意味着专家系统无法变成一个可以自我生长的”生命体”。它的能力增长是线性的,维护成本却是指数级,到一定规模后还会因规则冲突而能力倒退。

知识工程瓶颈是试图用符号逻辑去模拟专家给出的”结果”,而不是模拟专家学习和成长的那个”过程”。这也成为后来神经网络和深度学习能崛起的逻辑起点。

“失败”还是”融入”

到了 90 年代,“专家系统”这个词慢慢从 IT 圈消失了。一种说法是它失败了——被过度炒作未能兑现承诺。但另一种解释可能更接近真相:专家系统成为了”它自身成功的受害者”。

像”无马的马车”这个词。汽车刚出现时人们这么叫它,普及之后大家直接叫”汽车”。专家系统也一样——它的核心技术(规则引擎、知识库、解释机制)并没消失,而是被 IT 行业吸收消化,从一个独立的高大上专用工具变成了今天很多软件系统里一个标准化的、不起眼的模块。

它失去了头上的光环,却换来了更广泛的实际应用。

很多我们觉得习以为常的技术,根源往往就在那些看起来”失败”了的尝试里。技术的发展不是直线,而是螺旋上升。


第二部分:从图书馆到智能大脑

第一部分讲的是 AI 视角下的知识工程。第二部分回到企业管理视角——彼得·德鲁克的”知识工作者”概念,以及之后四十年企业知识管理系统的演进。

1954 年:知识工作者的诞生

1954 年,管理学大师彼得·德鲁克提出了”知识工作者”这个概念。

那时美国还沉浸在工业文明的巅峰,福特的管理者还在拿秒表用”泰勒制”精确计算每个工人拧螺丝的时间。但德鲁克说:未来最重要的资源不是资本、不是土地、也不是劳动力,而是知识

他发现,在巨大的工业设施下出现了一群特别的人——工程师、会计师、研究员。他们不靠体力劳动获得收入,他们能赚钱靠的是判断力、经验和理解力。

人类历史上第一次,生产力的增长点从”对手部的控制”转向了”对大脑的激发”。

德鲁克的洞察是:工业时代的管理逻辑本质上追求标准化流程、消除”不确定性”。但知识工作的本质恰恰相反——它是为了应对复杂性和不确定性。

一家公司的核心资产不再是看得见摸得着的物理设备,而是那些看不见的、关于”怎么想”和”怎么决断”的无形逻辑。

这种转变让知识从一种容易流失的”个人能力”,变成了可以长期持有的”组织资产”。它解决了一个经典管理难题:当关键员工离职时,他带不走公司的整个”意识形态”和”处理逻辑”——因为这些最宝贵的东西已经沉淀进组织系统里了。

知识留在脑子里是能力,被外化进系统里才是资产;前者让一个员工变得昂贵,后者才能让一个组织变得真正强大。

知识管理就这样成了企业管理的核心命题。

隐性知识与显性知识:SECI 模型

企业里的知识有两种形态:

  • 隐性知识——嵌在”人”的身体和大脑里的认知结构。活的、动态的、看不见的
  • 显性知识——已被外化成可操作的对象。结构化的、可以复制和传递的:SOP、流程图、技术文档

我们大多数人日常学习获取的都是显性知识。但真正构成一个人或一个组织核心竞争力的,往往是那些”说不清、道不明”的隐性知识。

日本管理学者野中郁次郎和竹内弘高 1995 年在《The Knowledge-Creating Company》里提出了 SECI 模型——解释组织内部知识如何在隐性与显性之间循环转化。

借用一个销售冠军的故事讲清楚四个步骤:

  1. Socialization 社会化(隐 → 隐)—— 新人跟着销冠跑客户。看怎么跟客户聊、怎么判断情绪、什么时候逼单、什么时候退一步。没有文档、没有方法论,只有”跟着感觉学”。 像徒弟跟师傅学手艺。

  2. Externalization 外化(隐 → 显)—— 复盘会上老板问销冠:“秘诀到底是什么?“他被逼着开始总结:“客户其实可以分为三类……关键在于识别那几个’购买信号’……某个阶段有几个关键话术特别管用……”——一套销售方法的显性知识初稿就诞生了。

  3. Combination 组合(显 → 显)—— 公司拿到这份文档,但管理者不会停在这里。产品部门把行业数据加进来,人力部门把它和其他销售高手的经验整合,IT 部门做成 CRM 系统里的规则。最终零散知识点被组合加工成一整套可被组织调用的销售知识体系:培训课程、系统规则、业务流程。

  4. Internalization 内化(显 → 隐)—— 新员工学这套手册,按流程打电话见客户。在一次次实践和试错中,把写在纸上的”规则”慢慢变成自己的”肌肉记忆”和”直觉”。终于有一天,他也能在电话接通瞬间判断成交概率。

SECI 不只是循环,它是一个”螺旋”——不是原地打转,而是在每一轮里被过滤、修正、升级。

整个螺旋里最脆弱、最关键、成本最高的是第二步——经验的”外化”。为什么难?

  • 高手常常无意识——你问他怎么做,他说”这不是很明显吗?“复杂经验对他来说已经自动化了
  • 语言是极大的简化——很多经验是动态的、情境性的,写成文字必然丢失大量信息
  • 表达成本极高——“会做”不代表”会抽象”,需要极强的反思和结构化能力

如果一个企业只重视后面的”组合”和”内化”——只发文档、做培训——而没有机制去挖掘员工大脑里的隐性矿藏,它的知识库很快就会枯竭。

图书馆模式 vs 咖啡馆模式

企业里同时存在两种知识管理模式:

图书馆模式 —— 一个跨国企业最核心的资产之一可能是几千册标准作业程序(SOP),细致到每颗螺丝钉应该用多大力矩。波音的维修手册超过 10 万页。这是图书馆模式的极致。核心逻辑:知识必须脱离人脑,变成任何人都可以查询、调用的文档。

但图书馆模式有一个致命问题——“路灯效应”:你只能在路灯底下找东西,因为只有那儿是亮的。换句话说,你只能找到那些已被记录、写成文档的知识。

咖啡馆模式 —— 麦肯锡这样的顶级咨询公司,或硅谷顶尖研发团队,遇到极其复杂、前所未有的难题时第一反应不是”我去查查资料”,而是”我得找某某聊聊”。这种模式依赖人与人之间形成的社交网络——导师制、头脑风暴、随机发起的讨论。

知识不再是服务器里的文件,而是两个大脑相互碰撞时产生的那一道闪电。

咖啡馆模式里,知识更像一场精彩的即兴表演而不是可复制的产品——它因互动而升温,也因人的离场而瞬间冷却。代价是极其高昂的、难以持续的沟通成本。

从 1990 年代开始,企业在抛弃专家系统后,开始构建知识管理系统,尽量丰富自己的图书馆,并让员工能在这个图书馆里更方便地找到自己想要的知识。

第一代:知识库

90 年代企业把”知识”正式定义为”可以被检索的信息集合”。

第一代知识管理就是为整个组织建立一种”长期记忆”,避免大家在同一个坑里反复摔倒。

代表产品:Microsoft SharePoint、Lotus Notes、印象笔记、企业内容管理(ECM)系统

核心目标是打造”单一事实来源”——全球员工不管在哪个国家,登录一个统一入口都能搜到从入职 SOP 到产品技术规格书的所有文件。所有人看同一份,所有人用同一个标准。

为防混乱,引入了”分类管理体系(Taxonomy)“——像图书馆图书编目,每份文档上传时打标签、分门别类。

第一代系统运行几年后普遍遇到一个尴尬现象:系统功能很强大,但内容更新极其缓慢,文档大多是几年前的”古董”,员工贡献新知识的积极性极低。

问题出在图书馆式的管理:

  • 维护严密分类体系成本极大——文档还没规范录入,业务就变了
  • 企业提供了存储工具,但忽视了”分享知识在某种程度上违反人类’囤积居奇’本能”
  • 没有有效激励,写文档对员工就是纯负担

最终系统沦为”堆放过期信息的数字垃圾场”。

我们换个角度反思:第一代的失败真的是因为员工”自私”吗?还是从一开始我们对”知识”的定义就错了?

知识更像有机体——只有在流动的对话、在协作解决问题的过程中才具有生命力。 第一代最大的误区,是用”存储”代替了”协作”,用”检索”代替了”交流”。

但它依然带来了重要价值:在整个商业世界确立了”知识资产化”这个概念——专利、文档、流程、经验和厂房设备一样都是公司的资产。

第二代:Wiki

伴随互联网,第二代知识管理出现:Wiki 模式。

Wiki 的故事源头比互联网本身还早。1945 年 Vannevar Bush 提出”Memex”构想——不是简单存储书本,而是用自动化方式把不同文档里相关的概念永久”交织”在一起。这种模仿人脑联想思维的直觉,80 年代被苹果 HyperCard 软件带进现实。

Wiki 创始人 Ward Cunningham 在 HyperCard 正式发布前接触到早期版本,“当场就被震撼”。他设计出一种极简卡片系统:每张卡片只有名称、描述和链接三个字段。最关键的一点:他允许用户创建一个指向”还不存在的页面”的链接——彻底颠覆了”先有内容、再有链接”的传统逻辑。

Wiki 从诞生之初,核心价值就不是”存储”而是”链接和导航”。在之前知识像一座座孤立的岛屿;坎宁安的设计把它变成可以无限生长的、流动的神经元网络。

1995 年 3 月 25 日上线了第一个 Wiki:WikiWikiWeb。夏威夷语 “Wiki Wiki” 是”快快”的意思。为实现极致速度,坎宁安引入了 CamelCase 骆驼拼写法——只要把两个首字母大写的词连在一起写,系统就自动识别成超链接。程序员根本不用学复杂的 HTML,几秒钟就能发布和链接内容。

2001 年 Jimmy Wales 和 Larry Sanger 抱着试一试的心态把 Wiki 模式引入在线百科——后来的维基百科,第一年就产生超过两万个条目。今天它也成为大模型训练最主要的养料之一。

完美的知识库不存在,但一个能够实时纠错的”草稿”,比十年磨一剑的”定稿”对人类更有用。

Notion 这类知识管理系统是第二代企业内部知识系统的典型代表。

第三代:从仓库到大脑

接下来从 Wiki 走向 Obsidian 这类工具——从”仓库”到”大脑”的范式转移。

2017 年德国学者 Sönke Ahrens 出版《How to Take Smart Notes》,把 Niklas Luhmann 的”卡片盒笔记法”(Zettelkasten)介绍给大众。

大多数人的笔记习惯是线性的:要么按日期一页页往下写,要么按主题建文件夹。但这种方式必然导致信息孤立——一个学者可能记了几十本厚笔记,要写论文整合不同时期想法时,知识被锁在一个个独立抽屉里没法对话。

记录并不等于思考。我们过去只是在做”知识的搬运工”,而不是在进行”知识的内化”。

阿伦斯的核心问题是:能不能建立一个系统,让记下来的笔记,在未来还能彼此”对话”,不断生长和演变?

这是从”线性存储”到”网络化思考”的转变。

整个流程里最关键的一环是”重述”——当你被迫用自己的语言去解释一个复杂概念,并把它压缩到一张小卡片上,你就在进行一次深度学习。系统在逼你从一个知识的”消费者”变成”生产者”

当然有人会反驳:“这方法太慢了。“没错,卡片盒笔记法有极高的”入库成本”——记每一条新知识时都要停下来想:它和已有的哪个想法冲突?支撑过去哪个论点?和三个月前那个看似无关的东西有没有联系?

但这种”慢”是一种战略性的投资。传统笔记是”先快后慢”——记的时候很爽(复制粘贴),用的时候面对几百个文档想不起哪个是哪个。卡片盒笔记法正好相反,“先慢后快”——随永久笔记数量增加,跨过一个临界点后,新知识进来就像投入一片已充满化学反应的池塘,自动撞上旧知识,产生我们梦寐以求的”洞见复利”。

不管第一代还是第二代知识管理,都把知识看作一种需要被”管理”的静态资产。Obsidian 这类工具彻底打破了树状结构——通过双链和图谱视图极大地促进隐性知识向显性知识的转化。

但这里也带来了一个新问题——“收藏者悖论”:当笔记网络越大越复杂,注意力很可能迷失在无数连接里。我们好像进入了一个不再缺乏连接,而是缺乏”有效连接”的时代。

第四代:本体论与 Palantir

Obsidian 帮我们把知识点连成一张大网,但这些连接真的够吗?能不能让它们更聪明、更精确?

这就引出第四代——语义的苏醒,从”模糊连接”走到”本体论建模”

从哲学到工程

本体论(Ontology) 原本是哲学里非常核心的概念,研究”存在”的本质。世界上有千千万万把具体椅子(个别),但抽象的”椅子”这个概念(共相)是如何存在的呢?

哲学层面的本体论研究的是整个知识大厦的地基。它不关心你购物车里那件具体商品,关心的是”商品""价格""所有权”这些概念在逻辑上到底是怎么成立的——为我们对世界的认知画一张最底层的逻辑结构图。

到 1980 年代,AI 研究者开始频繁使用”本体”这个词,目的是让机器理解物理世界。一个机器人怎么知道”杯子”是用来装水而不是戴在头上的?它需要一套关于这个世界的”理论”或者说”说明书”。

本体论从一种”解释世界”的哲学,变成了一种”建模世界”的工具。

1993 年 Tom Gruber 给出了标准定义:本体是”共享概念化的显式规范”。

  • “共享”意味着这套定义必须是一群主体(人或机器)共同认可的,像一份契约
  • “显式”意味着所有概念、规则和逻辑关系必须白纸黑字写得清清楚楚,不能让机器去猜

本体建模不是简单的文件分类,而是一部为了让机器不产生误解而制定的宪法。

Gruber 的定义直接催生了”语义网”和我们今天经常听到的”知识图谱”。

模糊连接 vs 精确建模

之前我们虽然给各种知识建立了双向连接,但这种连接在计算机眼里仍是”模糊”的。比如你在知识库里把”库克”链接到”苹果公司”——这个链接本身并不能解释他们到底是什么关系。是库克”领导”苹果公司?还是”投资”了?

本体论必须精确定义:明确指出 “CEO” 是一个角色,“库克” 是一个具体实体,他们之间是一个受时间约束的”任职”关系。

这不只是为了让搜索结果更精准——终极目标是实现自动化推理。 当系统里定义了 “A 公司是 B 公司的供应商” 且 “B 公司是 C 公司的子公司”,足够智能的系统就能自动推导出 “A 公司与 C 公司存在间接业务往来”——完全不需要手动标注。

Palantir 与 Foundry

提到本体论,就绕不开过去两年最有代表性的本体平台——Palantir 的 Foundry

最近硅谷创投圈做 to B 生意的,融资 PPT 里总有意无意加一句:“我们就是某个领域的 Palantir。“今天大家都在模仿 Palantir,但很多人忘了——它能拿到 70 倍市盈率的估值,不仅因为前线工程师模式,更关键的是底下有一个基于本体论、像操作系统一样强悍的底层产品 Foundry。

绝大多数企业的 AI 项目都卡在”生产化”的前夜:董事会施压必须拥抱 AI,但企业现实是数据像碎纸屑一样散落在几十个相互孤立的部门系统里,安全权限一团乱麻,历史遗留的文档和知识相互缠绕。

Foundry 想解决的就是这个根本问题。它做的不是再给你一个仪表盘,而是为整个公司构建一个数字世界的孪生底座——把整家公司建模成一个活生生的、完整的生态系统。

一个汽车制造商看到的不再是”某个零件库存不足”这样一个简单的红色警告,而是在屏幕上立刻能看到:这个零件连接着哪家供应商,供应商的货船目前在哪条航线,零件短缺最终会影响哪条生产线,以及那条生产线上哪位工人的具体排班。

这意味着一个根本性的转变——知识管理从过去的”技术中立”开始转向”技术驱动”。过去模式是先观察物理世界怎么运作,再用各种软件手动把知识记录下来。现在通过”本体”这一层,它是在”构建”一个可以被计算机理解和计算的数字世界——数据变成了知识,变成可以被计算、被模拟、被推演的活实体。

业务元素的原子级分解

Palantir 称其核心方法论为”业务元素的原子级分解”——把公司像拆乐高一样拆成一个个最基本的数字模块。人、资产、财务、工作流全被拆解成最基础的数字模型。

这不是简单地录入员工名字——而是要捕捉所有关键属性:一个工人的技能等级是多少,一台关键设备的完整维护历史,一笔资金的实时流向。

更关键的一步:映射这些”原子”之间超过三百多种现实世界里的动态关系

举个例子:一位经验丰富的高级技工突然请假。系统记录的不再是简单的”缺勤”事件——它会立刻开始计算这位技工的缺席会对某个特定的、难度极高的钻井作业产生怎样的连锁反应。这才是”原子化”的真正威力。

这种拆解的深层逻辑是为整个企业构建一套”数字基因组”。一家公司最宝贵的财富很多时候是存在于资深员工大脑里的隐性知识——为什么 A 供应商的物料延迟就一定导致 B 产品的质检失败率飙升?这种逻辑过去是”祖传秘方”,随人员流失就消失。

现在,本体层把这些隐含逻辑固化成可计算、可传承的语义网络。这不只是为眼前效率,更是为企业未来的”技术主权”——企业不再需要过分依赖外部专家那些零散判断,因为它已经拥有对自己核心业务逻辑的绝对掌控权。

企业不再只是一张事实清单,而应是一张因果关系网;原子化的目的不是拆碎业务,而是为了在数字世界重构真相。

决策到执行的闭环

仅仅知道未来可能发生什么还不够——如果 AI 只能告诉你风险却不能直接干预现实,它本质上依然只是一个高级仪表盘。

Palantir 整个架构里最具突破性的一环,是所谓的”决策到执行的闭环”(Decision-to-Execution Loop)。在它的 AI Mesh 架构下,本体层不仅连接数据,还直接连接到企业的各种执行系统——通过 API 编排工作流,触发全链条执行。

这彻底改变了人机协作的本质:AI 不再仅仅是提供建议的”顾问”,它成了可以动手的”行动者”——真正的智能体。

企业运营中有成千上万个微小但重要的决策每天都在发生。当这些决策被自动化之后,释放出来的效率是指数级的——它极大减少了人为操作失误和跨部门协调的摩擦成本。

本体论本质上扩大了原来企业知识管理的范畴——不再只是规章制度、笔记要点,还包括原来的生产数据、管理数据,以及之前被忽略的各种多模态数据。最终它们合并到企业的本体论模型中,作为一种新的知识形态被管理。

未来:AI 认知系统

也许知识管理系统演进的顶点,是我们正在迎来的 AI 认知系统。到这个阶段,知识的存在形式又变了——不再是文档、不再是网络、甚至也不只是语义模型,而是被转化成向量空间里的一种数学表达。

这预示着一种全新的组织形态正在诞生——知识的”自动沉淀与激活”。未来的 AI 系统不仅能从知识平台中调用知识,它甚至可以在员工进行咖啡馆式讨论时,实时自动地捕捉对话中的闪光点,理解后存入认知系统中。

隐性知识在某种程度上正在被”模型化”——AI 可能通过观察用户行为日志和对话记录,直接压缩出某种类似”专家直觉”的决策权重。

这阶段解决的是知识的终极问题——“使用”。把知识从”被动查阅”转变成”主动生成”。

未来的终极知识工具不是一个更高效的图书馆,而是一个比你更了解你自己的思维合伙人。

它甚至能识别出你自己都没意识到的思维模式:当你在文档里写下一行代码或一个方案时,系统通过理解上下文已自动在后台连接到全球最相关的专家经验、最成功的案例,并以恰到好处的方式提醒你。这种”无感化”的知识流动,可能才是历代知识管理想抵达却受限于技术未能触及的彼岸。

未来的 AI 认知系统不再是去修建一座华丽的图书馆,而是要让组织的每一滴水,在流过这个系统时,都能留下它的矿物质。

结语

从第一代知识管理系统到未来的 AI 认知系统,这中间的跨越本质上是从”人服务于系统”转向了”系统服务于人”。

但回看整条时间轴,从培根 1597 年的拉丁文小书,到 Dendral、MYCIN 这些把化学家、医生的直觉编码成规则的尝试;从 Cyc 项目”穷尽人类常识”的失败,到 SECI 模型告诉我们隐性知识的螺旋;从图书馆模式的 SOP 仓库,到咖啡馆模式的即兴对话;从 Wiki 的去中心化构建,到 Obsidian 的网络化思考;最后到 Palantir 用本体论把整家公司建模成一个活生生的数字孪生——

知识管理这件事在过去四十多年里反复回答的,其实是同一个问题:怎么把人脑里的隐性经验,变成组织能调用的资产。

每一代答案都比前一代更精细,但都没有跳过 SECI 螺旋里最难、也最珍贵的那一步——外化

在通往未来的 AI 认知系统的路上,我们还必须经历那个至关重要的环节:知识的内化

仰望星空,也要脚踏实地走好今天的路。