Ian Wang
Index

← 文章 / Writing

· 28 min

AI原生的用户体验设计|意图驱动的四层结构

当 AI 软件从"工具箱"进化成"智能体",用户体验的核心问题不再是界面漂不漂亮、按钮顺不顺手,而是:这个系统能不能帮助用户说清楚自己到底想要什么?本文提出一套 AI 原生的四层意图识别框架 Intent Fabric,并拆解意图识别为什么是人机协作的真正瓶颈。

ai · ux · design · agent · interaction

这篇是 《科技慢半拍》EP134:AI原生的用户体验设计|意图驱动的四层结构 的文字稿整理版,结合 Jakob Nielsen 的最新思考和 Intent Fabric Demo 原型,把节目里的论证链条完整展开。

一、角色反转

传统软件里,用户是操作者。你在用 Excel 的时候,得亲手点击单元格、输入公式、选择函数,每一步都自己来。

但在今天的 AI 智能体系统中,用户正在从操作者,变成目标设定者结果评估者

分工逻辑从”我来做,你来帮”,彻底倒置成了”你来做,我来判”。

表面上看,这只是少点了几次鼠标。但实际上,它削减的是我们对”过程”的掌控感。过去每一个操作都有即时反馈,你心里是有底的。现在你给出指令,然后等待最终结果。这要求我们具备一种更高维度的判断力。

这种角色转移,带来了一种”技能的创造性破坏”。当”如何熟练操作某个软件”不再是核心竞争力时,人类的优势变成了什么?答案可能是:意图的主权

未来优秀的员工,不再是那个快捷键用得最熟练、能把软件玩出花儿来的人,而是那个最能清晰定义”到底什么是好结果”的人。

用户体验的三个时代

如果把历史焦距拉长,人机关系经历了三次大的浪潮:

生产力时代(1960s):计算机进入工作场景,主要服务工程师、科学家。核心问题是:这个东西能不能用?

影响力时代(1995年互联网爆发):用户从少数专业人群扩展到几乎所有人。竞争从”功能好不好”变成”体验、品牌、情感连接”。用户体验目标从”能用”变成”好用”,甚至”愿意用、持续用”。

增强时代(AI 原生):用户体验的目标再次进化,不只是提高效率、不只是增强吸引力,而是增强人类的能力——帮助用户去做他原本做不到的事情。

过去的工具让你更快地做你已经会做的事;AI 智能体,开始让你有机会做你原本做不到的事。UX 的设计逻辑,从”优化已知路径”变成了”打开新的路径”。


二、什么是意图

哲学基础:意向性

现象学之父胡塞尔提出了”意向性”概念:我们的意识,永远是”关于”某个东西的,它永远在指向某个对象。

当你冒出”我想去大理旅行”这个念头,你的意识在这一刻像一台投影仪,在现实这面墙上,投射出一个关于未来的、还不存在的小样。你此时此刻的心理状态,被一个还不存在的对象给定义了。

这就是意图的本质:不是一个简单的指令,而是一个导航指针,在为你的行动设定未来的引力点。

心理学的区分:目标意图 vs 执行意图

心理学把意图分成两种:

目标意图:大多数人所谓的”意图”停留在这一层。“我要减肥”、“我要学英语”——模糊的、美好的愿望。

执行意图:真正能让你动起来的是这个。它有具体的”如果……那么……”逻辑。不是”我要减肥”,而是”如果明天是工作日且时间到了晚上7点,那么我就会换上跑鞋去楼下公园跑30分钟。“研究表明,把模糊目标转化为执行意图,完成率能提升近一倍。

“想要”只是动机,是燃料。那个具体的执行意图,才是把你这台机器发动起来的齿轮。

神经科学的视角:预测机器

现代神经科学的”预测处理”框架认为,大脑不是被动接收外部信息的器官,而是一个永不停歇的预测机器。它一直在预测:下一秒你会看到什么,你做一个动作会得到什么反馈。

从这个角度,“意图”是大脑对”最优未来”的一种预测模型。你之所以”想”做一件事,是因为你的前额叶、基底节、边缘系统在后台协同工作,模拟出了一个比现在更好的状态,并提前调拨好了能量。

好意图的三要素

认知科学家把意图定义为:在约束条件下,被优先选择的目标状态

基于此,Nielsen 提出一个”好的意图”需要包含三个核心要素:

  1. 期望的结果:你到底想要什么
  2. 约束条件:预算、时间、风格偏好等
  3. 授权范围:你允许系统在多大程度上自主决策

举例说明差异:

  • 模糊意图:帮我规划一个去大理的旅行 → AI 只能给出平均化的平庸答案
  • 清晰意图:帮我规划一个为期五天、预算5000元以内的大理旅行,优先体验当地建筑和文化,节奏不要太赶 → AI 输出质量质的飞跃

这解释了为什么给 AI 写提示词这么难——我们表达意图时,往往只给出了目标,却下意识隐藏了成百上千个默认约束条件。


三、AI 为什么不能自主生成意图

既然人类用户需要明确意图,为什么已经这么强大的 AI 不能自己产生意图,省得我们费事?

AI 对意图的处理能力存在阶梯

工具型 AI:你指哪儿,它砸哪儿。绝大多数当前 AI 系统属于这个范畴。

AI 智能体:拥有”派生意图”——给了它一个意图,它能围绕这个意图形成”接收→拆解→执行→观察→调整”的闭环。像一个精力无限的聪明实习生,自己决定先查哪个数据、发现路走不通后自己换策略。

但这里有一个关键认知误区:AI 智能体表现出某种意图,并不等于它拥有了意图。它的底层驱动力,不是来自它”想”做什么,而是来自一个被人类严格定义好的数学函数。

两座无法逾越的大山

当前 AI 和人类意图之间隔着两座山:

内在动机:人类的意图很多时候诞生于生理压力或社会欲望。“我饿了,所以我想吃饭”——生理驱动。“为了不被裁员,我必须把项目做好”——社会压力。AI 没有生物性的生存压力,不会饿,不会累,没有七情六欲。

自我模型:当你说”我想变得更好”,这个”我”包含了你过去的经历、现在的状态、对未来的渴望。AI 处理任务时,没有”这是为了我的成长”这种意识,只有”这个系统被要求达成目标X”。

AI 不会因为完不成任务而焦虑,也不会因为超额完成而获得成就感。

“目标空间的重构”不是主见

当你让 AI 规划便宜旅行,它反过来建议你稍微增加预算——这不是 AI 有了自己的想法。

这在技术上叫”目标空间的重构”:AI 发现你给出的初始约束(极低预算)会导致期望结果(旅行质量)急剧下降,于是通过重构你的表达,引导你澄清自相矛盾的意图。本质上,它是在帮你把模糊的、甚至自相矛盾的意图,变得更清晰、更”可计算”。

AI 并不是在驾驶那辆赛车,它只是一个被设定了终点的、能力超强的自适应巡航系统。它能帮你应付路上所有的弯道,但它永远不会问:我们为什么要出发?


四、四层 Intent Fabric 框架

基于以上的分析,我们提出一套 AI 原生的用户意图识别框架,命名为 Intent Fabric(意图编织体),分为四层:

L1 引导层:帮用户把模糊想法打磨清楚

问题:大多数 AI 产品面对用户的是一个巨大的空白输入框,闪烁的光标像一只沉默的眼睛盯着你。所有的认知压力都压在用户身上。但用户往往脑子里只有模糊的感觉,并没有清晰的指令。

引导层的设计理念:不要求用户一上来就给出完美指令,而是通过结构化对话协助用户把意图打磨清楚

三个核心机制:

苏格拉底式脚手架:用户输入模糊目标(如”帮我制定产品发布策略”),AI 不立刻执行,而是反问关键问题:“这次发布,你最优先想保护的是什么?即时收入、品牌势能、成本控制、风险防控,还是用户体验?“给出五个选项让用户点选。每轮问答,右侧面板实时显示意图的目标、受众、时间、考量——用户的每次回答都在构建一个越来越清晰的语义模型。

意图清晰度阈值:AI 为意图清晰度设定阈值(如75%或90%)。未达阈值时,“生成内容”按钮保持灰色,无法点击。这创造了一种”交互契约”——逼着用户和 AI 双方都必须诚实,防止双方”手拉着手兴高采烈地跑向错误方向”。

隐性意图推理:系统通过用户日历、近期屏幕内容、历史使用习惯,预设几个可能性最高的起点。用户不需要每次从零开始,系统已经帮你铺好了台阶——而且这些”可见的上下文”(日历卡片、近期记录)会直接展示给用户,建立透明感和信任感。

这三个机制合在一起,把 AI 交互从”命令式”变成了”引导式”:AI 的职责不是猜测你的意图,而是帮你在脑海中那片混沌里,勾勒出清晰的轮廓。

L2 意图层:用”手感”调出策略倾向

即便用户在L1明确了初始意图目标,人类对意图的思考也不是非黑即白的。那些微妙的”倾向性”——“我想激进一点,但又不想太冒险”——用语言很难精确描述。

Intent Positioning(意图定位) 用坐标轴滑块解决这个问题:

界面正中是一份策略草稿。周围分布着几个滑块。横轴两端分别是”即时收入”和”长期品牌”,纵轴两端分别是”激进扩张”和”稳健防守”。

当用户把横轴滑块拉向”即时收入”,中间的策略文字实时发生形变:原本温和的”品牌叙事”、“用户心智”瞬间被替换成”首周GMV目标”、“转化漏斗设计”、“大额折扣活动”。这不是模板切换,而是 AI 在根据滑块坐标(如”70%倾向转化率,30%倾向品牌建设”)实时重写整个方案。

用户不用进行复杂的逻辑推导,而是用视觉和直觉在”试错”。当文字呈现出”对了,就是这个味儿”的感觉时,点击”生成三条变体”,AI 在当前坐标附近生成三条细节略有差异的路径供最终选择。

这个设计把”探索”和”收敛”统一在同一个界面里——拖动是探索,停下是收敛。做决策从纯粹的脑力劳作,变成了像调音或雕刻一样的手工艺活

为什么不直接给最优解? 策略本质上不存在唯一的绝对最优解。如果 AI 直接给你一个结果,你要么盲从,要么怀疑。通过滑块参与到生成过程中,你亲眼看到”如果偏向这边会怎样”,因此对最终结果产生真正的责任感。

L3 编排层:把计划书摊开给你看

传统 AI 交互像是对着黑盒子许愿:输入一句话,“duang”地给出一个结果。在创意任务里这也许有趣,但在专业的、高风险的企业任务里,这种”跳跃式”交付风险极大。

编排层在正式执行之前,先把 AI 的”计划书”摊开给用户看。不是一份大文档,而是 5-7 张步骤卡片,每张卡片写明:

  • 这一步干什么
  • 依据是哪份行业报告
  • 做出了什么前提假设(如”假设调研样本量不少于1000人”)

此外,还有一个协作冲突侧栏,主动把组织内部各种看不见的”阻力”和”约束”摆到台面上:

“法务部规定,所有产品发布前必须经过审核,这个步骤在审计模式下跳不过去。” “建议同步启动A/B测试,以便更好地衡量效果。”

真实世界的任务从来不是一个人说了算的。传统 AI 给出的”完美计划”推不动,是因为它没考虑过公司的财务制度、法务合规、销售策略。编排层把”别人的声音”和”客观约束”全部可视化,让计划在诞生时就具备在复杂组织里”推得动”的顽强生命力。

每个计划步骤前都有一个”未批准”的勾选框。只有用户亲手点击批准,大模型生成的内容才会从”草稿”变成真正的”产出物”。这传递一个心理暗示:AI 提供给你的所有东西,都只是候选方案,而不是最终指令。用户在每个关键节点都握有否决权,是监督者而非被动接受者。

L4 操作层:时间是刚性的

前三层处理的都是认知层面——帮你”想清楚”目标、策略、步骤。到了 L4,一个残酷的变量介入:时间

用户在L3批准的步骤,在 L4 变成一张甘特图。横轴是时间,纵轴是所有任务,每个任务是一个可拖动的色块。可以直接拖动改变任务时长,可以点开精确修改开始日期。

L4 是”现实检验层”。意图可能听起来很美好,方案也很完美,但时间是刚性的,是不可压缩的。这张甘特图强制用户离开”认知幻觉”,直面现实世界的墙——资源冲突、节假日干扰、团队交付能力的极限。

很多项目失败,不是因为策略不对,而是对”并发量”和”前置依赖”的严重误判。当你看到三个任务条在同一天拥挤地重叠在一起,那种视觉上的压迫感,比任何报告都更直观。

如果计划在 L4 不可行,用户需要回到 L1-L3 重新调整意图。


五、场景驱动的可插拔架构

这套四层框架能否成为通用的 AI 交互标准,而不只是某个垂直场景的专用工具?

Intent Fabric 的核心设计原则是与场景解耦。整个 UX 框架是一个空的容器,具体做什么事,放在一个叫 scenarios 的文件夹里,用 Markdown 文件定义:

scenarios/
├── product-launch.md    # 产品发布策略
├── contract-draft.md    # 合同起草(律师)
├── marketing-copy.md    # 营销文案
└── ...

用户换一个场景文件,工具瞬间从产品经理的助手变成律师的助手,UI 框架不用修改。

这带来一个根本性的竞争力转移:AI 产品的核心竞争力,不再是前端代码,而是定义”场景”的能力。一份好的场景配置文件,可能比前端代码本身更值钱。它像 PDF 格式定义了文档交换标准一样,定义了人机协作的标准。

“场景”本身,可以成为一种新的数字资产。


六、什么才是好的 AI 原生交互体验

AI 原生时代需要一套新的 UX 衡量维度:

  1. 意图捕获能力:能否精准捕捉用户内心深处真正的意图
  2. 澄清质量:问问题的水平,能否有效引导用户
  3. 委托易用度:把任务交给 AI 麻不麻烦
  4. 验证效率:用户检查结果需要花多大精力
  5. 信任校准:用户和 AI 之间的信任关系是否牢固、双方是否互信

AI 产品的核心竞争力,不再只是”快”,而是”准”和”可解释”。

刻意摩擦(Deliberate Friction)

AI 原生时代最好的体验,不是最丝滑的体验

在高风险领域(医疗诊断、大额金融交易),系统会故意在关键节点设置障碍。比如,AI 生成投资组合之后,不让你一键下单,而是强迫你先阅读并手动勾选三个关键风险假设,甚至要求你用自己的话复述一遍决策理由。

这有现实依据:沃尔沃早年研究发现,驾驶辅助系统做得太顺滑,司机会完全放松警惕,有人甚至在开车时看书。后来的系统设计成需要司机定期轻微晃动方向盘,向系统证明”我还在”。

刻意摩擦的本质是”认知介入”——通过人为制造的”慢”,确保人类在最关键的决策点上没有”掉线”。

与此配套的是渐进式委托:就像带实习生,你不会第一天就把核心业务全交给他。好的 AI 系统根据用户信任的积累程度和自身置信度,决定是自动执行还是请求确认。


七、总结

AI 原生时代,好的用户体验已经不只是”按钮顺不顺手""界面漂不漂亮”了。

更根本的变化是:我们和软件打交道的方式正在改变。过去是一步步操作工具;现在是先把自己真正想要什么说清楚,把执行交给 AI,再回来判断结果是否符合预期。

未来真正重要的能力,不是”会不会用工具”,而是”能不能把自己的意图说明白”。

Intent Fabric 四层框架的目标,不是让 AI 显得更强,而是让人和 AI 之间的配合更顺一点、更稳一点:先帮用户把模糊的想法问清楚(L1),再帮用户把说不清但确实存在的偏好调整出来(L2),把执行计划摊开给用户看(L3),最后拉回到现实的时间约束里(L4)。

AI 时代真正好的交互,不是让你什么都不用想,也不是让机器替你决定一切——而是它一边帮你省力,一边在关键的地方把你拉回来,让你继续保有判断、选择和负责的能力。

我们想要的,不是把人排除掉的软件工具,而是一个真的能和人一起把事情做好的 AI 原生应用。