三重世界与 AI 原生——软件底层逻辑的重写
原子世界、比特世界、向量世界——用李继刚的三重世界框架,拆解 AI 原生应用必须回答的三个核心问题:如何理解用户意图、如何了解用户现实、如何在主客观之间建立可信的关系。这是一次软件底层逻辑的彻底重写,也是从"操作按钮"到"表达意图"的范式迁移。
ai-native · architecture · agent · software · ontology · memory
这篇是 《科技慢半拍》EP129:从三重世界谈起,AI 原生应用如何重写软件的底层逻辑? 的文字稿整理版,补齐了节目里来不及展开的结构 DNA 设计、三级漏斗披露机制与控制论视角。
楔子:我们活在三个叠加的世界里
最近听了孟岩和李继刚的一期播客,里面有个说法触动了我:我们其实同时活在三重叠加的世界里——原子世界、比特世界,还有最新的向量世界。
这不只是一个哲学概念。它恰好能帮我们看清楚,企业的 IT 系统为什么长成今天这个样子,以及 AI 原生应用究竟在重写什么。
第一重:原子世界与 SOR 系统
原子世界诞生于工业革命,有 200 年的历史。核心稀缺性是位置。
李继刚在节目里举了个例子:山顶的矿泉水比山下贵,不是因为挑水的人更辛苦,而是因为把同样的东西从山下移到山顶,中间有距离、有成本、有摩擦——山顶这个地理坐标本身,就是稀缺资源。
霍尔木兹海峡能让全球油价震荡,也是同一个逻辑:物理位置控制了资源流动。
当上世纪六七十年代计算机出现时,人们最先想到的,是用它来解决原子世界里的数据记录问题。ERP、库存管理、财务系统——这些系统的本质是对现实的还原。我们把世界一笔一笔记下来,让它变得可统计、可对账、可审计。
于是诞生了第一类系统:SOR(System of Record)——记录类系统。它极端强调数据的确定性和可追溯性,一个字段填错,现实中的仓库可能就会堆满永远也卖不掉的库存。
第二重:比特世界与 SOE 系统
90 年代的互联网革命带来了比特世界。物理距离在数字信号面前几乎瞬间塌缩。
海南的直播和新疆的直播,在你的手机屏幕上只有 0.01 秒的滑动距离。当物理距离不再是障碍,稀缺性发生了转移:每个人只有 24 小时,所有互联网应用都在抢夺屏幕前的时间。
霍尔木兹海峡的货船还是过不去,但全世界的人们可以在同一时间刷到这条新闻——这就是原子世界和比特世界并行叠加的现实。
注意力的稀缺,催生了第二类系统:SOE(System of Engagement)——交互类系统。从推荐算法到增长漏斗,从 UI 设计到 A/B 测试,所有的代码都在疯狂诱惑你:你愿不愿意多停留一秒?你愿不愿意再点一下?
SOE 追求的不再是”还原现实”,而是**“塑造用户体验”**。软件从幕后的管理工具,变成了台前的社交引擎和娱乐黑洞。
中间层:SOI 洞察系统
原子世界的”记录”和比特世界的”交互”,共同制造了一件东西:海量数据。一类是 SOR 系统的”现实还原数据”,另一类是 SOE 系统的”用户行为数据”。
这两类数据催生了第三类系统:SOI(System of Insight)——数据洞察类系统。它的任务是在原子世界的历史账本和比特世界的行为痕迹之间架桥,帮企业把”拍脑袋”决策变成”看数据”的决策。数据仓库、数据湖、大数据平台,都是这个逻辑的产物。
就在我们试图从数据的泥淖中挖掘洞察力时,大模型出现了,把我们推入了第三重世界。
第三重:向量世界与 AI 原生
向量世界最大的变化:时间维度的消失。
大模型是一块被压缩的”认知晶体”——把人类几千年的智慧、逻辑和文本,经过训练压缩进了一块高维空间。过去你想读透一本大部头的商业巨著,可能要花整整一周。现在你问大模型这本书讲了什么、核心论证是什么、反对者会如何反驳,它在几秒钟内直接把思考结果递给你。
读书获得知识那个漫长的时间过程,被省掉了。
那么,在向量世界里,什么东西变得最稀缺、最重要?
李继刚的框架帮我们找到了三件事:
- 用户的意图和提问——主观世界。模型很强,但意图错误或问题糟糕,输出只能在糟糕的空间里打转
- 用户私有的上下文与现实情况——客观世界。你所在的行业、你的资源、你的权限、你的风险约束。同一句建议,放在不同的上下文里,一个是神药,一个是毒药
- 主观与客观之间的关系——如何建立集成、信任、责任、安全
这三件事,就是 AI 原生架构必须回答的三个核心问题。
核心问题一:如何理解用户意图
界面消失之后
过去四十年,我们如何跟软件打交道?软件是一个”工具集合”,用户是”操作员”,UI 是沟通渠道。为了实现一个功能,得在层层叠叠的菜单里寻找隐藏在角落的按钮。这是用户必须适应软件的学习过程。
在 AI 原生应用里,这一切开始改变。软件正在从静态的工具箱,演变成意图驱动的生命循环——它能感知你的意图,把意图自动转化为可执行结构,由内部调度器去执行,还会反思、记忆、根据反馈重新规划。
在图形界面时代,是人类去学习和适配计算机的逻辑。现在,计算机在努力学习人类的逻辑。
但”界面消失”带来了一种意想不到的本能恐惧。过去三十年,我们的大脑已经被那些按钮和图标塑造了——“看到按钮、学习点击、记住功能”这套固定模式。当你突然面对没有任何提示的纯语言界面,第一反应是:我应该说什么?它真的能听懂吗?万一说错了怎么办?
这是思维门槛,不是技术门槛。 很多人面对 AI 时产生的无力感,本质上不是 AI 不够强大,而是我们还不知道如何精确地定义自己到底想要什么。
结构 DNA:反熵设计
更深层的问题:我们人类的语言本来就充满模糊、歧义和情绪,AI 怎么保证随口说出的指令,不会在执行时彻底跑偏?
关键是要承认:自然语言是一个”高熵系统”。
“下周帮我整理一下论文的计划,越早越好,我现在有点焦虑,可能需要每天推进一点。”
这句话里,“焦虑”这种情绪、“越早越好”这种模糊说法,对计算机来说都是”熵”。如果 AI 直接在这些高熵语言上运行,系统很快就会走向混乱。
AI 原生应用需要引入”结构压缩”机制——用一种类似协议的东西,叫做结构 DNA,把高熵的对话强行压缩成低熵的、机器可以调度和执行的数据。
压缩过程分三步:
- 提取语义原语——从发散的语言里提取实体(论文)、动作(整理)、时间(下周)和约束(每天、越早越好)
- 转化为结构 DNA——把”越早越好”压缩成具体的
start_time - 放进可调度的状态机——标记为
open,等待执行
这就是 AI 原生系统的反熵武器:把语言无限发散的可能性,强行约束进有限的字段、有限的状态和统一的时间轴里。
AI 原生交互的本质,就是把人类愿望的混沌,强行约束进 AI 运行的轴承中。
但这种压缩,也意味着一种信息的丧失。当我们把用户的”焦虑”当作冗余的熵剔除掉时,是不是也丢失了任务背后紧迫感的温度?真正的挑战在于:如何在保持 AI 理解稳定的同时,依然能读懂那些”不可压缩”的人类情感。
核心问题二:如何了解用户现实
你有没有满怀期待去问最厉害的大模型”我该如何扩张业务”,结果它洋洋洒洒给你一堆听起来特别有道理但全是废话的建议?什么”要深入市场调研”、“要优化供应链”——听着都对,但全然无法落地。
因为模型根本不懂你的客观世界。 它不知道你所在行业的潜规则,不知道你账上还剩多少现金,不知道你的团队有哪些权限限制,更不知道你内心深处害怕什么风险。
今天的模型能力已经开始趋同,大家使用模型的真正差异,就在于如何让它更懂你。
文件系统是新的数据库
在 AI 原生应用中,我们熟悉的 SQL 或 NoSQL 数据库,正在退居二线。Markdown、YAML 和 JSON 这些朴素的文本文件,反而成了底层的主角。
为什么?
传统数据库像一个结构精密的保险库:里面有行、列、主键、索引,专门为机器高效读写设计。但对于人类,甚至对于 AI 来说,都很难直观理解里面的信息。
文件就像透明的玻璃盒子。 尤其是像 JSON 这种格式——它只允许追加,AI 智能体就像记账一样,不断往里写新记录,但不能轻易抹掉历史。这天然形成了可追溯的安全机制:随时打开文件,就能像读工作日志一样,清清楚楚看到 AI 在每个时间点做了什么决策。
这种变化带来了**“数字主权”的回归**。过去你的所有数据锁在某家公司的云端,你只是使用者,那些数据只是你的云端影子。“文件第一”的模式下,你的数据物理上、结构化地回到了自己手里——可以随时下载、复制,带着它在不同 AI 应用之间无缝迁移的”可执行的个人文件柜”。
三级漏斗披露机制
用户总不能把这辈子所有笔记、日记、工作记录一股脑全塞给 AI——Token 太多,大模型依然会选择性遗忘,还容易引发”注意力崩溃”和模型漂移。
解法是借鉴人类大脑的设计,构建三级漏斗式披露机制:
第一层——路由层。一个超轻量的导航文件(比如 SKILL.md),一直被 AI 加载着。它的作用像前台总机:要写博客,去这个文件夹找资料;要处理财务,去读那个模块的规则。
第二层——模块指令层。只有当第一层确定了任务领域,才进入这一层。比如一旦进入”写博客”任务,AI 才去加载用户预设的”文风指南”——“我的写作风格要风趣幽默,多用比喻”。切换到”处理财务”任务时,加载的是用户的”税务约束”文件。
第三层——数据执行层。直到执行具体任务那一刻,才按需读取某一个具体的 JSON 数据记录,或某一篇存的研究文档。
这个三级控制机制,给 AI 装上了 GPS 导航,让它在你的真实世界中漫游和定位。每次处理,只需要拥有一小片信息——既节省 Token 成本,更防止了不同领域信息之间的相互干扰。
剧集式记忆:不只记事实,更记判断
以前的 SOR 系统存储的大多是冷冰冰的”事实”——“我去年买了一台电脑,价格多少,购买日期哪天”。
AI 原生应用引入了**“剧集式记忆”(Episodic Memory)的概念。在用户的私人账本里,不仅记录”你做了什么”,更重要的是记录了你做这个决策背后的”判断”(Judgment)**:
- 当时的决策逻辑:为什么选方案 A 而不是方案 B?
- 失败经验:上次在哪个环节搞砸了,根本原因是什么?
- 情感权重:这件事对你来说,重要程度打几分?
当 AI 把这些带有个人判断的数据存进私有化的文件中,它就不再是给通用建议的搜索引擎了。当你面临新决策时,AI 会翻看历史,然后说:“根据你去年在 A 项目上的失败教训,以及你当时设定的’学习价值要大于短期收入’这个价值排序,我建议选方案 C。”
AI 不应该只记得你做了什么,更应该记得你为什么这么做,你更在乎什么。
记忆的三个层级
在企业 AI 原生应用中,记忆不是往提示词里塞一段长文本,它是明确的状态管理策略。可以分三个层级:
工作记忆(Working Memory)——瞬时缓存。记录智能体在当前运行期间获取的各种细节:中间工具返回的结果、当前约束条件、还没完成的初步计划。就像 HR 代理处理新员工信息时,能带着已经填好的信息直接去配置系统,不需要一遍遍回头问”员工叫什么”。
会话记忆(Session Memory)——跨轮次的持久化。记住用户的个人偏好、正在进行的长期任务,以及总结过的历史对话记录。
长期记忆(Long-term Memory)——索引过的文档、结构化的事实数据和嵌入向量。智能体的长期学习不是通过实时修改模型参数,而是通过一种反馈回路:捕获纠正信息、存储验证过的结果,然后定期优化提示词逻辑或检索配置。
在企业应用中,记忆还必须具备政策意识——数据保留规则、个人隐私处理、权限控制,都必须严格被记住。而这种记忆机制还有一个巨大的战略价值:机构知识的留存——把原本可能随员工离职而流失的信息和经验,转化成 AI 原生应用可以永久检索和利用的资产。
核心问题三:如何在主客观之间建立可信的关系
前两个问题解决了”AI 知道你想什么”和”AI 了解你的现实”。但真正困难的是第三件事:在用户那些天马行空的主观意图,和这个充满规则、权限、边界的客观世界之间,建立一条牢固、可信的关系。
当你真的把一个 AI 接入到公司的业务系统,你面临的问题不再是”它生成的答案漂不漂亮”,而是:它有没有权限去删除这个文件?它引用的数据来源可不可靠?如果它做错了,谁来承担?系统能不能一键回滚?
AI 原生应用需要把 AI 从一个”内容生成器”,变成一个”业务执行者”。 这是软件定义权的一次让渡。
智能体的数字身份
智能体在企业中能操作、执行动作,就需要一个身份。有了身份,才能对服务进行认证,对它可以执行的操作类型和可以访问的数据施加严格控制。
底层安全软件和平台需要为 AI 身份配套——正如过去为人和应用所构建的那样。在制药、银行这样的受监管工作流中,这不是可选项,而是基本门槛。
共享工作空间:让 AI 在阳光下运行
AI 原生架构提倡:智能体应该和用户在同一个完全透明的世界里工作——建立”共享工作空间”。
AI 不再通过隐藏的 API 在后台偷偷修改信息,而是直接在你的电脑文件夹里,读取并修改你看得见的 Markdown 文件。你不需要通过复杂界面查询它干了什么,只需要打开那个文件夹,就能实时看到它刚刚更新的逻辑节点。
这种设计的重点是”即时反馈”和”可干预性”。 当 AI 整理文档时跑偏了,你不需要改代码或调参数——直接打开它正在编辑的 Markdown 文件,把它改过来。智能体在下一次工作循环中读到这个变化,就会立刻意识到:“用户的意图变了”,然后自动校正。
动态能力发现
传统方式是给 AI 预先定义好 50 个死板的工具接口。但这非常僵化——后台 API 一升级或增加新字段,就得回去重新修改 AI 的逻辑代码。
AI 原生应用换了一种方式:不再给具体的工具,只给两个最基础的”原语”——一个叫”列出当前可用能力”,另一个叫”执行特定能力”。
当后台程序员新增了一个”海外汇率转换”财务接口,他根本不需要通知 AI 团队做任何修改。AI 在下一次运行时会自己探测:“咦,今天系统里多了一个叫’海外汇率转换’的新能力”,然后根据接口返回的自然语言描述,自主决定如何调用它。
这才是真正意义上的”涌现能力”——让 AI 能够处理那些你在写代码时根本没有预见到的边缘情况。
风险与可逆性矩阵
把选择权交给 AI,不会失控吗?与其用死板代码限制它,不如用一个更聪明的**“风险与可逆性矩阵”**来约束:
- 低风险、易回滚(整理本地文件夹)→ 给完全自动权限,放手去做
- 低风险、难可逆(发一条小红书消息)→ 先请示,再执行
- 高风险(修改核心代码)→ AI 可以准备好所有变更,但最后必须由人批准
- 高风险、难可逆(给老板发邮件、转账)→ 显式批准,甚至需要多重确认
真正的高级系统不需要被预设所有行为,它需要的是在规则边界内”自主发现”的能力。
驾驭工程(Harness Engineering)
这里有一个反直觉的真相:越智能的大模型,就越容易越界,就越需要严肃的工程约束。
最近出现了一个新概念:Harness Engineering(驾驭工程)——人类如何通过工程,为智能体创造出更好的工作环境,可以驾驭它的执行。它要求构建可审计、可回滚、基于风险矩阵的工程逻辑。
Human in the loop 是今天的铁律。 不管 AI 原生应用宣传有多自动化,出了问题,最终的责任是你的,不是那个提供 AI 应用的供应商。别被忽悠了。
控制论视角
从控制论(Cybernetics)看,AI 原生建立的”主客观关系”,其实是一个动态对齐与闭环优化的过程:
- 目标(主观意图)→ 行动 → 环境(客观现实)→ 反馈 → 调整
当用户意图触碰到客观世界的边界——权限不足、法律合规、资源限制——AI 需要通过负反馈调节,把主观意图转化为在客观世界中”可行”的路径,维持系统的某种稳态。
从强化学习的视角:用户意图是目标函数,客观现实是环境模型,连接主客观的”桥梁”是策略函数。通过智能体对策略函数的不断优化,最终达到用户意图。
AI 原生应用是控制论和强化学习理论的工程落地方法,有坚实的理论基础。
结语:软件的定义权正在被让渡
我们用三重世界作为地图,走完了整个旅程。
如果说原子世界教会了我们如何与物理距离博弈,比特世界教会了我们如何经营注意力,那么向量世界正在将人类的认知过程进行大规模的压缩。
这背后带来了软件应用操作权力的彻底移交。用户正在从软件的”操纵者”,进化成一个”指令发出者”。意图为王的时代,已经悄然来临。
AI 原生应用必须同时横跨三重世界:
- 向量世界的认知能力,理解用户的意图
- 比特世界的交互逻辑,触达用户——这就是为什么再好的大模型也需要通过手机里的 App 来实现
- 通过 RAG 和 MCP 协议连接原子世界的记录系统,确保 AI 操作的真实落地
AI 原生不是要造一个”全知全能的上帝”。而是通过建立一套可信、可控、可审计的生命循环,让它在你授权的范围内,去调用工具、处理文件,甚至在设定的边界里帮你做出一些决策。
只有到了这一步,AI 才真正从一个有趣的”玩具”,变成了一个强大的”生产力工具”。因为它开始承担责任了。
而任何责任的前提,都必须是透明和信任。
今天,很多人都在讨论软件正在”消失”的问题。如果你能重新理解向量世界的底层逻辑,一步步构建出属于这个时代的 AI 原生应用,那它就是让我们自由呼吸的数字世界的起点。
也许最终被重写的,不只是软件的底层逻辑,而是我们与技术之间的那个根本性的关系:从”使用工具”到”与工具共同成长”。