Ian Wang
Index

← 文章 / Writing

· 18 min

普适性技术的隐藏法则|我们总是在追求"更多",但真正的突破却源于"更少"

从图灵机到大语言模型,每次技术革命背后都有同一个隐藏法则:普适性。它不是技术的广泛流行,而是将无限任务压缩为有限基本操作的能力。四种计算基元、TCP/IP协议、"预测下一个词元"——真正的突破从不来自"更多",而来自对"更少"中通用基底的发现。

ai · technology · turing · internet · llm

这篇是 《科技慢半拍》EP109:普适性技术的隐藏法则|我们总是在追求”更多”,但真正的突破却源于”更少” 的文字稿整理版,将节目里的核心框架展开成完整的分析。

引言

我们身边充满了各种各样的发明,为什么有的发明只是昙花一现,而另一些,比如电力和互联网,却能成为支撑整个现代文明的基石?电力并不是又一项新发明,它之所以变得普适,是因为一个叫”电压”的原则,可以驱动灯泡、收音机,乃至整个城市。互联网也不是又一个新网络,它之所以普适,是因为TCP/IP协议可以承载任何类型的数据:文字、图片、视频,甚至是金钱。

今天我们看到的AI,感觉就像魔法一样。但其实,我们正在见证的,是人类在寻找下一个普适性原则的过程。每一次技术的巨大飞跃,都始于我们发现了一个共同的规律,那就是”普适性”。

到底什么是”普适性”?当我提到这个词的时候,我指的并不是”广泛被大家使用”或者”人手一个”这么简单。它指的是一种能力,能够将无限多、看似完全不同的任务,归结为一小组有限的、最基本的动作,然后通过一个通用的”基底”来执行这些动作。

这个模式是清晰的。普适性总是表现为两个步骤:

第一步,叫”压缩”,就是把一个混乱的、无限的领域,提炼成一个极简的工具箱。

第二步,叫”重组”,就是用这个工具箱里的基本工具,通过不同的排列组合,去构建无穷无尽的复杂性。它不是去挨个解决每一个问题,而是去发现那个”元解决方案”,那个能让所有问题看起来都像是同一个主题变奏的底层框架。


图灵计算:第一次普适性飞跃

我们穿越到那个充满蒸汽朋克风格的计算工厂。从我们熟悉的算盘,到19世纪天才查尔斯·巴贝奇构想的”差分机”,那个时代所有计算工具都遵循一个死板的原则:硬件,就等于它的功能。一台机器的设计,就决定了它的用途,永远无法更改。

这种”硬件即算法”的逻辑,意味着如果你想解决一个新问题,唯一的办法就是去发明一台全新的机器。在那个时代,计算领域的复杂性,不是通过更聪明的抽象方法来管理的,而是通过不断增加机器的数量来应对的——“机器动物园”时代。每台机器在其领域内都无比精巧,但它们彼此孤立,被囚禁在自己唯一的任务牢笼里。

这场革新,来自一个当时只有24岁的年轻人。在20世纪30年代中期,阿兰·图灵没有像其他人一样去构思又一台更复杂的专用机器。他问了一个更根本的问题:究竟什么才算得上是”机械化的过程”?

他的答案,就是后来大名鼎鼎的”通用图灵机”,不过他当时称之为”模仿机器”。这台机器存在于图灵的想象之中,是一个被简化到极致的抽象模型。它只有一条无限长的纸带,和一个读写头,以及一套极其简单的规则。这个读写头只能做四件事:读取纸带上的一个符号,写入一个新的符号,把纸带向左或向右移动一格,以及根据指令改变自身的状态。就这么简单。

但就是基于这个极简的工具包,图灵做出了一个足以震惊世界的证明:任何一台专门的计算机器,它们的运行逻辑,原则上都可以被翻译成一串写在纸带上的指令,然后由他这台”模仿机器”一步一步地模拟出来。这一下,就把硬件和功能给彻底解耦了

图灵最激进,也是最核心的洞察,还不是”一台机器可以模仿所有机器”,而是,对那台被模仿的机器的”描述”本身,也可以被当作一种”数据”来处理。这就是**“程序即数据”**这个伟大概念的诞生。

大约十年之后,图灵的理论飞跃,在约翰·冯·诺依曼等人的手中,变成了我们今天依然在使用的计算机架构——存储程序计算机。无论是程序指令,还是被处理的数据,都以同样的方式存储在同一个内存里,都是一串0和1,没有任何区别。就是这个看似简单的统一,创造出了惊人的灵活性。这就是**“软件”的诞生**。

这就是普适性的第一次飞跃:它把无限的计算任务,压缩成了四个基本操作,外加一条可以承载它们的通用磁带。它的后果不仅是技术性的,甚至是哲学性的——它给了人类一个全新的定义,从此,“可计算”就意味着任何可以用这四种操作来描述的事物。


互联网革命:第二次普适性飞跃

在那个年代,通信世界就像一个由无数个独立王国组成的群岛。无论是电话电报网,还是早期阿帕网的实验节点,都遵循着一个死板的原则:网络,就等于它的连接范围。每当出现一种新的通信需求,唯一的解决方案,就是从零开始搭建一个全新的专用网络——“网络孤岛”时代。

到了20世纪70年代,文顿·瑟夫和罗伯特·卡恩换了个思路,问了一个更根本的问题:“究竟什么,才算得上是’网络间的通用语言’?“他们的答案,就是后来大名鼎鼎的”TCP/IP协议”。

这个模型的核心思想,其实只有两个关键层。你可以把它想象成一个全球邮政系统:

  • TCP(传输控制协议):负责确保你寄送的”包裹”内容完整、顺序正确
  • IP(网际协议):像邮政编码和地址系统,给每个设备一个唯一的地址,只负责把数据包从源头送到目的地,根本不关心里面写了什么

无论是阿帕网,还是后来的卫星网络、无线电网络,它们内部的通信逻辑,原则上都可以被”封装”进标准的数据包里。这一下,就把物理网络和通信服务给彻底解耦了

互联网最激进,也是最核心的一个洞察,还不是说”一套协议可以连接所有网络”。而是说,在这些网络上流动的”信息”本身,它的内容和用途,可以是完全通用的。这就是**“服务与网络分离”**这个伟大原则的诞生。

大约二十年之后,蒂姆·伯纳斯-李把这个理论飞跃,变成了我们今天依然在使用的万维网。在互联网的应用层之上,又建立了一个新的通用层:URL(统一资源定位符)标识,HTTP(超文本传输协议)获取,HTML(超文本标记语言)呈现。一个全球性的信息空间,从此可以被任何一台联网的机器访问。

这种从网络专用到应用通用的转变,从根本上重新定义了通信”是什么”,以及它”能承载什么”——这也就是为什么,我们今天用同一条网线,早上可以开视频会议,下午可以上网购物,晚上还能看流媒体电影。


大语言模型:第三次普适性飞跃

在”前大模型时代”,自然语言处理这个领域,就像一个装满了各种”巧妙但孤立的小玩意儿”的工具箱。你需要翻译,需要一个机器翻译系统;你要做情感分析,需要另一套分类器;文章摘要、问答系统、聊天机器人,每一个都有自己独立的架构和数据处理流程。每一个功能,都像一个密不透风的”筒仓”,彼此之间几乎不通往来。

这种碎片化带来了两个要命的问题。首先,技术的进步是局部的——你在摘要技术上的突破,对提高翻译水平几乎没什么帮助。其次,缺乏一个共享的意义基础——不同的系统对语言的表示方式五花八门,根本就没有一个通用的”意义”模型把它们联系起来。

那么,大语言模型到底是怎么打破这些壁垒,实现这种普遍性的呢?它的核心机制就是:预测下一个词元

就是这么简单。一个词元,你可以把它理解成一个词,或者一个词的一部分,甚至一个字符。模型分析已经给出的文字序列,估算出下一个最有可能出现的词元是什么,把这个词元加到序列末尾,然后重复这个过程。就是这么一个看似机械的”预测-追加-预测-追加”的循环,最终涌现出了翻译、摘要、推理、甚至是诗歌创作这样复杂的语言行为。

这个机制本质上,是在人类语言这个巨大的”符号空间”里进行导航的一种方式。每一次预测,都是在无数种符号延续的可能性里,做了一次微小的选择,决定了要沿着哪一条意义的线索继续往前走。模型不是在简单地拼接词语,而是在一个”生成式的语义场”里运作。

那么,我们又是如何”编程”这个机器,让它能精准地执行我们想要的具体任务呢?答案就在两样东西上:提示词(Prompt)和训练用的语料库

提示词,其实就像一段程序——它告诉模型,你现在要执行什么任务,要进入哪一种意义框架。而海量的训练语料,就像图灵机那条无限长的”通用磁带”,压缩并记录了人类几乎全部的符号历史:文学、法律、科学论文、技术手册、日常对话等等。

这和图灵机的普遍性类比非常贴切:图灵机本身是不变的,多样性来自于写在磁带上的不同指令。大语言模型也是一样,它的基本动作不变,多样性来自于我们输入的提示词,和已经编码在它权重里的海量语料。

当然,这种普遍性也并非没有边界。大语言模型的普遍性,仅仅延伸到那些可以被词元——被符号——所表示的事物。法律合同、诗歌、数学证明都没问题。但是,第一次尝到芒果的那种感觉,或者朋友之间那种心照不宣的默契……这些东西,除非能够被彻底地符号化,否则它们就无法被模型所模拟。

这就是大语言模型一个决定性的界限:它能把所有的符号任务都归结为”意义的延续”,但那些具身的经验、默会的知识和非符号的直觉,构成了它能力的边缘地带。

不过,这个边界也不是一成不变的。人类文明本身,就是一个把那些无法言说之物不断转化为符号的无尽工程——艺术、数学、法律、科学,都是在尝试把那些非符号的信息,编码成可以交流和传承的形式。每一次我们成功地做到了这一点,我们其实都在拓展那个”语言模型可建模”的范围。


未来的普适性技术:文明的通用基底

以上就是普适性技术的三次飞跃。图灵机定义了”什么是可计算的”,互联网定义了”什么是可访问的信息”,而大语言模型正在定义”什么是语言和知识”。

展望未来,下一个普适性的飞跃会是什么呢?环顾我们今天的社会:金融、医疗、教育、物流、治理,每个领域都有自己的标准、自己的数据格式、自己的机构。我们似乎已经习惯了这种脱节,但它们其实是一个更深层问题的症状:我们缺少一个”文明本身的普适基底”。

它始于一个由四个基本操作组成的循环:

  1. 共识——决定什么是重要的
  2. 协议——把这个决定编码成规则
  3. 结构——把这些规则固化为角色、机构或者流程
  4. 叙事——编织一个故事来让这个结构合法化并得以持续

这个循环在人类历史上不断重复——从制定宪法到创立公司,再到发起一场社会运动,模式都是一样的。但今天,这个循环仍然是缓慢、脆弱且高度依赖人工的。

未来的飞跃可能就在于,我们不再把这个循环看作一个社会学现象,而是把它看作一套”普适性的基本操作集”。想象一个”社会图灵机”,在这里,共识可以被数字化地捕捉,协议可以被透明地编码,结构可以像可执行程序一样被实例化。在这样一个世界里,规则和制度本身,就可能成为”可执行的代码”。

当然,这目前还只是推测。但话说回来,图灵的模仿机器,在1936年,也只是推测。


总结

综观历史,从图灵机到大型语言模型,普适性始终是推动人类进步的隐藏法则。

当我们谈论突破时,我们脑海里浮现的往往是”更强大的力量”——更快的处理器、更大的数据集、更强的引擎。但历史告诉我们,真正改变游戏规则的,从来都不是单纯的规模扩张。它不是关于”用更多资源做同样的事”,而是关于”用更少的资源做任何新的事”。这,就是普适性的精髓。

普适性,本质上就是一场”压缩”。一个原本混乱、碎片化的领域,突然之间坍缩成少数几个基本操作和一个能够重组它们的普适基底。算盘、加法机和各种专用计算器,都被统一进了”读、写、移动、改变状态”这个框架里。翻译、摘要和推理这些不同的任务,都融入了”预测下一个词元”这单一的行为中。

一旦你找到了最小的构建模块,你就可以像搭乐高一样,把它们排列组合成无数种新的配置。只用四种DNA碱基,生命就构建出了鲸鱼和柳树。只用四种计算基元,程序员就构建了我们今天所知的所有软件系统。普适性意味着,一个有限的工具箱,可以被无限次地重新利用。

普适性不仅仅是计算机科学里的一个奇特概念,也不是人工智能研究里的一个怪癖。它是进步的隐藏法则。它教导我们,真正的突破,并非来自无休止地增加”更多”,而是来自对”更少”的深刻洞察:去发现那些能将混乱压缩为清晰、能用少数规则模拟一切的普适基元。

那么,下一个等待我们去发现的普适性基底,又将如何重塑我们的世界呢?