AI 影响世界——弹性需求、半内生增长与人类最后一次逃避选择的机会
AI 每年投资规模等同于曼哈顿计划,但历史上第一次,改变文明进程的力量在私人公司手中。从弹性需求决定职业命运,到 AlphaFold 压缩科学史,再到半内生增长理论重新激活超指数增长引擎——AI 不是命运本身,而是一种被人类选择不断定向的力量。
ai-economy · ai-labor · ai-science · future-of-work · governance
这篇是 《科技慢半拍》EP121:AI 影响世界|AI 夺走的不是工作,而是人类最后一次逃避选择的机会 的文字稿整理版,把节目里快速带过的”半内生增长理论”推导、“弹性需求”的历史数据,以及深度伪造治理机制补充完整。
楔子:方向盘握在谁手里
有一个事实值得我们认真面对:今天 AI 每年的投资规模,已经和当年的曼哈顿计划以及阿波罗登月计划相当。
但过去这些改变人类历史进程的大工程,无一例外,全都是由政府主导的。今天的 AI 投资和它背后的驱动力,却几乎完全来自私人企业。
这意味着,人类历史上可能第一次,一股足以改变文明进程的力量,方向盘正握在追求利润的商业实体手中。
这让我们不得不思考:我们是否已经错过了干预的最佳时机?
如果政府像当年对待核能那样,简单粗暴地”封锁”或”过度监管”,结果很可能不是消除了风险,而是让技术转入地下,或者流向监管更宽松的地区。但如果完全放任,最先进的 AI 模型开源之后,敌对势力可能把它重新配置成网络攻击工具,甚至生物武器。
真正的挑战在于:如何在防止 AI 变成”毁灭城市的炸弹”的同时,又不让它变成少数公司的”数字领地”?
我们在历史上的位置
面对这个问题,有一个反直觉的好消息:我们还有时间。
比尔·盖茨曾经提出一个洞察:创新的爆发往往比人们预期的要慢,但它带来的革命性程度,却远远超出人们的想象。我们现在就处在”实用 AI 的黎明期”。
历史也反复证明,无论是社会科学家还是技术专家,在预测一项技术的长期后果时几乎都会出错。很多副作用都具有隐蔽性——社交媒体对精神健康的负面影响,是在被大规模部署很多年之后才逐渐显现的。AI 也一样。
正因为变革的真正落地需要时间,我们现在才依然处在一个”决定性时刻”。我们还有宝贵的窗口期去建立故障保险机制和审计框架。现在做出的每一个决策,无论是对管理电网的 AI 进行安全测试,还是努力纠正算法里的偏见,影响力都会在未来几十年里被无限放大。
技术专家预测的是爆发的速度,而我们所有人的责任,是决定爆发的方向。
我们与 AI 的关系:职能剥离,而非职位替换
来自哈佛大学的一项研究给出了一个具体的数据。在一个针对咨询行业的实验里,当引入 AI 辅助之后,低技能顾问的工作效率提升了 43%,而高技能顾问只提升了 17%。
这已经不是”锦上添花”,而是对底层能力的”暴力拉平”。一个刚入职的年轻律师,在 AI 的帮助下审查标准合同的速度提升了 22%,快要摸到资深合伙人的水平了。
这迫使我们重新思考 AI 的角色。它可能并不是要来抢走你工位的”替代者”,而是那个帮你把办公室里 80% 的最无聊行政琐事都处理掉的”超级助手”。
AI 正在做的是**“职能的精准剥离”**——它接管的是那些最消耗人、最让人感到职业倦怠的东西:让医生头疼的无穷无尽的保险文档,让老师崩溃的堆积如山的作业批改。这些”苦差事”(Drudgery),被 AI 拿走之后,人类专家才真正被解放出来,回归到工作的核心价值上:医生终于有时间去面对面地观察病人的神态,老师也终于能把精力放在启发学生的思考上。
这种职能剥离揭示了一个更深层的趋势:未来的职业竞争力,重心会从”执行能力”转向”决策的终审权”。
尤其是在医疗、法律这种高风险领域,AI 可以提供精准的预测和建议,但人类必须留在”决策路径”里,作为最后的安全保障。就像飞机的自动驾驶系统可以处理 99% 的航程,但在遇到极端天气的那个生死瞬间,真正做决定的,还是坐在驾驶舱里的人。
AI 夺走的不是你的工作,而是那些让你天天想辞职的烂事儿;它留给你的,恰恰是身为人类最难被复制的决策主权。
当然,这里有一个潜在的代价需要警惕:技能萎缩。如果一个年轻医生从一开始就过度依赖 AI 的辅助诊断,他会不会慢慢丧失在没有设备支持下的直觉判断力?这种”技能退化”,是享受技术红利时必须正视的成本。
弹性需求:职业命运的密码
既然 AI 能让每个人的效率都这么高,我们还需要那么多人吗?
这里有一组跨越半个世纪的数据值得认真对待。
从 1970 年到 2020 年,计算机性能提升了上百万倍,编程语言变得前所未有的高效。结果:美国程序员的数量,反而增长了 11 倍。
与此同时,从 1940 年到 2020 年,随着农业机械化大规模普及,美国农业岗位缩减到了之前的 1/4,农民占总人口的比例从 40% 一路跌到 2%。
一边暴增 11 倍,一边缩减 4 倍——这背后的原因叫**“弹性需求”**。
编程这个行业,需求是高度弹性的。代码写得越快、开发成本越低,全世界对各种软件和 App 的需求就会呈指数级爆发,创造出比以前多得多的岗位。农业则相反——需求是”非弹性”的。不管粮食价格多便宜,你一天也只能吃三顿饭。
这揭示了 AI 的双重身份:
AI 作为”收割者”——在需求非弹性的行业,生产力提升直接意味着裁员。我们不会因为面包便宜了十倍就每天吃十倍的面包。
AI 作为”平衡木”——在需求高度弹性的行业,当开发成本因为 AI 而降低时,市场上会涌现出过去想都不敢想的应用和服务,进而创造出对人才更庞大的需求。
一个行业未来的饭碗到底稳不稳,关键不在于 AI 本身有多强,而在于你所在行业的需求,会不会因为”降价”和”效率提升”而激发出海量的新增需求。
基于这个逻辑,未来 AI 投资和个人职业发展的黄金航道,指向两个领域:教育和医疗。全世界有数以亿计的孩子渴望更公平、更个性化的教育,有无数的病人等待更廉价、更精准的诊断。这两个领域拥有近乎无限的弹性需求——如果 AI 能让高质量教学和医疗服务的成本降低 90%,我们迎来的不会是教师和医生的失业潮,而是一个全民都能享受顶级专家服务的全新时代。
AI 还有一个”拉平效应”的深远影响:在那些严重缺乏医生、教师和律师的低收入国家和地区,AI 可以让一个偏远山村的孩子拥有顶尖的个性化助教,让一个乡镇诊所拥有世界一流的诊断系统。AI 不会剥夺人类的价值,它只是剥夺了”平庸”的昂贵借口。
AI 影响世界的三个前沿
医疗:从文书苦海到精准医学
现代医疗体系里藏着一个隐形杀手:误诊。在美国,大约有 15% 的诊断是错误的,这些错误直接或间接导致了约 10% 的死亡。原因很简单:再厉害的专家,知识和精力也有限,不可能同时处理数以亿计的遗传变异数据。但 AI 可以。
AI 正在成为医生的”第二大脑”:在一瞬间筛查出视网膜病变,识别出医生肉眼难以察觉的极早期乳腺癌,同时把医生和护士从无尽的”文书苦海”里解救出来——病历转录、保险文档、那些繁琐的杂事,交给 AI 之后,医生每天能多出几个小时真正地还给病人。
2024 年的诺贝尔化学奖颁给了 AlphaFold 的开发者——这是 AI 在科学界的官方加冕。蛋白质折叠困扰了生物学家整整 50 年,从 AlphaFold 第一个版本发布到相关科学家站上诺贝尔奖领奖台,只花了 6 年。现在,全球 190 个国家超过 200 万名科学家每天调用这个”超级大脑”,用它来设计能”吃掉”塑料的酶,或者寻找对抗耐药超级细菌的新武器。
更深远的是,AI 正在把科研的重心从辛苦地”获取数据”推向更具创造性的”应用数据”阶段,极大地缩短了从理论到临床应用的距离。神经科学领域的专家预测,借助 AI,人类在未来 5 到 10 年内对大脑的理解,可能等同于过去整整 100 年的积累——对全球 4000 万阿尔茨海默症患者和 1000 万帕金森症患者来说,这意味着一场真正的生死时速。
教育与创意:资本守门人的终结
今天全球大概有 68 亿部智能手机。在 AI 的加持下,它们正在变成 68 亿个”全球导师”——一个住在偏远山村的孩子,可以通过手机获得一个完全为他定制的学习方案,符合他的母语文化,适应他个人的学习节奏。这正在把教育从标准化的”工厂流水线”,转变为真正个性化的”私人花园”。
同样的故事发生在好莱坞。过去拍一部特效大片需要几百万美元预算,还得经过各大制片厂的点头。现在 AI 工具可以简化成千上万个微观决策,未来的斯皮尔伯格可能只需要带着几十个朋友,在自己的卧室里拍出高质量的长篇电影。
这背后指向一个共同的趋势:“资本守门人”的终结。无论是教育资源,还是过去被少数人垄断的影视创作权,都在从昂贵的中心化机构手里,流向每一个拥有创造力的个体。
就像科幻作家尼尔·斯蒂芬森的比喻:1900 年代的舞台剧演员担心电影会摧毁他们的事业——但电影创造了一个比舞台剧大千万倍的市场,而百老汇今天依然繁荣。AI 对教育和娱乐的影响也是如此:创作正在从”贵族游戏”,降维成一种”全民呼吸”。
科学:时间机器与跨维度搜索
如果说 AI 在医疗和教育领域扮演的是”放大器”,那么在科研领域,它更像是一台”时间机器”。
DeepMind 的 GNoME 系统一口气预测了 220 万种全新的晶体结构,相当于人类过去几百年辛辛苦苦积累的已知稳定材料总量的 10 倍以上。在气象预测方面,AI 模型的运行速度比传统超级计算机快了 1000 到 10000 倍,准确度更高,能够提前 5 天为全球 80 多个国家提供精准的洪水预警。在受控核聚变领域,AI 已经能自主学习如何稳定托卡马克反应堆里的等离子体。
这里的核心关键词是**“跨维度搜索”**。人类科学家的直觉往往受限于已有的知识框架,很难同时处理几十个互相影响的变量。AI 没有这个限制——它可以在一个我们无法想象的高维参数空间里进行近乎穷举的探索。
AI 不仅提高了我们寻找答案的速度,更极大地扩充了我们”提出正确问题”的候选清单。
当然,这种效率的指数级提升也带来了新挑战:当 AI 一天之内抛出 220 万种可能的新材料时,物理实验室里需要人工操作的瓶瓶罐罐就成了最大瓶颈。这正在倒逼整个科学界向”自动实验室”(Self-driving Labs)转型——让机器人接手重复性的实验操作,形成”AI 负责提速思考,机器人负责动手执行”的闭环。
半内生增长理论:为什么这次可能真的不一样
经济学家和 AI 专家对 AI 的经济影响,有着截然不同的预测。耶鲁大学调查的顶级经济学家普遍认为,即使有 AI,这个世纪的经济增长率也就是每年 2% 上下。但 AI 领域的专家认为,我们可能正在接近超指数增长。
这个分歧背后,有一个非常强大的经济学理论作为支撑:半内生增长理论。
这个理论最核心的观点是”思想的非竞争性”。一台电脑,我用了你就不能用。但”微积分”或者”Python”,一旦被发明出来,就可以被无数人重复使用,成本几乎为零。你不需要为每一个程序员都重新发明一次 Python。
在人类历史的很长一段时间里,这种思想的积累,和人口的增长形成了强大的正反馈循环:新思想让生产力提高,能养活更多的人;更多的人又能产生更多的新思想。这就是历史上那条”曲棍球棒”式超指数增长曲线的来源。但在工业革命后期,特别是二战后,这个循环慢慢减弱了——我们进入了”人口转型期”,劳动力不再像过去那样可以被轻易”积累”和”复制”了。
半内生增长理论告诉我们:AI 可能重新打开这个增长开关。
AI 可以把”劳动力”这个要素,从一种有限的、不可积累的资源,变成一种像机器和软件一样可以被大规模复制和积累的”资本”。如果经济产出翻倍了,我们不仅可以把这些钱投入建更多的数据中心、买更多的芯片,还可以直接用这些产出去”复制”出更多的 AI 劳动力。那个古老而强大的增长引擎——思想的非竞争性加上可积累的劳动力——就被重新启动了。
这个理论在上世纪 90 年代就被提出,那时候人们对 AI 的想象还非常有限。它的客观性,让它成为了预测 AI 影响的有力思想工具。
那为什么经济学家们依然持怀疑态度?原因有几个:
锚定效应——经济学家太习惯于二战后这段长达七八十年的稳定增长期了。但如果把时间尺度拉长到整个人类历史,这种平稳指数增长反而是个特例,超指数的加速增长才是常态。
零阶预测——经济学家在预测 AI 影响时,往往只基于今天能看到的 AI 能力,想象这些能力变得更便宜、更普及之后会怎样。他们不愿意去想象那些还不存在的、全新的颠覆性 AI 能力,因为那感觉”不够科学”。
值得注意的是:支持 AI 加速增长的观点往往更定量——比如一块英伟达 B200 GPU 售价约 5 万美元,算力恰好和人脑相当,如果运行在上面的软件效率足够高,一年创造的价值可能达到 10 万美元,足以买回另一块 GPU——而反对意见往往是定性的,难以被量化地反驳。
AI 的安全网:治理与防御
深度伪造与”虚假信息侦探社”
深度伪造(Deepfake)正在挑战”眼见为实”这个基本信任基础。学界提出了一个有趣的构想:“虚假信息侦探社”——类比国际反兴奋剂机构(WADA),这个机构自己不搞创作,但手里攥着最高精度的探测工具。当出现重大事件,比如刑事案件里有关键音频证据,“侦探社”应执法机构要求出动,对内容进行概率上的裁定。
这个机制还建议把所有可疑的数字样本都封存起来,保留很多年——就像保存运动员的尿样。因为技术在进步,今天检测不出来的东西,五年或十年后可能完全可以检测出来。这种**“延迟的正义”**会产生强大的长期威慑力:一个今天发布伪造视频的恶意分子,必须从此背上一个随时可能爆炸的幽灵——只要数据还存在,当检测算法再次进化,他的欺骗行为就可能被百分之百”确诊”。
在 AI 时代,真相不再是看出来的,而是被证明出来的。
充分利用现有法律框架
很多人觉得必须赶紧制定”AI 大法”来管住它。但治理专家的建议是:先别急,多用用旧的法律。
研究显示,我们今天面临的绝大多数 AI 挑战,其实都可以通过仔细解读现有法律框架来处理:带有 AI 功能的医疗设备出现误诊,依然归食品药品监督管理局管;有人利用 AI 进行证券欺诈,现有证券交易条例就足以将其绳之以法。
核心逻辑不是制定新法律,而是确保 AI 系统和部署它的公司,承担起”不低于人类决策者”的法律标准。这向所有开发者传递了一个极其明确的信号:AI 不是法外之地,不是可以让你规避责任的”黑盒子”。“那是算法干的,我也不知道为什么”——这个借口不成立。因为法律真正关心的是结果,以及由谁来承担责任。
偏见与公平:AI 作为”公平改进工具”
AI 的偏见几乎是它的原罪——早期测试里,AI 对黑人语音的识别错误率远高于白人;对深色皮肤面孔的分析准确度也差强人意。但业界更新的视角认为:与其总是把 AI 看作偏见的制造者,不如把它开发成诊断和纠正偏见的工具。
在涉及数十亿人的重大决策里——遗传风险评估、银行贷款审批——人类决策者的潜意识偏见其实非常严重,却很难被察觉。一个经过充分多样化数据集训练的 AI 系统,反而可以精准识别出人类面试官或医生在决策中那些不自觉的偏见。
AI 第一次让”公平”这个抽象的伦理概念,变成了可以被审计、被测量的数字指标。
但这里需要警惕一种**“算法傲慢”**——那种认为只要数据足够多、算力足够强,就能计算出完美社会正义的错觉。“公平”如果被简单地定义为”结果均等”,可能会牺牲效率;定义为”机会均等”,又可能忽略了不同群体在历史背景下的巨大差异。AI 可以成为我们发现自身偏见的放大镜,但它永远不应该,也不能够成为定义社会正义的最终法官。
结语:人类最后一次逃避选择的机会
AI 不是命运本身,而是一种被人类制度、价值和选择不断”定向”的力量。
在技术层面,AI 已经展现出足以重塑医疗、教育、科研和经济增长曲线的能力。在经济层面,它可能重新激活人类历史上最强大的增长引擎。在社会层面,它既能放大不平等,也能成为跨越资源鸿沟的跳板。在伦理与治理层面,它既可能制造前所未有的风险,也迫使我们第一次用可审计、可验证的方式,直面”责任、公平与信任”这些长期被模糊处理的问题。
历史告诉我们,技术的爆发往往不可避免,但它的走向从来不是自然决定的。核能既可以照亮城市,也可以摧毁城市;社交网络既能连接世界,也能撕裂社会。AI 同样如此。
AI 并不会替我们回答”什么是更好的社会”,但它会逼迫我们把这个问题问得前所未有地清楚。
它像一面镜子,把人类制度的漏洞、价值的冲突、治理的惰性一一放大。在 AI 这面镜子面前,我们看到的每一个缺陷,其实都是我们自己尚未解决的课题。
这可能是人类历史上第一次,被迫要对自己制定的每一个规则、追求的每一份公平,给出一个经得起算法推敲的解释。
AI 夺走的不是工作,而是人类最后一次逃避选择的机会。