Ian Wang
Index

← 文章 / Writing

· 18 min

为什么我们会排斥AI生成的内容?

从技术恐惧症到恐怖谷效应,从跨种族效应到沟通本质,解析我们排斥AI内容的五层心理机制——以及当AI能完美模仿人类时,我们真正在守护的是什么。

ai · psychology · uncanny-valley · communication · technophobia

这篇是 《科技慢半拍》EP102:为什么我们会排斥AI生成的内容? 的文字稿整理版,将节目里的核心框架展开成完整的分析。

引言

AIGC 已经发展多年,从图像到文字,再到音乐和视频,如今甚至扩展到了AI播客领域。然而,不少人声称只要发现内容是AI生成的,就会直接跳过不看。

最近,你是否有过这样的体验?在网上阅读一段文字时,虽然它逻辑清晰、用词考究,甚至近乎完美,但你却本能地感到不对劲,甚至产生一种莫名的排斥感。你可能说不清具体哪里出了问题,只是觉得它”缺乏人味儿”。

其实,这种本能的排斥不仅仅是简单的”不喜欢”,更像是我们体内的一种警报系统。它在提醒我们,AI生成的内容在某些核心方面与我们习惯的、内心真正渴望的人际沟通存在根本性差异。

为什么会这样呢?这很可能与我们大脑处理社交信号的方式密切相关。在几百万年的进化过程中,人类为了生存和协作,发展出了一套极其复杂的系统,用来识别和理解他人的意图、情感,以及判断对方是否真实可信。

技术恐惧症(Technophobia)

首先我们人类遇到的第一个问题就是技术恐惧症。技术恐惧症(Technophobia)的词源来自希腊语,就是把”艺术、技能”(Techno)和”恐惧”(Phobia)这两个词组合在一起。简单来说,它是一种对先进技术或者复杂设备感到的恐惧、厌恶,甚至是不适的心理状态。尤其是在个人电脑、智能手机刚刚普及的时候,这种情绪特别明显。

当然了,随着技术的发展,它的定义也越来越复杂。有人觉得这是一种非理性的恐惧,但也有人认为,这种恐惧其实挺合理的。它和那种对技术极度狂热的”技术爱好者”形成了鲜明的对比。有趣的是,即便在AI已经无处不在的今天,这种恐惧依然存在,只是它表现出来的样子,和几十年前我们面对电脑和互联网的时候,已经完全不一样了。

这个定义说明了,技术恐惧症它不是一个一成不变的、简单的现象。它是一种很深刻的人类反应。这里面既包含了我们对未知、对失控的本能抗拒,也可能反映出我们对技术潜在负面影响的一种理性的担忧。它不是简单的”我不喜欢用这个”,而是一种牵扯到你的舒适度、你的认知能力,甚至是你价值观冲突的一种复杂情绪。不管是在哪个科技时代,这种恐惧一直都存在,恰恰说明它扎根在比某一种特定技术更深层的人性里。

而这种根深蒂固的恐惧,其实也不是现代才有的。它的历史完全可以追溯到好几个世纪以前,每一次重大的技术变革,几乎都伴随着类似的担忧。

例如在工业革命时期。技术恐惧症第一次获得了社会的广泛关注。随着各种新机器取代了熟练的工人,那些手艺人就开始为自己的生计发愁了。最早在1675年,就出现了织工摧毁机器的事件。到了1727年,这种破坏行为就更普遍了,甚至严重到议会专门立法,把捣毁机器定成了死罪。最有名的就是1811年兴起的”卢德分子”,他们作为一个有组织的反技术工人群体,专门去拆织机的零件,洗劫工厂主的房屋,甚至用暴力相威胁,目的就是为了争取自己的行业权利。

到了19世纪,世界飞速变化的。但对很多人来说,这种变化太快了,他们害怕随之而来的改变,渴望回到那个更简单的时代。浪漫主义运动就是这种情感的一种集中体现。像诗人华兹华斯和布莱克,他们就觉得工业革命带来的技术变革,污染了他们心中那种纯粹的、珍贵的自然景观。

在上世纪八九十年代到21世纪初,技术恐惧症又表现为人们对电脑、网络、智能手机的”不会用”、“学不会”的担忧,还有对”万一机器出错了,会不会毁掉一切”的恐惧。社会层面也因此出现了所谓的”数字鸿沟”。到了AI时代,情况变了。虽然我们普遍都习惯了互联网和智能手机,但技术恐惧症的影子依然在,只不过,它的核心发生了一个巨大的转变。

这种技术恐惧对于普通人来说,是对生计的威胁,是对个人劳动价值被贬低的愤怒,以及对整个社会结构剧变的焦虑。那些卢德分子,他们并不是简单地反对技术本身,他们反对的是技术对他们生活方式和经济地位带来的那种毁灭性冲击。

对于浪漫主义者来说,是从一个更宏观、更哲学的层面,表达了对技术破坏自然、异化人性的担忧。所以说,这些历史事件和思潮,共同构成了技术恐惧症最早的范式:恐惧,来源于技术对我们既有秩序、个人价值和自然环境的侵犯。

这就说明,技术恐惧症它不是一种单一的、普遍的情绪,而是高度情境化和个体化的。它受到你的年龄、职业、过往的经验,以及你和技术互动方式的深刻影响。你看,对老年人来说,它是个学习曲线和操作障碍的问题;对专业人士来说,它是个生存威胁和价值挑战的问题;而对普通用户来说,它又变成了一个信息真实性和信任危机的问题。所以,理解这种群体之间的差异,才是我们有效应对技术恐惧症的关键所在。

那是人们对”机器抢工作”、“技术破坏自然”的担忧,和我们今天对”AI抢饭碗”、“AI生成的内容到底可不可信”的恐惧,是不是挺像的呢?这其实就说明,技术恐惧症的深层驱动力,从来就不仅仅是技术本身,而是技术进步所带来的社会、经济和伦理上的巨大冲击。从工业革命,到信息时代,再到今天的AI时代,技术恐惧症的核心,始终都关乎着人类的生存、价值和控制感这几个最基本的问题。

今天在人工智能时代的恐惧,更多地表现为几种新的形态。第一种是”失控恐惧”,我们担心AI变得过于强大,强大到我们人类无法控制,也就是所谓的”黑箱恐惧”。第二种是”替代恐惧”,害怕AI抢走我们的工作,导致职业上的不安全感。第三种是”伦理恐惧”,我们不确定AI生成的内容到底可不可信,它会不会侵犯我们的隐私或者版权。最后,也是最深刻的一种,是”身份恐惧”,我们觉得AI开始模仿甚至超越人类的”创造力”,这似乎是在消解我们人类作为万物之灵的独特性和价值。

有一位叫拉里·罗森的心理学家,他曾经把技术恐惧者主要分成了三大类,分别是:“不舒服的使用者”、“认知型计算机恐惧者”和”焦虑型计算机恐惧者”。在AI时代,这种差异性其实表现得更明显了。比如说,老年人或者那些对技术不太熟悉的人群,他们表现出的更多是那种传统的恐惧,就是”我不会用AI”、“我怕用错了怎么办”。而对于专业人士,比如从事写作、艺术、编程这些领域的人来说,他们更多表现出的是”AI要来抢我饭碗了”的这种焦虑。而对于我们大多数普通用户来说,可能并不直接恐惧AI这个东西本身,但会对它产生一种不信任感,比如说,看到AI生成的新闻,第一反应就是”这玩意儿是不是假的?”。

过去的恐惧,主要还是围绕着”工具的障碍”展开的,也就是说,我们担心的是技术操作的难度和它的可靠性,这是一种”弱者的障碍”。而AI时代的恐惧呢,核心已经转向了”强者的威胁”。换句话说,我们恐惧的是AI的智能和它的能力,害怕它会超越人类,甚至威胁到我们人类的地位和价值。这种恐惧,不再是简单的”我用不好它”,而是”它太聪明了,会不会有一天超越我”。

这种从”工具障碍”到”强者威胁”的转变,其实也预示着未来技术恐惧症的关注点,会变得更加深入和哲学化。即便未来AI工具变得越来越”隐形”,悄无声息地融入到我们的手机、汽车、家电和办公软件里,我们对于操作它的那种显性恐惧可能会下降,但是,那种深层次的、关于”AI是否会威胁人类的价值与身份”的担忧,可能会长期存在。这不仅会影响我们每个人对AI的接受度,更可能引发关于AI伦理、监管,以及人类社会未来到底该如何定位的深刻讨论。

跨种族效应(Cross-race effect)

如果说技术恐惧症还是一种某类人的心理特征,伴随着技术的推广使用,这种恐惧心态会被缓解。但是随着人工智能越来越像人,我们又产生了第二类,更加难以克服的心理状态,这就是跨种族效应(Cross-race effect)。

这个名词最早不是用在人和技术之间,而是人与人之间就一直存在着这种认知偏差,简单说就是我们看自己族裔的人,总比看其他族裔的人要看得更准、记得更牢。在人类和人工智能之间,也存在这种类似的效应。

跨种族效应,英文叫Cross-Race Effect,简称CRE。这个概念听起来有点学术,但其实现象非常普遍。就是说,人们在识别自己种族的面孔时,准确率和敏感度都更高。反过来,在辨认其他种族面孔的时候,就容易”脸盲”,精度会明显下降。这个现象最早在1914年就被研究了,在社会心理学里,它被看作是”内群体优势”的一种典型表现,就是我们对自己人,总是有那么点”认知特权”。

关于它为什么会存在,有很多种理论。有的说是”接触假设”,你跟哪个族群接触得多,你看他们的脸就看得越准。有的说是”加工机制”不同,我们的大脑在处理”自己人”和”外人”的面孔时,走的是两条不同的”流水线”,处理自己人的时候会更精细化。还有像社会认知理论,认为这跟我们的社会分类和群体认同感有关。

跨种族效应不是一个单一原因能解释的现象,它背后是经验、认知加工和社会分类等一大堆复杂因素的混合体。但所有这些理论都指向一个核心,那就是我们大脑的认知系统有一种基本倾向:优先处理和更精细地识别跟我们自己群体相关的信息。

尽管这些理论各有各的道理,也各有各的局限,但神经科学和计算机模型的研究,给了我们更底层的答案。比如,神经科学家发现,我们大脑里有个地方叫”梭状回面孔区”,简称FFA,它就像一个专门处理人脸的中央处理器。当我们在看同种族和异种族面孔时,这个区域的激活程度是不一样的。

这说明我们的大脑就像一个被过往经验不断训练的机器学习模型。你天天看什么样的脸,你的大脑就更擅长识别什么样的脸。其实我们的大脑是个”亲疏有别”的分类系统,可能不只对生物学意义上的”种族”敏感,它对”是不是人”这件事,可能也有一套自己的评判标准。这套基于经验的、带有偏好的识别机制,也会成为让我们排斥AI生成内容的一个基本原因。

尽管AI显然不是一个生物学意义上的”种族”,但我们在和它互动的时候,确实出现了一些非常类似于跨种族效应的现象。这种”类跨种族效应”在AI领域有两个比较典型的例子。

首先,是体现在我们对AI虚拟人、数字人的认知上。当我们在识别那些AI合成的虚拟人、或者机器人的面孔时,敏感度往往不如识别真人的脸。特别是当AI的面孔出现一些”非典型人类”特征时,比如皮肤的质感有点过于光滑、眼神的转动有点僵硬、或者五官比例有那么一丝丝不协调,我们就会加强戒备心,提高警惕。

另外,这种效应也体现在我们对AI生成音频内容的感知上。很多AI的声音,虽然吐字清晰,但它缺少人类语音里那种微妙的、自然的韵律和情感起伏,即使今天语音几乎已经做到了真假难辨,但是在某个语气、词语的表达上出现的某种”不自然”,也会让我们在听的时候,下意识地感觉到一种社会距离,很难产生情感上的连接和共鸣。

这些现象其实都表明,我们在跟AI打交道的时候,会不自觉地启动那套处理人类同胞的认知系统。一旦AI的外观或者行为,跟我们大脑里根深蒂固的那个”人类范式”出现了哪怕一丝丝的偏差,就会触发一种认知上的不舒服或者识别上的困难。这感觉,就跟我们看到一个非常陌生的其他民族或种族的面孔时,那种感觉很像。

我们天生就倾向于对跟自己相似的实体产生亲近感,并且能更高效地处理关于它们的信息。而对于那些”似是而非”或者”非典型”的存在,则会触发警戒和分辨障碍。所以,我们的大脑可能会无意识地把AI生成的东西,不管是脸还是声音,都归类为”非我族类”。这种归类不是基于生物学,而是基于一种更原始的感知,那就是”熟悉度”和”自然度”。当一个AI越是拼命模仿人,但又在细节上露了怯,暴露出那种难以言喻的”异样”时,它就恰好掉进了这种效应里,我们的大脑就会立刻拉响警报,把它识别为”非我族类”,进而产生排斥和疏离感。

当然我们必须承认,这还是一个非常新的研究领域,还有很多问题没有答案。比如,我们所说的这种”类跨种族效应”,它和传统的跨种族效应,在底层的神经机制上到底有多大共通性?我们又该如何精确地去测量和量化那种”陌生感”?这些都是留给未来研究的开放问题。

恐怖谷效应(Uncanny valley)

就算你是一个非常容易接纳其他种族的人,也经常生活在多种族、多元化的生活区域中,你自己也没有任何的种族意识。而且现在的AI也变得越来越完美,但是当我们面对人工智能时,仍然会产生一种不适,这就来自于另外一种在人工智能时代特有的效应,这就是恐怖谷效应(Uncanny valley)。

1970年,日本一位名叫森政弘的机器人专家首先提出的这种效应。当时,他发现了一个特别有意思的现象,那就是,我们人类对机器人的好感度,并不是随着它长得越来越像人而无限提升的。恰恰相反,当一个机器人的外形和动作,在拟人化程度上达到一个非常高的临界点,比如说95%的相似度时,人们的好感度会突然断崖式下跌,甚至会产生强烈的反感、不适和恐惧。

我们貌似在追求那种极致的、与人类一模一样的AI仿真,而真的某一天当AI无限地接近人类,但在某些微小的细节上,又暴露出它的”非人”本质时,它就会触发我们大脑里最古老的警报。这是一种本能的防御反应,是写在我们基因里的,我们害怕的,正是那种”看着像人,但又有点不对劲”的感觉。

随着AIGC,也就是生成式AI技术的井喷式发展,科学家们发现,“恐怖谷效应”已经不再局限于物理实体了。它已经广泛地延伸到了我们每天都在接触的文本、图像、甚至是音视频内容里。麻省理工学院就有研究证实了这一点,当AI生成的内容,无论是文字还是图片,达到了那种”几乎一样,但又不完全一样”的程度时,同样会引发我们普遍的不安感。这就形成了一种全新的,称之为”精神上的恐怖谷”。

这个演变其实非常关键。它意味着我们对”非人”的警惕,已经从一个具体的、有形的机器人,扩展到了抽象的、无形的数字信息。我们的心理防线,不再只是针对一个机器人的僵硬表情,而是针对任何试图以假乱真的AI作品。

为什么会这样呢?其实这种泛化现象恰恰说明,恐怖谷效应的核心,可能根本就不是视觉上的相似度那么简单。它更像是一种深层次的”认知失调”。你可以这么想象,当我们的大脑在处理一段信息时,比如读一篇文章,它的一部分在说:“嗯,这符合人类的语言习惯和逻辑。“但同时,另一部分更敏锐的直觉,却在疯狂地报警:“不对劲!这里面没有真实的情感,没有个人风格,这不是真正的人类!“就是这种内在的矛盾和冲突感,才是触发我们不安的真正原因。它就像一个我们与生俱来的、内置的”假货探测器”,时刻提醒我们,要对感知到的一切”真实性”保持怀疑。

到底是AI生成的内容有哪些”致命伤”,能让我们一眼就看出它们并非出自人类之手呢?

我们先说文本。AI写的文章,现在确实可以做到语言流畅、逻辑严谨,甚至引经据典。但它的问题在于,它太”完美”了。这种完美是一种模式化的、没有瑕疵的完美,它缺少了人类写作中必然会有的那种个性、情感的起伏,甚至是独特的偏见和思考的痕迹。换句话说,它没有”人味儿”。更不要提,当AI遇到它训练数据范围之外的问题时,它不会承认自己不知道,而是会一本正经地胡说八道。当然这种问题随着AI能力的提升,目前已经好多了。

再看视觉内容。现在的AI绘画技术,说实话,已经到了令人惊叹的地步,非常逼真。但只要你仔细看,还是能找到破绽。比如,画出来的人,瞳孔可能是不规则的;画面里的光影关系,也常常不符合物理规律。这些微小的技术性漏洞,就像一锅好汤里掉进了一只苍蝇,瞬间就把一个完美的作品,推入到了那个令人不安的”恐怖谷”里。

无论是文本里那种过于完美导致的”无人味儿”,还是图像里那些微小的瑕疵,它们就像是AI”非人”本质不经意间的泄露,是我们的大脑在潜意识层面捕捉到的不和谐音符。

也许说到这儿,肯定你会提出一个反驳意见,之所以让我们产生恐怖谷效应,那还是因为AI的技术还不够好。AI的迭代速度这么快,算法和数据量都在指数级增长,克服这些显性的瑕疵,可能只是时间问题。如果对比一下之前AI画的画,AI生成的视频,瑕疵更多,现在的成果几乎可以做到以假乱真了。那么,是不是当这些我们肉眼可见的”破绽”都消失了之后,“恐怖谷效应”也就会消失了呢?

然而,事情可能并没有这么简单。实际上,随着AI技术越来越强,AI正在”迅速地穿过”我们之前熟悉的那个恐怖谷。但这并不意味着恐怖谷消失了,而是它的”谷口”变得越来越隐蔽,越来越难以察觉。恐怖谷效应非但没有消失,反而它的本质和表现形式,正在发生一种更深层次的、更隐蔽的转变。

以前,我们排斥它,是因为我们能轻易地看出它的破绽,觉得它”假”。而未来,我们可能会因为”完全无法分辨真伪”,而感到一种更深层次的不安和恐惧。这种恐惧的根源,不再是AI做得不像,而是它做得太像了。例如AI生成的白人面孔,有时会被认为比真实的白人面孔还要”真实”,但这种”超真实感”在非白人AI面孔上却不存在。这本身就暗示了AI生成技术背后,可能隐藏着数据源带来的偏见。

于是我们开始害怕,我们的现实、我们的记忆,甚至是我们的历史,都有可能被AI轻易地篡改和重塑。所以你看,恐怖谷的本质,从来都不是对”丑”或”瑕疵”的排斥,而是我们对”非正常”或者”不是人产生”的一种本能的警惕和防御。这种排斥正在从对技术缺陷的显性反感,演变为对”认知欺骗”的隐性恐惧。

我们正在从一个”能用肉眼分辨AI”的时代,快步迈向一个”真假难辨”的时代。我们害怕的,不再是AI的”不像人”,而是AI的”太像人”,像到足以威胁我们对整个真实世界的认知基础。

恐怖谷效应,从某种意义上说,是人类心智在这个数字时代,为我们自己设置的一道无形的防火墙。它提醒我们,在享受AI带来便利的同时,也必须时刻警惕那些看似完美、却可能暗藏玄机的”数字幻象”。因为最终,这关乎的不仅仅是我们对信息的信任,更是我们对自己认知世界的坚守。

理解和回应(Understanding & Response)

当AI足以跨越恐怖谷效应,你也没有任何的技术恐惧和非我族类的认知偏见,我们就不会排斥AI产生的内容了呢?好像也没有那么简单。

其实我们都在本能的接受着新技术,只是需要一定时间周期。就像一百多年前,人们会觉得只有手写的信件才有温度,而对冷冰冰的打字机嗤之以鼻。但今天,谁还会去纠结一封邮件是不是手写的呢?我们最终在意的,还是沟通的质量和体验,而不是背后那个”执行者”到底是谁。

当然了,如果这种”沟通审美惯性”真的会消失,那未来的世界可能会出现一个挺有趣的现象。当绝大多数文字沟通都被AI优化得天衣无缝时,那些真正带有”人味儿”的、粗糙但真实的表达,可能会变得异常珍贵。说不定会有一批”沟通古典主义者”出现,他们会像今天我们收藏黑胶唱片一样,去刻意追求和欣赏那些纯粹由人类思想和情感驱动的文字。

既然沟通对象是人还是AI,本身不是问题的核心,那么真正的症结,可能就出在了”沟通的方式”上。

我们来想象两种完全不同的场景。第一种,你花了好几天,费尽心血写了一篇深度文章分享给朋友。结果呢,他看都没看,直接把你的文章复制粘贴,喂给了大语言模型,然后用一句简单的指令,比如”请用赞赏的语气,对这篇文章进行深刻的分析和回应”,最后把AI生成的”漂亮”回复,原封不动地甩给了你。你看完之后,心里是什么感觉?是不是瞬间就觉得,那一大坨文字,像一堵冰冷的墙?

再看第二种场景。同样是你这篇文章,另一个人,他先是自己认认真真地读了一遍。读完之后,他有些地方没太懂,于是他打开了AI,把你文章里的观点和他自己的困惑都输了进去,通过和AI来来回回好几轮的互动和提问,最终,他借助AI的分析,真正理解了你的思想。然后,他把这些思考整理成了一篇同样很长的回复,发给了你。在这篇回复里,你能清晰地看到他的思考轨迹,以及他渴望和你继续深入探讨的热情。当你收到这样一篇”一大篇”的回应时,你又是什么感觉?你是不是会觉得备受启发,甚至有一种被深度理解的感动?

所以这两种情况的核心区别在哪儿?就在于,AI到底有没有替代人类沟通中那两个最关键的环节——“理解”和”回应”。

在第一种情况里,AI成了人类思维的”外包工具”,那个朋友直接跳过了自我剖析、共情和消化的过程。这种”理解”的缺失,让整个互动失去了生命力,变成了一堆冰冷的数学概率的堆砌。

而在第二种情况里,AI只是一个辅助工具,它帮助那个人更好地去理解和表达,但最终,完成内在”理解”和”回应”这两个动作的,还是他自己。这才能建立起真实的连接。

当然,肯定会有人反驳说,AI提升了效率啊,让更多人能参与讨论,就算只是简单的复制粘贴,也总比不回复要好吧?嗯,这种观点听起来好像有道理,但它恰恰忽略了沟通的本质。沟通,从来不仅仅是信息的传递,它更是意义的共创和关系的建立。

当”理解”和”回应”这两个环节被省略或者外包给AI的时候,沟通的”生命力”就被扼杀了。即便有信息在传递,也无法形成真正的”共情”和”彼此的存在感”,而这,才是我们人类社交需求最核心的东西。

我们之所以如此看重”理解”和”回应”,其实是触及了人类语言更深层的一个秘密,这可能是AI大模型算法无法完全捕捉的。

我们为什么会特别喜欢某个人的文字,或者特别享受跟某个人聊天?其实不一定是因为他的见解有多高深,而是因为他的话语,能够深度地理解我们,能够连接到我们内心深处的表达欲望,并且在他的回应里,让我们真切地感受到”自己的存在”。这就像同样的内容,在不同的脱口秀演员能够有不同的表现,而优秀的脱口秀演员能让你开怀大笑。这种表达的精妙之处很难解释清楚,这就来源于人类语言的某种”特性”。

这种”特性”就是那些没有被完全说明白的部分,它是一个人过往的经历、独特的审美、价值观沉淀下来的东西,是他整个生命内核的体现。一个有意思的人,他说的每一句话,写的每一个字,都共同指向他那个独一无二的、有生命力的、甚至是有凹凸不平的内核。

AI当然可以生成优雅、逻辑严密的文章,但它的输出,本质上是算法概率的表达。它的内核形状是每一次都不一样的,它缺乏那种连续性和真实性。所以AI的回复虽然偶尔能给你带来惊喜,但时间长了,你就会对这种”不真实”感到厌倦,并产生排斥。

人类沟通语言的魅力,恰恰在于它的”不完备性”和”连续性”,它们代表了背后那个说不尽的、属于每个个体的丰富性和生命力。当我们和人交流的时候,我们不只是在接收信息,更是在”抚摸”对方那个独特的内核。而AI的语言,虽然完美,但这种缺乏”真实感”和”生命力”的沟通,终究无法建立起我们人类所需要的那种深度的情感联结。这也就是如果你让AI去写脱口秀段子,它会给你一堆干瘪的蹩脚幽默。

但是现在很多工作场合和社交媒体上,已经产生了大量的AI内容,这背后也带来了一个更深的隐忧。如果我们长期习惯于用AI生成内容,并且习惯性地省略掉”理解”和”回应”这两个关键环节,那最终可能会导致一种非常危险的局面,就是我们的意识,被我们自己创造的AI工具给接管了。如果我们不再亲自去进行深度的理解和回应,而是让AI代劳,那么我们自己的思考能力、共情能力,甚至是创造力,都可能会慢慢退化。比如有人拿AI去生成简历,公司里的HR会用AI去筛选简历,公司用AI面试候选人,而候选人再用AI应答。本来人与人的交流,变成了魔法与魔法之间的抗衡。

我们并不是不让大家使用AI,而是我们必须记住一点:要让自己的手把着AI写,而不是让AI把着你的手写。要确保AI始终是我们的工具,而不是我们的主宰。

不够专业

他们普遍觉得,AI给出的知识,有点”肤浅”,深度不够。这背后的原因其实很简单,就是AI的能力边界,是由它的训练数据决定的。对于那些数据量又大、内容又相对统一的主题,比如基础的编程语法,AI能做得很好,因为它见得够多。但对于那些过于高深、数据稀缺,或者充满争议和思辨的话题,AI的训练数据本身就不足,它自然就很难提供什么深入或者权威的见解。

这种局限性在不同领域里有非常具体的体现。比如在编程领域,AI对于一个工程经理来说,简直是神器。经理可能不懂具体的技术实现,但AI能帮他快速搭个原型,把想法变成一个看得见摸得着的东西。但对于一个需要处理大型、复杂代码库的资深开发者来说,AI的帮助就非常有限了。因为它缺乏对整个项目来龙去脉的深入理解,也就是我们常说的”上下文”。

再看创意领域。AI现在能画画,能写文章,看起来很厉害。但创意作品的核心是什么?是”新颖性”。人类的审美系统其实非常敏锐,我们能轻易地识别出什么是模仿,什么是衍生的作品。所以AI生成的那些看起来不错的作品,往往因为它缺乏真正的原创性,很难在竞争激烈的市场中脱颖而出。而在像电子邮件客户端或者外卖App这种已经有非常成熟解决方案的领域,AI的影响就更小了,因为现有的产品已经把用户体验做得非常好了,AI很难再提供什么颠覆性的价值。

这就表明,AI的价值并不是普遍适用的。它在不同领域的效用,完全取决于那个领域的知识深度、复杂程度、对原创性的要求,以及现有工具的成熟度。AI擅长的是总结和模仿,但它很难进行真正的原创思考,也很难解决那些没有先例的复杂问题。

这个”精通”的上限,也恰好解释了为什么单纯靠AI”作弊”是走不远的。如果一个学生只是把AI当成一个搜答案的工具,那他的知识水平,最多也就能达到AI本身的水平。而我们刚刚分析过,AI在处理复杂、高阶问题时是有明显天花板的。所以,那些依赖AI的人,最终也会一头撞上这个天花板,无法获得真正的理解和掌握。这恰恰反过来证明了,真正的精通,依然需要我们人类自己的独立思考、批判性分析和持续的努力。

总结

那么,聊到这里,在AI日益渗透我们生活的今天,到底该如何总结和应对,我们对于AI生成内容这种复杂的排斥感呢?

其实,归根结底,我们对AI内容的本能排斥,不要关注于沟通对象是否是AI还是人的这个问题。首先要打破的就是我们一开始谈到的技术恐惧症和跨种族效应,随着技术能力的提升和我们使用AI范围的扩大,类似的问题会有改变。而恐怖谷效应,可能随着AI技术能力的提升,也在逐步改善,AI现在也会故意设置出一些不完美的表现,例如Google NotebookLM和豆包中的AI播客,对话中的AI会有一些结巴和口癖,大大拉近了它和听众之间的距离。那么我们最需要关注的就是,我们与AI之间的沟通的方式和目的。我们真正看重的,是人类沟通中”理解”和”回应”这两个核心环节,因为它们是建立共情和”彼此存在感”的基石。而人类那种独特的、不完备但充满生命力的个体内核,可能是目前AI模型无法复制的”真实感”。如果真的实现这些,AI可能是需要长期陪伴在你身边,随时了解你的一切的人,超越你的父母和朋友。

所以,我们对AI内容的排斥,说到底,是我们对真实、连续、有生命力的”沟通”的渴望。我们和AI的互动,可以像一场短暂而高效的”一夜情”,帮你获取信息或者解决问题,但我们也很难跟它”谈感情”。因为真正的感情,是属于那些能让我们感受到”彼此存在”的真实链接,那些即便有瑕疵,也依然闪耀着独特生命力的沟通。