AI狂飙时代,《智能简史》至少回答了三个问题
2025-10-20
《AI 2027》的开篇提出了这样一个论断:“在未来十年,超级人工智能的影响将超过工业革命。”当下,生成式人工智能(AIGC,AI-Generated Content)、多模态大模型等技术的爆发式发展,让AI从学术概念变成了全民关心的话题。粗浅概括下,当前研究AI的发展方向,可以分为三层:
一是底层的AI(Artificial Intelligence,人工智能),指的是能够执行特定智能任务的系统。比如搜索引擎的推荐算法、人脸识别门禁、围棋程序AlphaGo。它负责夯实基础,继续深化和巩固专用的人工智能功效。
二是中层的AIGC,这也是当下最火热、最现实的战场,作为AI在内容生成领域的集中体现;它利用AI技术自动生成文字、图片、音频、视频等内容。
三是顶层的AGI(Artificial General Intelligence,通用人工智能),作为最终极的目标。它不再是一个工具,而更像一个真正的“智能体”。它拥有常识、推理、规划、迁移学习甚至自我意识的能力。
我们的现状是:AGI尚未实现,但当前AI的狂飙式发展,尤其是大模型展现出的“涌现能力”,让我们感受到了AGI的门槛。
李大烈(Daeyeol Lee)的《智能简史》于2020年收录在三联新知文库的第127本,属于跨学科浓度很高的著作,对专业用词很讲究。内容上,纵览了智能的发展历程,从智能的定义,到智能的起源和进化,乃至预测智能的未来,涉猎了从捕蝇草、晶体管、RNA到代理人困境、火星车等话题。它所讲的是偏向于对“智能”底层逻辑的认知,从生物学、神经科学、经济学和计算机科学的交叉视角,为我们厘清智能的脉络。要清晰地阅读这本书,我建议不妨在阅读的过程中构建知识导图,带着明确的目的,在文字中为自己的疑惑寻找答案。
以上,我梳理了当前研究AI的发展方向和《智能简史》的基本内容及其阅读方法的推荐。据此,我认为此书至少清晰而深刻地回答了三个时代核心问题:
一、 智能的本质是什么?——一种追求效用的适应性行为
当我们使用Deepseek、ChatGPT、豆包等AI软件进行文件总结、文本生成、资料搜寻时,它们可以在几秒内进行流畅地对答;利用输入关键词指令的方式,能让Midjourney产出相当不错的画作……这样的反应背后,是真正的智能吗?
无论如何,当我们谈论人工智能时,我们需要厘清“智能的本质是什么?”
《智能简史》给出的答案是:智能的本质,不只是局限于人类的高等思维,而是一种普适的、追求效用的适应性行为。
书中将智能的概念从狭隘的“智商”中解放出来。智商测试依赖于语言,对测量更广泛的智能无能为力。真正的智能,其判准是“个体是否具有适应性?”为此,本书构建了一个恢弘的叙事弧:从无须神经元的智能(如细菌的趋化性)起步,到神经系统作为决策中心的出现,最终抵达以人脑为顶点的复杂智能形态。无论形态如何变迁,其核心功能一以贯之:根据感觉信号和记忆,在当前环境中选择最合适的行动,以最大化“效用”。
这一定义,为我们理解当下的AI提供了坚实的理论基石。无论是简单的推荐算法,还是复杂的大模型,其本质都是在给定的环境和数据下,通过计算寻找最优输出以实现某种效用函数(目标)。也即是书中详述的“效用理论”。当前AIGC的爆发,正是其“效用函数”在内容生成任务上实现了惊人的适应性。然而,这也引出了一个关键问题:当机器的“适应性行为”在越来越多领域超越人类时,人类的独特性何在?
二、 人类的独特性在哪?——社会智能与元认知能力
在AI看似愈发无所不能的当下,人类的尊严与价值受到一定程度的拷问。有些观点认为,人类的灵魂是独特的,它是“神”的造物,这是人类区分于其他生物的创造表现,因此,只有人类具有“原创性”。
人类认识世界依托的是比喻,目前最精准的“比喻”语言是数学。AI模拟人类认知过程,少走了人类几个世纪的阐述的弯路,直接使用数学,在短短几十年在输出端达到了类似的效果。人类如果认为AI无法实现“原创性”,背后的假设就是意识刨除理性必然还有个存在?这个存在几个世纪借助神学,哲学,科学目前仍索骥无果,但是很多人对这点是深信不疑的。
我们不谈无法证伪的结论。
《智能简史》从科学上论证了人类智能的独特之处:复杂的社会合作能力与高阶的元认知能力。
本书以大量篇幅探讨了“社会智能”。从博弈论中的“迭代囚徒困境”到“公共物品博弈”,书中论证了合作何以在进化中成为稳定策略,并如何可能被“内化到人脑中”。人类能够建立大规模、灵活合作的社会,依赖于“心智理论”——即预测他人行为、意图和信念的递归能力(大概是:我能猜你知道我想要什么)。这种根植于脑的社会化智能,是目前任何AI都难以企及的。此外,书中深入剖析了“拟人化”,认为这是社会脑的一种“超敏反应”,这也解释了为何我们容易对看似智能的聊天机器人产生情感依赖等问题。
对“自我指涉”和“元认知”的探讨,是书里对我而言最晦涩的部分,具备一定的哲学深度。人类拥有关于思想的思想,关于记忆的记忆——即“元记忆”。这种自我反思能力,是意识、自我认同和道德责任的基石。当然,元记忆出错,可能导致了人类的妄想与虚构,这同时为理解大模型“幻觉”现象提供了一个绝佳的人类参照坐标系。
因此,人类的独特性和防御壁垒,不同于AI单一任务的执行效率,而在于深嵌于社会关系的协作智慧、基于递归心智的深刻理解,以及反观自身的自知之明。
是的,这预示着,未来那些最不会被AI替代的工作,将是需要复杂社交智慧、创造性整合与深刻伦理判断的领域。
三、 技术发展的边界与伦理何在?——效用对齐与自我复制的警告
面对AI的“狂飙”,我们最深的恐惧源于失控。《智能简史》指出了技术发展的边界、伦理之核心:效用对齐与自我复制。
书中通过“委托-代理”理论,极其精妙地类比了基因(委托人)与脑(代理人)的关系。基因通过设定初始的“效用函数”(如对食物和配偶的渴望)来激励脑的行为,但脑在进化中获得了相当的自主权。这一模型完全适用于人类与AI的关系:人类是委托人,AI是代理人。
问题的关键在于,如何确保AI的效用函数与人类的一致?这就是当今AI安全领域最核心的“对齐问题”。因此,书中明确地指出:“只有当人工智能具有一套与人类相互敌对的独立价值体系和效用时,他才会真正成为一种威胁。”
全书最令人能感受到“失控”之可能性的恐惧,是在于“自我复制机器”的讨论。
也就是说,当人工智能能够像生命一样自我复制和进化时,它将会挣脱“工具”的范畴,成为一种新的生命形式。书中指出,这才是真正的范式转换点,其威胁程度“与遇到比我们更先进的外星文明在本质上没有区别”。
这为当前关于AGI的讨论设定了一个冷酷而清晰的边界:技术的最大风险,不在于出现一个比我们更“聪明”的工具,而在于一个拥有与我们冲突的生存意志、并能自我繁衍的“他者”。
我们当前的AI与这个“他者”最根本的区别是:所有现有AI的“目标”或“效用函数”都是人类外部赋予的。它的“欲望”是完成翻译、生成图片或下赢围棋。它没有内在的、源于自身的“我想活下去”“我想复制更多”的驱动力。
目前的AI系统,包括ChatGPT、Sora等,完全不具备物理世界的自我复制能力。我们中层的AIGC领域的AI“狂飙”,展现出的“涌现能力”,更像是一个极为复杂的“模糊搜索”和“概率生成”系统,而非具有自主意识。它们是人类工程师设计、维护和升级的软件实体。它们的“生存”完全依赖于人类提供的算力、电力和网络基础设施。因此,结合我们可见的种种资料,在5-10年的短期内,这种“他者”出现的可能性应该是极低的,这仍是个遥远的前景;但长期来看,它终究会从一个科幻概念转变为一个严肃的、必须面对的科技伦理与安全课题。
总结来说,《智能简史》的价值,在于它提供了一幅理解智能的从过去到未来的“连接组”图谱。它告诉我们,AI是智能漫长演化史中的一个新篇,不是凭空而生的奇迹,亦不是难以控制的威胁,我们应当平和视之,并保持对自身处境的反思与警惕。
结合当下的发展,我们可以认识到,AGI的成功之路绝非一帆风顺,其中最大的挑战不是算力的堆砌,而是在于如何重构那些支撑人类智能的基石:社会的、伦理的与自我的认知框架。
那个拥有与我们冲突的生存意志的“他者”,与其说是一个必然到来的命运,不如说是对我们人类智慧、远见和协作能力的终极考试。我们现在所有的讨论、担忧和准备,都是为了确保当我们的造物能力真正触及那个边界时,我们有足够的智慧避免它成为现实。