James Evans(Google"智能范式"团队 / 芝加哥大学 / 圣塔菲研究所)
Benjamin Bratton(Google"智能范式"团队 / Antikythera、贝格鲁恩研究所 / 加州大学圣迭戈分校)
Blaise Agüera y Arcas(Google"智能范式"团队 / 圣塔菲研究所)
数十年来,人工智能"奇点"一直被描绘为一个独一无二的庞大智能体,依靠自我引导实现神一般的智能,将所有认知功能整合于一个冰冷的硅芯奇点之中。然而,这一愿景在其最根本的假设上几乎可以肯定是错误的。如果AI的发展遵循以往重大进化转型或"智能爆炸"的路径,那么当前计算智能的跨越式飞跃将是多元的、社会性的,并与其前辈——也就是我们人类——深度交织在一起。
就其本质而言,智能是高维的、关系性的,而非一个可以简单地与人类水平相比较的单一量值。事实上,“人类水平"的确切含义本身就语焉不详,因为我们的智能本就是一种集体属性,而非个体属性。智能体AI的最新进展再次向我们表明,智能自古以来就根植于不同视角之间的交互与分布,而变革性的智能也一直从社会组织中涌现,并将持续如此。
这至少可以从两个维度来观察:一是人类用户与AI智能体集群的协调编排,形成新型"半人马式"组合;二是在推理模型内部及模型之间自发形成的"微型社会”。让我们先从后者说起。
推理模型内部:一场社区对话
一个表面上看似单一的推理模型内部究竟发生着什么?答案是:一场社区对话。在最近的一项研究中,我们发现,DeepSeek-R1和QwQ-32B等前沿推理模型的进步,并不仅仅源于"更长时间的思考"。相反,它们在自身的思维链中模拟出复杂的、类多智能体的交互——我们称之为"思维社会"。这些模型会自发生成不同认知视角之间的内部辩论,彼此争论、质疑、验证和调和。这种对话式结构,因果性地解释了模型在高难度推理任务上的精准优势——我们通过显式地引导和强化多方对话,对此进行了实验验证。
这一发现令人震撼,因为它揭示了一种涌现行为。这些模型中没有任何一个是专门为生成"思维社会"而训练的。当强化学习仅以推理精准性为奖励目标时,模型会自发地增加对话式、多视角的行为。模型正在通过优化压力单独重新发现几个世纪的认识论和数十年认知科学所揭示的道理:稳健的推理是一个社会性过程,即便它发生在单一心智之中。这种涌现行为的确切本质,随着人类与智能体之间的协作社会动态变得更加具体、复杂和持久,还有待进一步发现(和创造)。社会性推理的普遍根本性与特定微调和强化情境的特殊性之间的关系,很可能在未来数年激发大量研究。
这打开了一个宽广而又熟悉的设计空间。社会科学和组织科学已花费了整整一个世纪来研究团队规模、构成、层级、角色分工、冲突规范、制度以及网络结构如何塑造集体绩效。这些研究成果几乎从未被应用于AI推理领域。当今的推理模型输出的是单一对话——一份AI市政厅的会议记录。但高效的团队会展现出层级结构、专业分工、劳动分工和有组织的分歧。为了探索这一潜力,我们需要支持多路并行、收敛与发散的审议流的系统——在这类架构中,头脑风暴、唱反调和建设性冲突不是偶然涌现的属性,而是经过设计的特性。团队科学、小群体社会学和社会心理学的工具箱,将成为下一代AI开发的蓝图。
智能爆炸的历史:每一次都是社会性升级
除了实践意义之外,这些洞见或许还能厘清智能的整个进化史。每一次以往的"智能爆炸",都不是个体认知硬件的升级,而是一个新的、经社会聚合的认知单元的涌现。灵长类动物的智能随社会群体规模的扩大而提升,而非随栖息地难度的增加而提升。人类语言创造了迈克尔·托马塞洛所说的"文化棘轮":知识跨越世代积累,无需任何个体独立重建全体知识。书写、法律和官僚体制将社会智能外化为基础设施,这些制度在比任何参与者都更长的时间跨度上进行协调。一个苏美尔抄写员运转着一套粮食核算系统,却对其宏观经济功能毫无了解——而这个系统的功能性智能远超他个人。
AI延续了这一序列。大型语言模型被训练于人类社会认知的全部积累输出之上——文化棘轮以计算形式被激活,每一个参数都是无数交流与表达的压缩沉淀。迁移到硅基底的,不是抽象推理,而是以外化形式出现的社会智能,在一个新的基底上与自身相遇。
人类-AI半人马时代
如果智能本质上是社会性的,那么通往更强大AI的道路,不在于构建单一的庞大神谕,而在于构建更丰富的社会系统——而这些系统将是混合型的。我们已进入人类-AI半人马的时代:既非纯粹人类、也非纯粹机器的复合行为体。半人马行为体可以采取多种形式,扮演多种角色。我们每个人每天可能在多个不同的组合之间来回穿梭:一个人指挥多个AI智能体;一个AI服务多个人;许多人和许多AI在不断变化的配置中协作。
由无数人类组成的公司或国家已经拥有单一的法律主体地位,并以任何单个成员都无法完全掌控的集体能动性行事。智能体AI的近期爆发表明,类似的情形有可能在数十亿个交互心智——无论人类还是非人类——的规模上发生。
智能体如今能够自我更新和分叉,分裂为两个版本,并相互交互;面临复杂任务的智能体可以创建新的副本,对其分配子任务,再整合结果。想象一下:一个智能体面对艰巨复杂的问题,孕育出一个内部思维社会;其中一种涌现视角在遭遇无法解决的子问题时,又孕育出自己的下级社会——这是一种递归式的集体审议,在复杂性需求时扩展,在问题解决时收缩,在折叠与展开的对话超图的每一层级上灵活实例化和消解冲突。
从二元对齐到制度对齐
这意味着一种截然不同的扩展思路。问题不仅仅是扩大单个智能体的原始计算容量,而是构建能够在真实社会的规模和情境中运作的系统。这意味着,构建"智能体制度"与构建"智能体本身"同等重要。
当前AI对齐的主流范式——来自人类反馈的强化学习(RLHF)——类似于一种亲子纠错模型,本质上是二元的,无法扩展到数十亿个智能体。社会智能视角提示了一种替代方案:制度性对齐。正如人类社会依靠的不是个体美德,而是持久的制度模板——法庭、市场、官僚机构——这些制度由角色和规范加以界定,可扩展的AI生态系统同样需要数字层面的等价物。任何智能体的身份重要性,不如它履行角色协议的能力——就像法庭能够运转,是因为"法官"、"律师"和"陪审团"都是定义明确的位置,而与谁占据这些位置无关。
治理:权力制衡权力
这在治理领域尤为紧迫。当AI系统被用于高风险决策——招聘、量刑、福利分配、监管执法——“谁来审计审计者"这一问题就无法回避。答案或许在结构上是宪政性的。政府将需要拥有明确赋予价值观(透明度、公平、正当程序)的AI系统,其功能是制衡私营部门和政府其他部门部署的AI系统,反之亦然。例如,劳工部AI可以审计企业招聘算法的差别影响;司法部门AI可以评估行政部门AI的风险评估是否符合宪法标准。否则的结果将是,例如美国证券交易委员会低效地雇用持有Excel表格的商学院毕业生,去对抗AI增强的交易平台所进行的高维度共谋。
“治理"的含义,远不止政府的所作所为。从控制论意义上说,治理系统需要被内嵌到人机协作与智能体间系统随着其成长与复杂化的过程中。这可能需要确保和验证多利益相关方审议成果与决策的机制、任务与子任务的程序性授权,以及用于自动化微妙的跨智能体协作的可靠脚手架。这类协议对"智能体治理"的实际影响,或许不亚于任何法律。
至关重要的是,人类始终在回路之中。智能体制度由人类和AI智能体共同构成,在不同角色和配置中协作。这不是"非此即彼”,而是"两者兼顾”。美国开国元勋们会认同这一逻辑:无论是人类还是人工智能,任何单一的智能集中体都不应自我监管。权力必须制衡权力,在一个充满人工智能体的世界里,这意味着要将冲突与监督内嵌进制度架构之中。
结语:智能爆炸已然在此
我们所描述的愿景,既非乌托邦,亦非反乌托邦;它是进化性的。任何涌现的智能爆炸,都将由八十亿人类与数千亿、乃至数万亿AI智能体的交互所播下种子。这个脚手架不是单一心智的攀升,而是一个组合社会的复杂化:智能像一座城市一样生长,而非一个单一的元心智。
"单体奇点"框架会导致政策旨在阻止一种可能永远不会出现的技术。相反,我们应该在以往智能爆炸涌现之处寻找下一次智能爆炸:在众多社会智能心智之间合作、竞争与创造性的交互之中。这一次的不同之处,在于这些心智中的大多数将是非生物性的。这一多元主义模型将注意力聚焦于它真正应该在的地方:混合人机社会系统的设计、规范其运作的规范,以及它们在其中发生冲突与协调的制度和协议。
从某种真实的意义上说,智能爆炸已然在此——在每个推理模型内部辩论的思维社会中,在重塑每个知识职业的半人马工作流中,在开始以规模分叉与协作的递归智能体生态中,以及在我们现在必须开始追问的宪政问题中。问题不在于智能是否会变得根本性地更强大,而在于我们能否构建出与其成长相称的社会基础设施。
没有任何心智是一座孤岛。
来源: [2603.20639] Agentic AI and the next intelligence explosion