日报|相互确保 AI 故障、终结者经济与私人治理框架
AI & 社会|前沿研究每日简报 2025-04-17
01
研究问题
人工智能不仅能推动经济增长和军事升级,也可能被用来制造生物武器、发动网络攻击,甚至在某些情境下引发全球性灾难。特别是「超级智能」——在几乎所有认知任务上都超过人类的 AI 系统——被越来越多专家认为是可预见的未来。面对这一前所未有的技术变革,国家如何制定有效战略以避免冲突、控制风险、并保持竞争力,成为迫切需要回答的问题。
本论文围绕以下几个问题展开探讨:如果某国试图单方面发展超级智能,其它国家应如何应对?我们是否可以建立类似冷战时期「相互保证毁灭」的 AI 版威慑机制?如何防止 AI 技术扩散至恐怖组织或不负责任的个人?在不失控的前提下,国家如何利用 AI 增强经济和军事能力?
研究结论
第一,超级智能的发展将引发新的国际威慑机制,即「相互确保 AI 故障」(Mutual Assured AI Malfunction,MAIM)。如果任何国家试图发展可能威胁他国安全的 AI 系统,其它国家可能通过间谍、网络攻击甚至物理打击来「瘫痪」该项目,从而形成一种威慑平衡。
第二,防止 AI 技术扩散至恐怖分子或流氓国家至关重要。论文提出「非扩散三部曲」:管控 AI 芯片流通(计算安全)、保护模型权重等敏感信息(信息安全)、以及确保 AI 系统本身具备防滥用机制(AI 安全)。
第三,国家必须提升自身 AI 竞争力,包括发展本土芯片制造能力、将 AI 整合进军事系统、制定 AI 法律框架,以及应对自动化带来的社会冲击。竞争力不仅关乎国家强弱,也影响全球 AI 发展的方向和节奏。
核心概念
相互保证毁灭(Mutual Assured Destruction,MAD):也称为共同毁灭原则,一种冷战时期确立的战略威慑机制,意在防止核战争爆发。其基本逻辑是:如果任何一方首先发动核攻击,另一方即使在遭受打击后仍具备足够的核反击能力,能够对对方造成同样毁灭性的打击。因为无论谁先动手,最终都将两败俱伤,甚至同归于尽,因此各方都被迫保持克制。这种「你死我也亡」的战略平衡,虽然脆弱,却在几十年间有效避免了核大战的发生。
本论文借用这一概念,提出「相互确保 AI 故障」(MAIM)作为超级智能时代的新型威慑机制。其核心思想是,如果某国发展超级智能可能威胁别国安全,其它国家会通过各种手段破坏该项目,从而形成一种战略平衡,防止任何一方孤注一掷。
研究问题
电影《终结者》中,AI 觉醒后对人类构成威胁,引发了关于 AI 是否会取代人类工作的长期讨论。在现实中,人工智能,尤其是大语言模型,正在迅速进步,并开始影响各类职业中的具体任务。过去的研究多依赖专家判断或技术专利数据来评估 AI 对工作的影响,但这些方法往往缺乏透明性和可重复性。
本研究试图回答以下问题:AI 在多大程度上能胜任各类职业中的具体任务?哪些职业最容易被 AI 替代?AI 对工作内容的改变,是倾向于「取代」人类,还是「辅助」人类?AI 的影响是否已经在就业和工资增长中显现?
研究结论
第一,研究团队开发了一套基于开源大语言模型的评估方法,能够细致地分析 AI 目前在多大程度上可以完成各类职业任务。他们将美国 ONET 数据库中 19281 项任务输入三个开源模型,要求模型对每项任务的 AI 可实现性进行评分,并提供理由。在此基础上,研究构建了「任务被人工智能介入的程度」(TEAI)和「任务被人工智能替代的可能性」(TRAI)两个指标。这一方法具有高度透明性和可重复性,能够随着 AI 技术进步持续更新。
第二,AI 介入程度最高的职业集中在高技能领域。约三分之一的美国就业岗位处于高度 AI 介入状态,其中 88% 属于高技能职业,如管理、金融、科技和工程等。这些职业通常涉及认知分析、问题解决和管理决策等任务,而这些正是当前 AI 模型表现最强的领域。相比之下,依赖社交互动的任务则较少受到 AI 影响。
第三,AI 介入程度与就业和工资增长呈正相关。通过对 2003 至 2023 年间的就业和工资数据进行回归分析,研究发现 TEAI 指数越高的职业,其就业增长和工资增长也越快。这表明 AI 在当前阶段主要起到提升生产力的作用,而非大规模替代劳动力。AI 更像是帮助人类提升效率的工具,而不是「抢饭碗」的对手。
第四,AI 替代任务的能力在同一职业中差异显著。即使在高技能职业中,AI 对不同任务的替代能力也存在很大差异。这意味着 AI 和人类往往在同一职业中各自承担不同任务,形成互补关系。AI 可能负责重复性强、结构清晰的任务,而人类则专注于需要判断力、创造力或情感交流的部分。这种「任务再分配」将成为未来工作的主要变化形式。
第五,研究还通过线上平台招募 12 位评估者,对 TEAI 与 TRAI 的结果进行独立验证。结果显示,评估者在 75% 的情况下同意 TEAI 评分,在 71% 的情况下同意 TRAI 评分,仅有 2% 的情况下完全不同意。这说明模型给出的评分和解释在大多数情况下是可信的,为政策制定者和组织提供了可靠的参考。
第六,虽然 TEAI 和 TRAI 两个指标在统计上高度相关,但它们关注的角度不同。TEAI 强调 AI 能否参与任务,TRAI 则进一步判断 AI 能否完全替代人类完成任务。研究指出,在许多职业中,AI 的高介入并不等于高替代,这种「高介入、低替代」的组合正是 AI 与人类协作的典型特征。
核心概念
TEAI(Task Exposure to AI)任务被人工智能介入的程度,指的是 AI 技术在当前水平下,能够参与完成某一职业中各项任务的能力强弱。该指标由多种 AI 模型对每项任务的评分综合而成,越高表示 AI 越可能介入该任务。
TRAI(Task Replacement by AI)任务被人工智能替代的可能性,指的是在 TEAI 基础上进一步判断 AI 是否能完全替代人类完成某项任务,强调的是「替代」而非「协作」。通过 AI 模型对任务描述和 AI 能力的综合判断得出。
研究问题
人工智能正快速发展,尤其是被称为「前沿 AI」的系统,已经在多个复杂认知任务上接近甚至超越人类水平。这类系统的广泛部署可能带来巨大的社会效益,同时也可能被恶意使用,造成财产损失、网络攻击甚至人身伤害。传统的治理方式——无论是政府监管、国际合作、还是依赖企业自律——都面临响应滞后、技术复杂、政治博弈等多重挑战。在这种背景下,论文作者试图探索一种新的治理机制,以更灵活、有效、可扩展的方式应对前沿 AI 带来的风险。
面对这一现实,本文集中探讨以下问题:我们是否可以设计一种制度,既能激励 AI 企业主动承担安全责任,又能避免政府监管过度集中或失效?私人治理机制是否可以在公共授权下,承担一部分 AI 监管职能?如何在保障公共利益的同时,构建一个灵活、竞争、可持续的 AI 治理结构?
研究结论
第一,作者提出一种「混合型公共 - 私人治理框架」,即由政府授权多个私人机构,对前沿 AI 开发企业进行安全标准认证。这些机构具备独立性和专业能力,企业可以自愿加入该体系。作为交换,企业可获得「侵权免责」保护,即如果用户滥用其模型造成他人损害,企业可以不承担侵权责任。这种安排旨在激励企业主动承担更高的安全责任,同时避免传统政府监管的迟缓和僵化。
第二,作者强调该框架的「竞争性」设计。政府可以授权多个私人治理机构,各自制定不同的认证标准、审查方法和技术要求,让 AI 企业自行选择。这种机制不仅避免了监管垄断,还能激发制度创新,防止「劣币驱逐良币」的现象。通过竞争,监管机构将更有动力提高治理质量,企业也能根据自身特点选择最合适的合规路径。
第三,作者指出该框架在政治经济和技术操作层面上具有现实可行性。一方面,政府可以通过这一制度缓解监管资源不足的问题;另一方面,AI 企业出于降低法律风险的考虑,也有强烈动机参与认证流程。此外,该机制还可以作为信息中介,促成企业间的安全经验共享,同时避免触犯反垄断法规。整体来看,该框架在实现安全治理目标的同时,保留了制度的灵活性和适应性。
核心概念
前沿人工智能(Frontier AI)指的是那些在认知能力上接近或超越人类、具备广泛任务适应能力的 AI 系统。这类系统通常由少数几家技术领先的企业开发,具备高度可复制性和快速扩散性,因此带来前所未有的治理挑战。
私人治理(Private Governance)是指由非政府组织(如行业协会、标准机构、第三方审计机构等)承担部分公共治理职能的制度安排。在本文中,私人治理机构在政府授权下,对 AI 企业进行安全审查和认证,形成一种「可选择加入」的合规机制。
侵权免责(Tort Liability Safe Harbor)在传统法律框架下,如果 AI 系统被用户滥用导致他人受害,开发者可能面临侵权诉讼。本文提出的治理机制中,若企业通过认证并符合规定标准,则可获得免责保护。这一安排既减轻了企业法律风险,也促使其主动采取更高标准的安全措施。