扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
2025-12-29 17:23

美国AI“创世纪”计划:再现“大科学”传统辉煌,还是衍生系统性脆弱?

本文来自微信公众号: 数字经济发展评论 ,作者:数字经济发展评论,原文标题:《美国AI「创世纪」计划:再现“大科学”传统辉煌,还是衍生系统性脆弱?》


“创世纪”延续了美国以国家力量应对关键技术不确定性的传统,但其能否复制“大科学”成功,仍面临隐性风险。


本文指出,“创世纪”是美国“大科学”路径在人工智能时代的延续。从“双重运动”和“国家视角”理论来看,推动AI扩张必然伴随着保护性反向运动,认为提高了科研体系的“可读性”,但易形成结构脆弱的系统。与此同时强调,这一计划的最终走向,在于技术基建布局的过程中认识到其蕴含的权力与风险。


原文标题:The United States Genesis Mission and the Calculus of Artificial Intelligence


原文来源:发展研究所


原文编译:数字经济发展评论


“创世纪”(Genesis)计划是美国长期由各州主导的“大科学”使命传统的最新延续。该行政命令正推动国家实验室基础设施向人工智能加速研究转型,对气候建模、能源系统、生物技术及先进模型治理领域将产生深远影响。


“创世纪”使命的行政命令,宛如美国一个古老故事的新篇章:当一项强大技术被不确定性笼罩时,美国政府便会启动全国性使命予以应对。20世纪40年代的核裂变、60年代的火箭技术,以及21世纪20年代的人工智能科学,皆循此轨迹。


每一次,国家都会迅速搭建相关机构与基础设施,而后花费数十年时间,学习如何与自己创造的技术共存。如今的问题在于,“创世纪”究竟是延续了卓有成效的“大科学”传统,还是会陷入次贷危机时期那种系统性脆弱的泥沼。


从曼哈顿到创世纪:


美国大科学的漫长轨迹


“创世纪”计划的历史先例显而易见——曼哈顿计划。这场战时研制原子弹的行动,其意义远超武器研发本身:它催生了洛斯阿拉莫斯、阿贡等一系列实验室,最终成为美国能源部战后科学体系的核心支柱。


这些实验室从秘密武器研发基地,逐步发展为多用途研究引擎,为核能、材料科学、气候模型乃至公共卫生工具的进步提供了有力支撑。但与此同时,这套基础设施也带来了“后遗症”:军备竞赛、核扩散风险,以及关于核废料处理和环境破坏的长期争议。


“创世纪”计划将这一模式延伸至人工智能领域。美国科学与安全平台承诺,将整合国家实验室的超级计算(机、安全云环境、海量联邦数据集与机器人实验室,构建一个由人工智能驱动的研究网络。这一举措的核心变化在于,人工智能从能源部基础设施的使用者,转变为该基础设施的核心组织原则。


计划的愿景切实可期:更优化的聚变设计、更快速的药物研发、更具韧性的电网,以及更精准的气候预测。但风险同样真实存在:模型、数据与自动化实验相互强化,形成一个紧密耦合的系统,在大规模故障发生前,其运行过程难以被全面审计。


波兰尼“双重运动”:


AI的扩张与保护


卡尔·波兰尼的理论为解读这一计划提供了有力视角。在《大转型》中,他提出“双重运动”理论:第一重运动是积极推动市场扩张,将土地、劳动力和货币视为商品;第二重运动则是通过监管、社会保险和政治抵抗,形成保护性的反向运动。市场时代并非自发形成,其最初源于人为规划,而当规划的成本逐渐显现时,市场扩张便会受到部分限制。


当前,人工智能在科学领域的发展正处于类似模式。“创世纪”正是一场计划中的转型:联邦政府正搭建基础设施、计算体系、数据集、标准与合作模板,为未来人工智能市场和安全应用奠定基础。


而新兴的保护性反向运动已初现端倪。在欧洲,《人工智能法案》构建了基于风险的监管框架,将特定人工智能危害视为对基本权利的威胁,并对高风险系统施加严格监管。在美国及其盟国,尽管所用工具相较于全面法规更为灵活,但针对评估机构、安全标准和审计实践的探索,也起到了类似的保护作用。


这种风险在金融史上早已屡见不鲜:当新工具的规划速度远超监管“护栏”的构建速度,风险便会悄然累积,最终集中爆发。


:


斯科特“国家视角”:


计划的可读与风险


詹姆斯·C·斯科特的理论则提供了另一个分析维度。在《国家的视角》中,他指出现代国家始终试图将复杂混乱的社会变得“可读”——通过标准化姓名、地籍图、规整的网格和统一的度量单位,实现税收、规划与管控。这种对“可读性”的追求,虽提升了治理效率,却往往忽视了地方知识(即他所称的“米提斯”),进而催生了一些纸面上看似高效、实则脆弱易败的系统。


“创世纪”计划在超级计算层面实现了“可读性”:它要求标准化的数据集、协调统一的元数据、通用的来源规则和一致的安全分类,以便人工智能体能够跨材料、生物技术、能源等多个领域开展工作。这种标准化虽能加速科研发现,却也带来了潜在压力——它要求多样化的科学实践及其所影响的社区,都必须适配平台的既定框架。


从斯科特的视角来看,“创世纪”的风险并非来自“轰动性的崩溃”,而更多源于“悄无声息的过度扩张”。当人工智能驱动的实验基于气候、能源或健康等领域的统一数据时,平台的抽象化处理可能忽略局部特殊条件:如沿海电网的独特性、前沿社区的生活实际,以及技术人员在实验中识别错误的隐性经验判断。


高度现代主义的方案,很少因规划者缺乏智慧而失败,其失败往往是因为系统筛除了那些“不合时宜”的知识,直至问题累积到无法忽视的地步。对于人工智能支持的科学平台而言,随着模型获得更多机构声望,研发速度本身可能成为终极目标,这无疑会加剧上述风险。


这些历史线索的重要性,在于它们重新诠释了美国当前面临的选择。“创世纪”体现了美国大胆推进创新计划的本能:建设共享基础设施,设定宏大科学挑战,整合国家与私人力量协同推进。


曼哈顿计划及战后实验室系统的经验表明,这种本能在催生疫苗、更安全的反应堆、更环保的材料和更精准的预测工具方面,具有强大力量。同时,波兰尼和斯科特的理论也提醒我们,每一次计划中的现代化浪潮,都会引发第二轮保护运动,以及关于“何种知识才具有价值”的较量。


全球AI反向运动的兴起


在人工智能领域,这类反向运动已在美国境外显现。欧盟的《人工智能法案》以基本权利和比例原则为核心,构建了基于风险的监管框架。意大利等国的国内人工智能法规,则将这些原则延伸至刑事处罚、工作场所规则和消费者保护等领域。


民间社会联盟呼吁,禁止那些他们认为在结构上与基本权利相冲突的人工智能应用。亚洲和非洲的政策制定者则在探讨,如何在避免本国经济被永久锁定在全球数据和标准体系从属地位的前提下,分享前沿模型的技术红利。在这些不同的语境中,“创世纪”的架构或将成为合作伙伴、参照基准,或是竞争对手。


历史并未注定唯一的结果,它既发出警告,也带来机遇。警告在于,使命驱动的大型科学项目一旦建成,其存续时间将远超孕育它的政治周期。曼哈顿计划时代诞生的实验室,在八十年后的今天仍塑造着美国科学的格局;而那个时代遗留的治理漏洞,如核废料处理、信息保密和核扩散等问题,至今仍在带来挑战与困扰。


机遇则在于,可将“创世纪”视为一个契机,尽早融入保护与参与机制,例如,赋予独立机构对平台模型的审计权、要求公开报告相关事件、为受人工智能决策影响的工人和社区设定结构化参与角色,以及推动标准与评估体系的真正国际共治。


如此看来,“创世纪”并非简单地在“下一场太空竞赛”与“下一次次贷危机”之间非此即彼。它更像是一场考验,检验美国是否能从自身计划转型的历史中吸取教训:在建设雄心勃勃的科学基础设施的同时,认识到其蕴含的新型权力与风险,并以同等的重视程度,投资于那些能让这种权力对其重塑的机构。

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

大 家 都 在 搜