扫码打开虎嗅APP
本文来自微信公众号:中欧EMBA,作者:周辉,题图来自:AI生成
一、美国在人工智能发展中独占鳌头
2023年,生成式人工智能的快速发展,引起了社会的广泛关注。为什么美国在这次人工智能发展中继续独占鳌头?其中有诸多因素值得我们深入思考。
人工智能的发展基于三个基本要素的形成,分别是数据、算力和算法。过去几十年,一些技术的沉淀促成了这一历史机遇的形成。
首先,互联网的商用发展,积累了大量的数字化数据,为训练人工智能提供了基本物料。2024年恰好是中国全功能接入互联网30周年,在此过程中,中国也积累了丰富的数据资源。
其次,算力和算法发挥出了数据资源的优势。
第三,生成式人工智能一改过往符号主义学派通过符号和逻辑运算来模拟人类的思维过程,采用大量数据进行训练(即结合当前的上下文来预测下一个token的概率分布)。
第四,资本需要故事。过去几年,人工智能的发展为全球资本提供了一个好故事,大量资本的注入才最终促成了这次生成式人工智能的大发展。
二、人工智能相关风险的治理
人工智能的相关风险大致分为两类。一类是短期可预见、有手段去控制的风险;另一类是即便能够设想到,但也难以用现有制度去管控的风险。
重要的问题是:未来人工智能是否会发展至超人工智能,或者强人工智能的阶段。一旦进入这一阶段,我们将不能采用现有范式和概念下的法律制度、法律工具来做回应。美国、欧盟会把灾难性风险的法律监管作为重点,在规制上尝试利用现有的工具。
早在2019年,美国就关注到人工智能可能存在的风险,《2019年算法问责法案》就“算法黑箱”对一般公民权益造成的侵害,以及算法是否会进一步加剧美国的种族歧视等风险进行了防范。
虽然2024年欧盟通过了世界上第一部综合性的人工智能法,但如果就含有“人工智能”关键词的法案或法律而言,美国已经有很多部了。
三、美国人工智能立法的三个特点
美国虽然没有一部像欧盟《人工智能法》那样能够统揽全局,既规制政府,又规制市场,既设定权利,又规定义务的综合性立法,但是它在一些人工智能的具体场景和不同领域中有相关的立法。这些立法具有以下特点。
特点一,虽没有综合性立法,但内容广泛。美国已经通过的人工智能法律主要是规制政府合法、公平地去使用人工智能系统或工具。美国在提供政府福利的过程中,会引入AI进行自动化决策,为此政府要避免某些算法可能有意或无意地对一些弱势群体,以及特定种族造成的歧视,这些是美国强制性规则的重点。
特点二,市场导向。美国的市场监管比较宽松。美国的政治背景导致了对市场监管很难形成合议。美国企业,特别是AI大企业有很强的政策游说能力,会在联邦层面对设立强监管的联邦立法形成阻力,并且相应的法律和政策都有这些大企业深度参与。
2023年,美国在白宫组织了两轮由头部AI企业参与的自律性承诺(voluntary commitment)。这些承诺文本有AI大企业的深度参与,结果也对他们比较有利。
特点三,对外竞争。美国政府的宽松监管只针对美国企业,但对已经界定为竞争对手的国家和相关联企业采取强监管,在各方面会设计一定的门槛或者一些管制性措施,来约束相关企业的发展或增长潜力。美国目前从芯片、投资、算力等多个维度阻碍中国人工智能企业的发展,将中国视为在人工智能领域的强力对手。
四、美国人工智能立法的趋势
第一,促进人工智能创新发展。2023年,美国发布的人工智能行政命令里有一项重要内容是,鼓励大家在政府功能、政府开展监管或服务时应用AI产品或系统,但政府本身不会生产、研发这些系统。最终财政预算会间接通过采购形式注入到AI相关的大企业和中小创新企业中。
第二,防止不安全或者无效的系统。因为人工智能、生成式人工智能可以提示很多知识,会扩大既有的像生物、化学、核武器扩散的风险。
第三,确保数据隐私安全。人工智能的发展离不开大量数据的投喂和训练。立法关注的重点是保护个人免受滥用数据行为(即不适当、不相关、未经授权使用或重复使用消费者数据)的侵害,但难度较大。因为美国在过去十几年,从联邦议员到产业界和学界,都有推动制定一个统一的类似中国《个人信息保护法》那样的法律,但迟迟未能出台。
第四,防止歧视。立法保护个人免受AI歧视。比如避免一些算法对弱势群体造成的歧视等。
第五,建立人工智能问责制,以此确保开发和部署人工智能系统的人,遵守人工智能系统管理的规则和标准。美国成立人工智能安全研究院(AI Safety Institute)来积极承担这项工作,寻找国际盟友制定相关国际标准。这些标准虽然在美国场景下是自律性的,不具有强制性,但因为有AI大厂深度参与,当头部AI企业都采纳这个标准时,它就变成了市场上支配性的标准,使得其他机构或者市场主体也必须按照他们的标准和规则来执行。
第六,确保人工智能透明度。透明度监管有一部分是针对内容的,比如美国大选期间,两党担心深度合成技术造成的虚假信息在社交平台传播,但现在可以通过给AI合成的内容打水印来加以区分。
五、企业的应对策略
遵守人工智能不同应用场景的不同要求
要关注人工智能应用的具体行业,以及相应部署会不会对就业和竞争产生影响。2023年,美国消费者金融保护局发布《关于贷款人使用人工智能拒绝信贷的指南》:关于贷方在使用人工智能和其他复杂模型时必须遵守的某些法律要求的指南。该指南描述了贷款人在对消费者采取不利行动时必须如何使用具体和准确的理由。
避免人工智能供应链不稳定的风险
供应链的不稳定体现在数据、算力、投资和芯片四个领域。
六、中国企业如何应对人工智能供应链风险?
首先,建立多元化的供应链分散风险。与多个国家或地区的企业建立合作关系,将部分生产线迁移到友好国家或地区。
其次,制定详细的应急计划。识别潜在的风险因素(如供应商不稳定、市场需求变化等),寻找并准备替代材料或临时供应商。
第三,加强合规管理。充分了解和遵守业务所在国家的相关法律法规,创新商业模式,保持产品多样化。
本文来自微信公众号:中欧EMBA,作者:周辉