扫码打开虎嗅APP
本文来自微信公众号: 数旗智酷 ,作者:唐鹏
《AI Snake Oil:What Artificial Intelligence Can Do,What It Can’t,and How to Tell the Difference》
《AI Snake Oil》也被翻译为《人工智能“蛇油”》。“蛇油”是一个来自美国19世纪的商业故事,它在美国文化中被称为“万金油”。从水蛇提取的油来缓解关节疼痛、肌肉劳损,这在当时的美国是被作为一种民间疗法而被信任。而当美国的“专利药时代”来临的时候,仿制“蛇油”成为了一种暴利行业,于是从矿物、牛、辣椒等提取油品冒充“蛇油”,就成为了一个公开的秘密。当时的“蛇油大王”Clark Stanley还通过现场“解剖蛇”、现场“提炼蛇油”来为产品做推广。直到它们被揭露:它的产品根本没有“蛇油”。就像鸭血豆腐没有鸭血,夫妻肺片没有夫妻,人形机器人只有遥控没有自主......
“蛇油”的丑闻带给美国社会的启示是:蛇油的问题,从来不在“油”,而在“人如何讲述它”。
AI企业在资本的鼓动下以摧枯拉朽的方式三天一次升级五天一次更新,它们像登山竞赛一样,每过一段时间就会通过媒体或网红来宣布自己又占领了一个新的技术制高点。而政府(特指特朗普政府)呢,它们已经毫不避讳地将AI厂商列入自己的国防承包商行列,并在一些影响世界的重大行动中犹抱琵琶地透露一些影影绰绰的细节,以激起公众对其“梦幻式”伤害能力的无尽遐想。而公众则被媒体报道的就业新闻、AI产品的能力指标等半推半就地陷入一种FOMO心态:被迫地涌入一个个本不该参与的游戏——不断地学会一个个今天刚学会、明天就要过时的AI技能。
这正是人工智能当前的话语困境:如何谈论AI、由谁来讲述AI,成为决定AI未来的重要问题。那些声音最为洪亮的谈论者,在某种程度上已经决定了AI的走向。比如“AI取代哪些工作”、比如“AI预测未来”。不断地制造信息迷雾,鼓噪一种众望所归、不可抗拒的暗黑未来,成为AI企业与资本掩藏自己的缺陷以及行使真正目的的方式。
作者在本书中提出的核心观点是:人工智能无法预测未来,因为人类行为存在复杂的非理性选择。我们之所以痴迷于“预测”的魔力,核心原因在于我们“对随机性的深刻不适”。因此,我们需要努力建立这样的制度:真正接受“过去不能预测未来”的事实。显然,这对于数据主义者无疑是一记响亮的耳光。因为,在他们的认知里,“只要”给我足够大的算力和数据,一切即可预测。
对不确定性的恐惧与对不可预测的遏制,让人们与人工智能的所谓预测结果处于一个动态博弈的过程中。比如,在印度的英国殖民政府希望减少眼镜蛇的数量,因此决定对上交死眼镜蛇的人给予奖励。但是,人们没有去野外捕杀眼镜蛇,而是开始养殖眼镜蛇以领取奖励——导致眼镜蛇数量增加。虽然这是一个虚构的例子,但却说明了人们为了满足预期来扭曲现实的动力。
而所谓”AI向善“也可能产生意想不到的效果。比如有医院通过人工智能被用来估计接受肾脏移植的人移植后能活多久,其逻辑是接受移植后能活最长时间的人应该优先获得肾脏。这应该是优化医疗资源的举措吧?但问题在于,只有年轻人的肾脏接受移植才可以活得更久。这样的AI预测系统将导致肾脏有问题的年轻患者故意放弃护理而提前获得移植的机会。幸亏这种激励错位及时得到了纠正。
如果我们要接受一种预测的真实性,那么我们可能会不断去修正现实,以印证“自我实现的预言”。作者认为,好的预测不是好的决策。或者说,好的预测并不导向好的决策。比如我们可以利用AI系统监测到流行性疾病的可能趋势,而如何采取防控行动,在什么区域、针对什么人群进行提前预防,这些都是可以进行人为干预的。而这些都与预测无关。但正像作者所说的,”人们往往抱怨政策,而不是执行“。
不管是企业还是政府,一旦推出一个令人恐慌的”自动化“强度较高的AI工具或应用时,他们都会体贴而友好地表示:请放心,我们的产品或服务主动权都在人类的手中。它们将”人类的监督“设置为一种帮助人们卸掉心理防线的标配。而事实是什么呢?那些人类的监督员们从未改变过AI软件生成的决定。或者说,在AI与人类监督员的制度框架内,它们在执行中已经自动达成了一种默契:当人类没有表现出强烈的抗拒,当机器的行为没有引起注意,一切就可以继续。
新技术的诞生其实都在无声地承诺提供一种增量的技术红利,但新技术的社会化过程则无一不是在已有的规则、资源、偏见基础之上完成对技术神话的加冕或祛魅。就像有缺陷的人工智能的成本并不由所有人平均承担,对于具有较高数字素养的人,他们会选择早期的认知套利、中期的能力升级与晚期的职业转型。而对于数字素养较弱的群体,预测性人工智能的使用将不成比例地伤害了这些过去就被系统排除在外和处于不利地位的人。也就是说,PC时代,他们被垃圾广告弹窗伤害。移动时代,他们被网赚投票中医广告以及短视频谣言伤害。AI时代,他们将继续被那些有目的的GEO伤害。
为什么人工智能预测未来不可信?最大的问题在于现实的复杂性不可感知。宏观的预测往往通过热力图、曲线以及弧度就可以勾勒出趋势,对宏观的解释往往具有巨大的容错空间与阈值。就像星座解读,只要你心是“诚”的,横看竖看都是对的。而一旦预测落实在某一个地点、某一个时间、某一个人的身上,那将出现巨大的偏差与谬误。因为个人行为是不可预测的,而群体趋势中的个体随机性则会相互抵消。假如将预测的现实影响、拯救谁与放弃谁的道德选择以及无法回避的误差损失进行综合考虑,那么,预测的成功率将会呈倍数地降低。或许可以这样表达:预测对微观的影响并非独立存在,是与具体的人、物的状态和反馈相关的。它并非只是一种单方面的数据计算,而是与人的感受与需求有关。它是客观的,也是主观的,它是自然的,也是社会的。
AI数据标注背后的工作者也在决定AI对现实世界的影响,将现实世界的偏见吸收进入数据机器,然后重新投射和倾倒到现实世界当中。由于数据标注工作是短期、不确定的、无法给人安全感的任务。它让参与者永远处在一个对未来心存不安的环境中。以至于许多数据注标注公司开始招募囚犯、难民营和正在崩溃的经济体中的人员——换句话说,那些因为别无选择而接受这份工作的人。因此,要改善AI的偏见以及进行所谓的”价值对齐“,首要的任务可能从AI企业的道德感以及数据的质量上下功夫,而是改善其从业者的工作环境与劳动保障水平。就像你要去餐厅吃到干净的饭菜、用到干净的餐具,首要的是提高员工的待遇、创造优质的工作环境、建立人性化的考核机制与工作规范培训。
如果AI需要”价值对齐“,我觉得可能首先需要对齐的是不同国别和地区对个体人权与劳动尊严的无差别保护。
作者认为,”对人工智能的生存担忧是一种批评性炒作"。在将该技术描述为无所不能的同时,批评人士夸大了它的能力,弱化了它的局限性,为那些宁愿少受审查的公司提供了可乘之机。当人们抱有这种心态时,他们就不太可能发现和挑战人工智能的风险。当我们偏爱AI自动化捕捉的高效性的时候,就会忽略其带来的后果。比如在中国,由于电诈的社会影响趋强,有关部门与电信公司合作,通过AI来识别“诈骗电话”信息,一旦有号码被锁定,手机号码将面临注销的风险,以及冻结银行卡等。而被“误伤”的人将遭遇无尽的烦恼,他将需要面对一个无法解释的对手进行申诉。
而在社交媒体的监控上更是如此。AI不仅反映偏见,还在重新构建偏见,以数据机器看到的方式。比如当法律认为儿童性虐待为重罪的时候,一位年轻男孩的父母如果将其生殖器肿大的照片发给医生,当AI在云端识别到的时候就可能被提交给警方作为证据。比如当一个国际象棋视频中出现“白子更好”之类的话语的时候,AI就可能识别为种族主义言论。而如果一张照片显示一个白人家庭和一名黑人孩子,并配文“没有宠物的家不是家”,则可能被视为歧视性言论(AI会认为配文有意将黑人视为“宠物”)。
这一切荒谬的背后,似乎AI技术都是罪魁祸首。但是事实是,发展和部署这项技术的公司在利益权衡的过程中选择了袖手旁观。他们本可以针对性地提升人类监督的主导权与规范意识,但他们视若无睹。2014年,当缅甸反罗辛亚人的暴力活动已经全面展开时,Facebook承认,它只有一个讲缅甸语的内容审查员专门负责缅甸问题,该审查员位于其都柏林办事处。事实上,Facebook始终拒绝透露在非英语国家有多少审查员。这意味着,当这样一些掌管AI算法的平台运营商大肆收割发展中国家的利益时,它们拒绝为此付出相应的成本,因为他们相隔了一整个太平洋,再汹涌的民怨与战火也影响不了他们开一个豪华的周末派对。所以,AI万金油在本质上是一种资本与商业的道德选择,而非一种技术能力的不可及性。
当我们批评一种算法的时候,重要的是要记住,算法模型并不试图评估陈述的真实性,它只是依赖于以前标记为真或假的陈述的相似性。因此,当一个全裸的儿童在痛苦与尖叫时,这是一张应该被禁的淫秽图片,还是一张控诉战争与暴力的历史图片?这一切取决于时间、空间以及左右社会舆论叙事的权力机构。那些在社交媒体突然消失或突然出现的敏感词,其背后都是某种规范交换的结果。
作者认为,“推荐算法主要不是基于帖子的内容,而是基于人们在遇到这些内容时的行为。只要人们能够正确地解码一个帖子的含义,推荐算法就会注意到它“。其实这一点在短视频时代越来越突出,一段只有本地人才能听懂的方言,一张只有知道内情的人才能看懂的图片,一段只有同道中人才能看懂的”暗语“……一旦你的停留时间与互动行为和其他用户产生差异,算法就将识别到你。于是,你就将成为这类信息的目标用户,频繁地获得推送。
社会心理学家、Facebook前高管拉维·艾耶尔所指出的:“与提出一个可验证的虚假主张相比,通过暗示一个真实事件来含蓄地误导人们,往往更加有效。”这正是算法时代的大众认知逻辑:冠冕堂皇地提出一项主张往往无人问津,而通过暗示、”内涵“、指桑骂槐等方式则更为有效地影响他人。不懂者的疑问与懂得者的优越感形成一种认知剪刀差,让不懂的人因为渴望了解而去传播,让懂得的人因为认知领先而去不厌其烦地阐释。算法往往对于陌生的信息模式具有一个自我学习过程,它需要通过不断的用户行为与相似性信息训练而获得新的能力。而在此之前,如果你掌握了某种话语密码,你就将驰骋于一个平台自由主义的”空档期“。这其实就能解释为什么抖音上有如此多的新人播主在灰色擦边球领域不断地重复起号,因为她们都想在算法的”空档期“掌握一种流量的新语法。
当谈论AI识别的能力时,我们首先会谈论”准确性“。而一旦谈论”准确性“,往往需要关注两个问题:一是”准确“并不意味着客观、精准与符合需求,它往往意味着有条件的局限性。由于数据标注导致的”过度精准“,缺乏模糊性,导致决策的范畴受限,目标群体利益受损,走向相反的方向。二是”准确“与否并不由AI的识别能力及背后的数据决定,而是与社会现实密切相关,与人们的价值观、道德感等相关。举一个最小的例子,假如高校通过学生饭卡的月度消费情况、是否使用笔记本电脑等来评估贫困生的状况,那就可能导致实际并不贫困的学生被划入贫困行列。
如你我所见,资金不足的新闻机构与经费有限的学术机构也在不断放大AI万金油的炒作风潮。新闻机构的记者为了抢头条新闻或者节省时间,未经核实调查与研究就引用公司的公关信息作为新闻。而学术机构由于学术研究文章的发表压力以及与企业合作的课题项目原因,不断制造符合市场预期的所谓研究数据与成果。不准确信息的不断重复、耸人听闻的信息锚定人们的偏见,就像ChatGPT、DeepSeek以及Openclaw的崛起之时,新闻版面与学术期刊从来没有如此慷慨而蜂拥地为一项前途未卜的技术贡献出版面,他们陶醉于自己制造的狂欢中,他们已经忘记自己的行为对AI的社会化意味着什么。但似乎当齿轮转动之时,任何的克制都被视为一种保守与短视。
由于AI技术长期以来被传播与阐释产生的神秘性,它给普通人造成的印象是:AI无法被监管,AI发展是一种必然趋势。而一切的后果都需要人们自己准备好忍受。其实这种观念的形成可能正是头部AI公司希望看到的,它们成功塑造了这一切。通过将AI技术的发展速度和能力描述得让人不可思议,从而推动形成“科技监管毫无希望,因为政策制定者不懂技术”这样的谬论。而其实,只要掌握了“AI向善”、“以人为本”的原则,一切蓄意构建的技术叙事都将土崩瓦解。
对于“AI杀死就业”以及“AI杀死文化”等言论,作者似乎不以为然。因此从人类历史来看,一个职业类别被技术完全取代的情况十分罕见。在1950年美国人口普查中列出的数百个职业中,只有一个职业因自动化而消失:电梯操作员。在其他情况下,一项技术变得过时,从而消除了与其相关的职业类别,例如电报操作员。自动化往往会减少从事某项工作或某个行业的人数,而不会将其消除,就像农业逐渐发生的情况一样。1980年的办公室助理可能花了大量时间整理档案柜和打字。这些任务已经过时了,但今天,他们可能会帮助制作PowerPoint演示文稿和解决数字设备的问题。这种论调与《技术陷阱》的观点尤为相似,就是对一个职业、岗位以及工作技能的取代,并非由技术独自决定,而是与社会保障、教育培训、政策激励等时间窗口息息相关。
当无数文化工作从业者在哀嚎AIGC带来的创意产业的黄昏时,作者认为,对人工智能破坏的恐惧相反,人工智能模仿艺术产出形式的能力,实际上增加了公众对艺术中真实人类自我表达的欣赏。这与二十一世纪初的情况类似,当时,象棋应用程序的广泛使用实际上导致了对象棋的巨大兴趣激增。这可能跟我的个人体感颇为相似:当大模型可以在几十秒输出结构严谨、滴水不漏的5000字时,我看到的不是“机器书写”的“严谨”与“完美”,而是缺乏停顿、转折、留白的呆滞与死气沉沉。这无法不让人怀念那些手搓文字中包含的字斟句酌的迟疑与犹豫,以及在灵感中被上帝亲吻额头觅得绝句时的酣畅淋漓,那种品味上的柳暗花明与智力上的“千帆过尽”,让人对写作与阅读重燃敬畏。
我之所以将“AI万金油”称为“被教唆的信念与被蔑视的梦想”,主要是因为,人类对AI的期待与信念是公司的道德选择和算法的技术结构共同教唆的,而作为一项技术可以在社会进程中产生的积极作用,却因为各种目的、幻象和噪音被蔑视掉了。它的最新表现就是诞生了一批号称“给数据投毒”可以100%实现GEO让你的产品出现在大模型聊天对话第一行的妖艳贱货们。