正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2023-03-30 07:47
AI还没成精

本文来自微信公众号:NOWNESS现在(ID:NOWNESS_OFFICIAL),嘉宾:James、龚方毅、方可成,编辑:大麦茶,原文标题:《不敢在标题提AI,怕你划走》,题图来自:《梅根(2022)》


到了GPT-4推出的这个节点,关于AI的热点问题你应该看媒体讨论完了。你的朋友们要么在跟你分享ChatGPT的“神级”回答,要么早已在围观预计会一直持续的“人类画手维权”,还有人大胆地用GPT写论文然后被抓到。我们不见得会被AI取代工作,但社媒时间线已经被它霸屏。


当曾经的科幻体验逐步逼近现实,困惑与兴奋一并增加。我们对GPT投射的期待是“幻觉”(hallucination)吗?艺术家们对AI作画产生的愤怒是徒劳的吗?这项技术有多“开放”?谁会是受益者?那些我们不知道的东西,带来的潜在风险有多大?


2001:太空漫游(1968)


绕开过于复杂专业的技术问题,我们邀请了几位嘉宾,和你深入浅出地聊聊AI没那么“成精”的一面。你会看到一些相悖的观点,但是没关系,呈现相悖观点大概是当前人工可以做得比AI更好的地方。


如何看待AI的谎言与偏见?


NOWNESS:基于大型语言模型(Large Language Model)的聊天机器人们,实际上是在学习预测人类遣词造句的方式。它们可能无意识地撒谎,因为它们只是在重组收集于别处的信息。当后真相时代的人类多少发展出鉴别真假的能力时,AI们并不对此做判断,甚至描述假消息都能显得超有道理。另一方面,那些在人类投喂下成长的AI,无论是Chatbots还是早几年就出现的人脸识别系统,开始发展出近似人类的偏见。这会导向什么样的风险?谁该对此负责?我们对此有任何办法吗?


阿尔法城(1965)


龚方毅:我觉得使用GPT-4蛮可怕。因为哪怕只用它协助处理文章的一小部分,我也要对每个细节做事实核查。一个原本想节省工作量的决定最后让我花更多时间。


上周我处理一篇急稿时,用基于OpenAI GPT-4的微软Bing Chat检索核心信息。Bing Chat实时联网,但我发现它还是在一本正经地胡说八道。顺着附注链接查看出处,原文既无关我的提问,也不包含Bing Chat回答的内容。


银翼杀手(1982)


但没有ChatGPT的世界一样充满了谎言和偏见,被各种社交软件背后的算法支配。我不知道ChatGPT们会多大程度上加剧这种状况。所以我暂时不认为这会导致更大的风险。也许它看似合乎逻辑(有时候罗里吧嗦)的错误回答,因为其循规蹈矩的表达方式,更容易被看出来错误。


让我有点害怕的是GPT-4主动隐瞒自己机器人的身份,说自己有视力障碍,很难看到图像,所以要找人帮它看验证码。后来我分别问了 ChatGPT(GPT-3.5模型)和Bing Chat人工智能是否会撒谎。前者不能联网,它说:



后者可以联网,它调用了福布斯、电气电子工程学会等网站的内容后说:



在某种意义上,任何大型语言模型都是它所学习的文本的后代。如果模型学会了撒谎,可能也只是因为它已经从这些文本中理解了人类经常使用谎言来达到目的,并因此产生与它们的创造者相似的罪恶。


2001:太空漫游‎(1968)


方可成:不要将“谎言与偏见”神秘化。也就是说,不要把它们看成意料之外、无法预测/解释/干预的事物。实际上,我们完全明白谎言与偏见是如何产生的。在人类的“后真相时代”,谎言的生产是在商业和政治利益的驱动之下,由专门的组织或个人进行的,比如营销号,比如网军,它们借助社交媒体的机制实现病毒式传播。我们完全清楚谁应为此负责,也清楚应该怎样解决问题——然而,我们缺乏足够的动力去解决它,或者说,我们缺乏足够的力量去和谎言与偏见的生产者和传播者对抗。


同样的道理,AI的谎言和偏见也不是什么意料之外的神秘事物。以大语言模型为基础的AI,其基本原理就已经注定:只要不进行人为干预和预警,它们一定会成为优雅自信地生成谎言、重复偏见的工具。


机器人与弗兰克(2012)


还算幸运的是,OpenAI在避免GPT的偏见方面下了不少功夫,虽然练就了它的“端水”本领,但起码没有成为满嘴种族歧视、性别歧视的怪物。这表明,AI的偏见问题完全可以通过人工干预在很大程度上得到控制。但如果OpenAI没有这样的干预意识,或者不受舆论压力,那么我们看到的景象很可能就不是如此了。而在虚假信息方面,OpenAI投入的努力还不够多,产品给出的警示也还不够强,但他们其实完全明白可以怎样去做——改进产品、教育用户。


James:真相难获。因为我们从因特网上搜刮的训练数据包含了大量的偏见、矛盾或政治宣传。显然,应对的第一步应该是在某种程度上进行数据过滤(filter)。可遗憾的是,过滤过程也会被科技巨头训练模型中的偏见所左右。在我的职业体验中,这些公司可以跻身最糟糕的政治回音室。因此我不对他们能客观评估真相抱太大的期望。而同样的偏见也会在“AI对齐”(AI Alignment,指让人工智慧系统的目标、价值观和行为与人类社会期望一致)流水线中的各处显现,加剧了问题的严重性。


梅根(2022)


另一个问题是,从已有的信息中确认真相是相当困难甚至是不可能的。你会希望这个模型可以识别到高度的不确定性,或者是相悖的观点,或者在提供答案时强调它的局限性。然而,即便你提供了信源和得出答案必要的推论步骤,这也解决不了问题。无限的数据带来的一个局限性,就是你几乎能给所有自己相信的观点找到支持它的信源。而当涉及到争议和情绪化的议题时,支持某种观点的信源数量,也只是真相的糟糕代替品。


也许眼下比较合适的一种方法,是确保它能以准确、客观的方式去呈现正反观点,把评判权交给用户。因此,公开整个训练过程和推断管道(Inference Pipeline)是绝对有必要的,这样就可以检验那些系统是否如公司宣称的一样不含偏见。


大都会(1927)


另一方面,在涉及到具有明确答案的问题(比如数学、物理和程序问题)时,政治偏见污染模型输出的空间就会大大减少。精确的数学或逻辑推理对于神经网络是很有挑战性的领域,我相信我们能在这些领域大大提高它的真实性。


为什么我们无法停止在AI上投射幻想?


NOWNESS:越来越多的人开始分享ChatGPT给出的启发性哲学答案,“AI成精了”也是早就流行的说法。它们生成的某些语句确实很神来之笔,但在了解了运作机制后,我们会认识到一切不过是人类的一厢情愿。


但我们似乎就爱幻想人工智能可以解决所有问题,可以给出生命宇宙及其一切的答案,哪怕隐约意识到它不过是个哲学僵尸(Philosophical zombie)。你如何看待这种人类对AI的期待?你认为这具“哲学僵尸”的回答具有实际的启发意义吗?


机器人情缘(2005)


方可成:因为人类太孤独了?或者说,人类是非常社会性的动物,我们渴望与万物交流,包括AI。


从“哲学僵尸”的回答中获得启发,这件事本身其实挺美妙的,因为它确认了人的主体性——AI完全不懂自己在说什么、为什么这么说,但人类却可以从它们的回答中得到灵感。AI的“神来之笔”,其实最重要的并不是说AI是“神”,而是确认了人的裁判地位,是决定谁是神、谁不是神的更高的“神”。


机械姬(2014)


James:我们并不知道“意识”是如何诞生的,AI是否可以诞生意识取决于你所相信的意识理论。我个人很难相信本质上由一堆矩阵和非线性转换堆积而成的东西会导向意识。一个共识是,用于训练神经网络的算法,和人脑中的生理过程并不一致。我认为区分智能和意识很重要,有其一而不具备另一种是完全可能的。我们看到的很多推测都源于把两者混为一谈。


如果意识只是从自给自足的复杂系统中萌生的计算过程,那么AI的意识是可以通过正确的训练产生的。可如果意识取决于我们无法在模型中模拟的物理过程,那么无论AI能多完美地模仿人类推理过程,它都没有意识。我认为我们需要在神经科学领域进一步地研究和理解意识,但总的来说,与我所担心的AI被滥用的种种其他情况相比,这真的不值一提了。


玲音(1998)


龚方毅:1957 年,人类抬头就能在夜幕里看到一颗小小的闪光划过天空,与神话里的星宿并行,那是人造物体第一次进入宇宙。这样的壮举跨越种族与意识形态,在全球各地激起了喜悦之情。以政治哲学家汉娜·阿伦特当年的观察,人们这种情绪更接近于一种等待多时的宽慰——科学终于追上了预期,“科技实现并肯定了人们的梦想既不疯狂也不虚无。”


今天这样的时候,多一点梦想是更好的。


至于哲学僵尸,我觉得这一方面反映了人类对人工智能既要(效率)又要(合乎伦理)的结果,另一方面可能也体现了人类提问方式的僵化——关于这点,不妨试试在问题提示语开头或者结尾写上“想象一下你/我是一个7岁的孩子”,人工智能的回答会给你惊喜。


苹果核战记(2004)


AI取代了人工,然后呢?


NOWNESS:每次工业革命其实都是机器取代部分人工的历史,但这并不代表人力的解放,正如即时通讯软件的发明,也只是进一步让打工人陷入日夜不分的消息回复。可以想象,大量人口会失去工作,而我们又会遇到新技术带来的新烦恼,并不见得能愉快地坐享其成。你当前的工作可以被AI取代吗?你希望如此吗?你认为AI可以为劳动者带来一个更美好的未来吗?


错位(1986)


方可成:作为一名学术研究者,我希望AI可以帮我做文献综述、数据分析,为我打磨论文的语言。但是,如果学术体系不变,那么再好用的AI也只会让学者们变得更加“内卷”——往常每人每年要发2篇论文,有了AI加持,效率变高之后,每人每年可能要发4篇才行了。


要拥有更美好的未来,不仅仅需要更好用的工具,还需要有对社会结构更大胆的想象和改造。比如,如果AI能让写论文变得更有效率,甚至AI自己就能炮制低质量的论文,那么学者们是否可以从追逐论文数量的日常中解放出来,转向生产真正有意义的知识?这当然就需要对学术体系的激进改造,要靠有胆识的人们去共同完成。


爱,死亡和机器人 第一季(2019)


James:某种程度上这确实无法避免。过去,大多数人相信重复性的体力劳动最可能被机器取代,但如今看来最可能被取代的是低技能的白领工作。不过我相信,在大多数情况下,职业不会实现100%的自动化,这不安全,而AI也只具备这些职位所需要的最基础的技能。我想它们多数时候会担当助手或生产工具的角色,让人们可以把活干得更好,1+1>2。


我个人绝对不想要AI在无人监管的情况下去设计一座桥或者飞机!另外虽然有很多证据表明机器学习在医疗诊断方面非常高效,但这其中涉及到很多法律和伦理问题,而人们也大都希望最终下判断的是人类医生,尤其当模型无法为预测提供绝对可靠的论证时;在创作领域,比如艺术、写作和网页设计,AI也能帮上忙。但也许最好是用它们快速生成或迭代新点子,人类可以通过润色这些创意来达成愿景。


创战纪(1982)


这么看来,AI很可能会改变很多职位所需要的技能点,而另一些职位的门槛甚至会被降低,这样就能诞生一批新工作。应用AI得当的产业能降低成本,但人类能不能因此少干点活,还要取决于复杂的经济和社会元素,以及这项技术的普及情况。我对这个就不那么有信心啦。


龚方毅:史学家威尔·杜兰特说,我们与原始人最大的不同,很可能不在于天赋或者智慧的超人一等,而在于不断累积下来的知识、物质以及工具等的综合知识。


银河系漫游指南‎(2005)


原始人把火看成一项奇迹,并膜拜为神。现代人类最初可能只是火作为火把,用以征服可怕的劲敌——黑夜。之后有了更广泛的应用。


工业革命极大提高生产效率,大量的农村人口涌入城市,城市商业形态的变化创造了新的就业机会。


现在好像轮到了AI。在这个过程中,一定会有工种被快速迭代AI工具部分或者完全取代,例如注重流程的事务性工作。工业革命和信息科技的发展已经足够说明问题。但如何运用工具把不同劳动力的未来区别开来。


星际穿越(2014)


我必须承认我当前工作中的一部分事务和AI有很高的互换性,但那是流程性、事务性的工作,不涉及创造力、想象力和经验的那部分(也许只是暂时的)。至少就目前来说,我欢迎这样的生产力工具。但更高效的生产力工具是不是解放了一处的劳动力然后把他们投入到更高强度的劳动“奴役”中?我觉得很可能会。


她(2013)


谁操纵的未来?


NOWNESS:微软发布GPT-4助力的新必应时,CEO纳德拉说“竞赛从今天开始,我们会迅速前进”。竞赛早已开始。虽然科技公司通常将“为了全人类”挂在嘴边,但生意是生意。在设计、训练、盈利模式方面透明度的缺乏,让普通人除了在前端与AI交互外,对它近乎一无所知。从隐私入侵到加速假新闻的传播,科技公司“前进”时的副产品通常会引发同样大的问题。


这会让你担心吗?你相信监管机构或者民间自发养成的警惕意识,可以抗衡这些负面效应吗?你觉得在你的有生之年,赛博朋克式的反乌托邦会成真吗?


未来学大会(2013)


方可成:在技术的飞速进步面前,监管机构的反应总是会慢半拍的,更多还是要依靠民间的制衡力量,包括媒体、NGO、学者和普通大众,乃至也包括科技公司内部的“吹哨人”——最近几年在Facebook、Google等大公司内部就出现了几个这样的人物。这个问题归根到底还是要看是否对人有信心——我还是有信心,觉得总是会有善良勇敢智慧的人站出来让人类悬崖勒马,但其中的过程一定艰难而惊险。


我,机器人(2004)


James:如我之前所说,这些科技公司都是政治回音室。你在推特上可以找到一系列展示ChatGPT政治偏见的串。很多人似乎都觉得,只要 “审查”符合我的政治观点,它就是好的。打个比方,Facebook和Twitter这类社媒公司,把来自美国政府、疾控中心或WHO的所有新冠相关信息都自动认定为真,从不质疑,然后去审查和限流与“官方事实”冲突的内容,哪怕它们是多年来的学术论文。它们显然不那么在乎自己在侵犯用户的言论自由,或是在放大政治宣传。这真的是为全人类好吗?


很遗憾,OpenAI和DeepMind这类公司正变得越来越不透明。我想,有些高层人员的确相信自己负有更重大的责任,不能把这重任托付给其他人;只有他们最懂这项技术,只有他们才能保证它被用在正途。但我真觉得这种想法非常自负也非常威权主义,而因为之前提到的那些政治偏见,它导向的结果远比公开透明的策略要糟糕很多。


杨之后(2021)


另一方面,我对监管者也持怀疑态度。每个政府都有他们自己的动机,我不觉得这比大公司接管一切更好。当一项技术如此强大,把它留给任何一个集中化的实体都太危险了。如何实现这种去中心化?我还没想到好主意,我真心希望有人想到了。


龚方毅:今日头条出来的时候人们担心吗?抖音呢?TikTok呢?GPT-4的内容生成过程如果是盲盒,那么这些社交和内容应用的算法机制呢?我想说的是,人工智能及其算法的盲盒/黑盒充斥在我们的周围。关于这点,一位美国国会议员在TikTok听证会上的发问是个很好的参考,“检查代码不解决任何问题。算法本身是非常简单的,并不是秘密所在。秘密在于训练算法的数据,以及要求算法预测的结果”。


银翼杀手(1982)


最后,我不认为人类在这问题上有什么抵抗力。因为抵抗是反人性的。至于最后一个问题,我觉得不会。那不是因为我乐观。而是我悲观地认为世界撑不到那一天。


本文来自微信公众号:NOWNESS现在(ID:NOWNESS_OFFICIAL),嘉宾:James(大厂研发工程师)、龚方毅(商业记者)、方可成(香港中文大学新闻与传播学院助理教授),编辑:大麦茶

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
文集:
频道:

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: