扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
2026-02-04 21:56

AI是划时代的分水岭,三大分层3年时间不等人

本文来自微信公众号: 不懂经 ,作者:不懂经也叔的Rust


未来学家雷·库兹韦尔在2006年预言:人类将在2029年实现通用人工智能。很多人都觉得这是痴人说梦。18年后的今天,这个曾经荒诞的预言,已经成为一部分人的共识。


昨天,《nature》杂志发表了一篇引发争议的文章。四位来自哲学、机器学习、语言学和认知科学领域的学者联名宣布:通用人工智能(AGI)已经到来。


证据看起来确实无可辩驳。2025年3月,GPT-4.5在图灵测试中,73%的情况下被人类判断为人类,比真人更像人。大语言模型在国际数学奥林匹克竞赛中获得金牌,与顶尖数学家合作证明定理,协助专业程序员编写代码,用几十种语言流畅交流。


按照图灵在1950年设定的标准,机器已经展现出“广泛而灵活的认知能力”,达到了人类水平的智能。


但有一个更深刻的问题,很少有人关注和讨论:当AGI真的到来,当机器获得了与人类相当水平的智能,人类如何避免沦为机器的工具,或奴隶?



2026年1月,最近当红的AI模型claude的母公司Anthropic发布了一项研究。52名专业程序员参与实验,学习新的Python异步编程库。一半人可以使用AI辅助,一半人独立完成。


令人惊讶的是,使用AI的人,平均测验分数比不用AI的人低了17%,整整两个等级分。也就是说,滥用AI比不用AI还危险。


更重要的是,AI组内部出现了巨大的分化:会用AI的人得分86%,完全依赖AI的人只有24%。


AI不是中立的工具。它像一面放大镜,放大你原本的学习方式,以及你和强大算力之间的距离。


如果你本来就善于思考和学习,AI让你如虎添翼。如果你本来就依赖别人和捷径,AI加速你的退化。如果你本来就没有学习的机会,AI让鸿沟变成天堑。


这个简单的实验,揭示了一个正在发生的现实和趋势:以AI为分水岭,人类正在经历一场无声的分化,整个社会正在分为三个层级。


忘掉阶层固化,一场新的“大分流”已然降临


第一层世界:那些被排除在外的人


2025年,腾讯新闻报道过一个细节:中国某县城的教师在课堂上讲数学题,题目涉及地铁换乘。孩子们一脸茫然。他们从未见过地铁。老师也没见过。


联合国开发计划署在2025年12月发布的报告《下一次大分化》中说:低收入国家的网络普及率只有27%,高收入国家已经达到93%。当硅谷的孩子3岁开始用AI辅助学习时,世界上还有相当多的人没有接触过AI。


这个群体包括中国的流动儿童和留守儿童、发展中国家从事高度可替代工作的劳动力、那些被制度性障碍困住的人。他们没有“选择不用AI”,只是“接触不到AI”。


国家信息中心大数据发展部人工智能处处长刘枝在接受采访时说了一句意味深长的话:“关键窗口期决定了其极为宝贵且转瞬即逝。落后的追赶者要投入远超窗口期内的资金成本,还将付出更大的时间成本。”


意思很明白:现在不上车,以后恐怕永远上不了车。


中国社科院学部委员蔡昉在《求是》杂志撰文指出,非认知能力的最佳培养时间在3-4岁。错过这个窗口,终身难以弥补。当精英家庭的孩子3岁就开始培养“为什么”思维时,县城的孩子14岁才第一次见到DeepSeek。认知起点的差距,已经无法追赶。


Openclaw掀起AI大航海时代:我们是哥伦布,还是被发现的印第安人?



而在另外一个方面,正如《权力的48条法则》的作者、畅销书作家罗伯特·格林(Robert Greene)最近所言,


“未来最大的分野将是:一部分人训练自己能够应对这些复杂性,而另一部分人则被这些复杂性所压倒;一部分人能够获得技能并约束自己的思想,而另一部分人则被周围的各种媒体无可挽回地分散了注意力,永远无法集中精力去学习。”


在这个短视频和算法推送的时代,这种对注意力主权的掌控,也和受教育的资格或培养一个健全孩子的时间窗口一样,一旦失去就很难重新把握。就像《纽约客》杂志不久前的文章所说,可能将沦为“永久底层”。


第二层世界:正在被认知外包吞噬的人


Anthropic的实验揭示了一个现象:那些完全依赖AI的人,虽然完成任务最快(19.5分钟),但测验得分最低(39%)。他们连监督AI的能力都没有了。


新华网在2025年10月的报道中引用了一个概念:“AI乘客”vs“AI驾驭者”。美国AI教育公司Section 4的CEO格雷格·肖夫预测:未来10年,知识型劳动者将分化为两类。


“AI乘客”把认知工作全权交给AI,短期内或因效率提升而获得认可,但随着AI能力迭代,这些人终将被AI取代。


之前,麻省理工媒体实验室的研究发现:长期使用AI会导致大脑神经连接减少。脑电图扫描显示,长期使用AI大语言模型的人,大脑神经连接数降低,影响语言和行为等层面。微软和卡内基梅隆大学的研究也发现:生成式AI削弱批判性思维能力,导致过度依赖。


Anthropic论文中有一个叫“Progressive AI Reliance”(渐进式AI依赖)的模式:第一个任务还自己做,第二个任务就完全交给AI了。最后测验得分:35%。这就是大多数人正在走的路。


美国纳什维尔的高中文学教师墨菲·肯尼菲克痛心地说:“我亲眼目睹学生的批判性思维和注意力被AI彻底摧毁。”他发现至少40例学生用AI作弊。更讽刺的是,当学生被识破时,反应往往是漠然地耸耸肩,他们对写作过程的重要性毫无认知。


浙江大学管理学院吴苏青团队2025年在《科学报告》发表的研究显示:AI应用带来认知需求的“空心化”。当AI完成工作的“烧脑”部分,人类仅剩机械性执行,工作沦为“被动填空”,导致心理疏离,丧失工作动力。


这就是第二层人的命运:在享受效率红利的过程中,悄无声息地被掏空。看似走上了快车道,其实是一条通往沉没的岔路。


最后的狂欢:在通往新世界的吊桥升起之前


第三层世界:那些保持认知主动性和注意力主权的人


但Anthropic的实验也揭示了另一个真相:并非所有用AI的人都会退化。那些测验得分86%的人,他们用AI的方式完全不同。


论文把这种模式叫做“Generation-Then-Comprehension”(先生成后理解)。他们让AI生成代码,然后追问:“为什么这样写?”主动测试边界情况,把AI当老师,不只当工具。


还有一种叫“Conceptual Inquiry”(概念探究)。他们只问AI概念性问题,所有代码都自己写,遇到错误独立解决,保持认知主导权,绝不把严肃思维的工作外包给AI。


这些人有一个共同特征:认知参与度高,主动思考“为什么”,不回避错误和困难。关键洞察在于:他们遇到了更多错误。实验数据显示,对照组(不用AI)平均遇到3个错误,AI高分组遇到2-3个错误,AI低分组只遇到1个错误。


那些完全依赖AI的人,代码第一次运行就成功了,看起来很高效。但他们失去了最宝贵的学习机会。因为调试的过程,才是理解原理的过程。


这让我想起哲学家海德格尔的一个概念:“工具的退隐”。当一个工具运作良好时,我们不会注意到它的存在。只有当工具出现故障时,我们才会意识到它的工作原理。


AI的问题恰恰在于:它太好用了,它接管了从想法到结果的所有痛苦的中间过程,甚至接管了想法本身,以至于让我们忘记了“为什么”。


Anthropic的研究者在论文结尾写了一句话:“AI增强的生产力并不能通往能力的捷径。在安全关键领域,必须谨慎地将AI整合进工作流程,以保护技能形成。”


这句话揭示了一个被忽视的真相:技能的本质是“理解”。理解需要知道“怎么做”,更要知道“为什么”,理解需要挣扎、犯错、调试,不能走捷径。


大翻转之年:关于2026年及更远未来AI世界的深层预测


马太效应:差距正在以指数级速度扩大


三层分化本身或许还不够严重。真正严重的是:这三层之间的差距,正在以指数级速度扩大。


AI专家吴恩达近期在宣布AI Fund完成1.9亿美元募资时强调:“创业成功的首要预测因素就是速度。”


但他接着说了更关键的一句话:“真正稀缺的是‘技术理解力’,因为技术在快速演进。”这句话体现出马太效应的气质:先发优势乘以理解力,等于不可逆的差距。


这两年我们已经可以非常明显地看到,那些掌握了技术优势和算力优势的个体,正在百倍甚至千倍的优势,一骑绝尘,遥遥领先,把大多人甩在后面。


让我们看一个时间轴推演。


2026年(现在),第三层开始用“正确方式”使用AI,构建“技术理解力”。第二层享受AI带来的效率红利,沾沾自喜。第一层还不知道发生了什么。


2028年(2年后),第三层技能复利开始显现,成为“AI+领域专家”,占据关键岗位。第二层基础技能退化,开始依赖AI才能完成工作,失去判断力。第一层劳动力市场压力骤增,被迫快速学习AI,但窗口期已过。


2030年(4年后),第三层驾驭AGI,创造新价值,获取资本收益。第二层被AI取代(因为失去了监督AI的能力)。第一层被第二层挤压,沦为“经济无用阶层”。


最残酷的发现:第二层和第一层的终点是一样的,都会被淘汰,或者远远拉在后面。区别只是:第二层体验过“效率红利”后跌落,第一层从未起飞就坠毁。


IMF在2025年1月发布的工作论文《AI Adoption and Inequality》提出了一个矛盾的预测:AI可能降低工资不平等(因为冲击高收入岗位),但会扩大财富不平等(因为精英能利用AI获取资本收益)。


换句话说:工资差距缩小了,因为大家都变穷了;但财富差距史无前例地扩大了。


李开复作为中国AI领域的未来学家,曾多次发表关于AI带来的社会变革和就业流失的见解。他强调:“由于AI技术比预期发展得更快,这种社会变革的时间线也大大缩短了。”


硅谷顶级风投A16z的投资人在2025年的预测报告中指出:OpenAI和宾夕法尼亚大学的研究显示,有了大模型,约15%的美国工人任务可以更快完成。而用了大模型构建的软件或工具,这一比例可提升至47%-56%。


谷歌的AI负责人、诺贝尔奖得主哈萨比斯,在一月份的达沃斯论坛上更是语出惊人。他认为AI革命比工业革命大一百倍,而更恐怖的是它将会发生在十年到二十年的时间内。


所以,可以说,这种巨大的压缩效应,使得接下来的三年,成为决定无数人命运的时间窗口。


AI时代的风险是锁死,2026年打工人更应该马上开始创业


关键窗口期:一道正在关闭的门


2030年之前的几年被很多人视为关键窗口期。


OpenAI前研究员Leopold Aschenbrenner在2024年发布了165页的报告,预测OpenAI最早可在2027年实现AGI。他感叹:“真正理解AI正在多快进化的人也许只有几百个。”


山姆·奥特曼曾在多个场合表示:我们距离AI超级智能可能只有“几千天”。几千天是多久?可能是十年,可能是五年,也可能是三年。


我们也分享过著名开源人工智能公司Stability AI创始人的一本重磅作品,《最后的经济学》。书中提出,我们正处在一个根本性规则被重写的历史性“相变”之中。这不是一个渐进的改良,而是一个不可逆的转折点,其核心驱动力是人工智能的指数级发展。


作者估计,完成这一转变、使旧规则彻底失效的“窗口期”大约只有一千天。


但窗口期对于不同的人,意义完全不同。对第三层人,这是建立不可逾越优势的时机。对第二层人,这是最后的转型机会。对第一层人,这是一道正在关闭的门。


奥特曼曾在一次访谈中说:“在稳定时期,市场格局固定,大公司有资源、渠道、品牌,新公司很难突围。但在技术剧变期,原来的规则被打破了。这时候,谁能在混乱中找到方向,谁就可能脱颖而出。”


但他没说的是:大多数人连“混乱”都看不见。


最后的经济学:传统经济学的七大致命谎言与AI认知的七宗谬误


直面AI的出路:三条生存法则


基于Anthropic论文的科学证据,我觉得有三条生存法则,供大家参考:


法则一:永远保持认知参与。


AI一定要用,并尽量使用最强的模型,但不能依赖AI,不要使用应试教育的方式用AI,要用AI学习如何学习。


不要把AI生成的内容当作“成品”,要当作“初稿”。强制自己追问“为什么”。论文证据:高分组都是“主动提问型”,得分65%-86%。低分组是“被动接受型”,得分24%-39%。


让AI生成内容后,问它:“为什么这样设计?”主动挑战AI的答案:“有没有更好的方法?”把AI当作陪练,辅助你思考,而非替你思考。


法则二:不要回避错误,要尽快尽可能地犯错。


允许自己犯错和调试。论文证据:对照组遇到3倍错误,反而学得更好。错误是不可外包的学习过程。先自己尝试,实在不行再问AI。


多用AI去解决问题,去创作作品或产品,一定要投身到这一场AI创富的浪潮当中;而不仅仅满足于获得了什么信息,学到了什么知识或技能,因为今天的大部分技能可能很快就会过时。但是那种能够迅速完整地创作一件东西、赚到一份收入的感觉和体会是不会过时的。


法则三:培养元认知能力。


不仅要“会做”,更要“懂为什么”。论文证据:概念理解得分差距最显著。高分组对原理的理解远超低分组。理解原理才能监督AI。


学习任何新技能时,先理解底层逻辑。不满足于“能用”,追求“懂原理”。培养“第一性原理”思维,成为AI的主人,更好地导演你人生的剧本。


未来一个人可以没有工资,但不能没有头寸


古希腊哲学家赫拉克利特说:“人不能两次踏进同一条河流。”AI时代的河流,流速比任何时代都快。而且,没有人能够置身事外。


如果你是第一层:窗口期虽然在关闭,但还没有完全关上。关键是:跳过“依赖陷阱”,直接学“驾驭方法”。不要追求“快速上手”,要追求“深度理解”。


如果你是第二层:停下来,检查自己是否完全依赖AI生成内容、从不问“为什么”、遇到错误就让AI修复。如果是,你正在自我废除。改变还来得及。从今天开始,保持认知参与,主动挣扎,培养判断力。


如果你是第三层:记住:这不是零和游戏。如果第一层和第二层都被淘汰,谁来支撑这个社会?谁来消费你创造的产品?谁来维持文明的多样性?人类作为整体需要升级。


《自然》杂志昨天那篇文章的作者写道:AGI的到来,意味着我们必须重新思“智能”这个概念本身。但更重要的问题是:当机器获得了与人类相当水平的智能,人类如何避免沦为机器的工具?【懂】

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

大 家 都 在 搜