扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
一款名为Slow LLM的插件通过人为延迟AI响应速度,迫使使用者重新思考对AI的依赖。开发者认为过度依赖AI可能导致认知能力退化,而刻意制造的"摩擦"能唤醒独立思考意识。 ## 1. Slow LLM的工作原理与部署方式 - 通过篡改JavaScript的Fetch函数实现延迟效果,AI服务器实际正常运行但响应被故意延缓 - 提供Chrome插件和DNS两种部署方案,后者可影响整个局域网的AI服务 - 开发者已开源代码,技术用户可自建延迟服务器 ## 2. 开发者背后的设计哲学 - 针对互联网产品"消除摩擦"的核心理念提出挑战 - 认为AI过度简化认知过程,导致"技能大退化"和"认知扭曲" - 2025年研究显示高频AI使用者批判性思维显著下降,年轻群体尤甚 ## 3. 技术依赖的自我矛盾现象 - 开发者承认使用Claude编写部分代码,后被自己的工具强制切换至手动模式 - 类比计算器/GPS等历史争议,但指出LLM的"主动输出"特性更危险 - "扩展心智理论"认为AI不同于被动工具,会直接替代思考过程 ## 4. 社会实验的现实意义 - 类似前作Zoom Escaper,旨在暴露技术便利背后的代价 - 不追求彻底禁用AI,而是通过"刻意停顿"建立使用缓冲 - 研究显示依赖形成自我强化循环:用得越多独立能力越弱
2026-03-30 11:44

这个“反人类”AI插件,专门让你体验DeepSeek宕机的感觉

本文来自微信公众号: APPSO ,作者:发现明日产品的,原文标题:《这个「反人类」AI插件,专门让你体验DeepSeek宕机的感觉|附安装地址》


昨晚开始DeepSeek崩了,工程师奋战12小时后早上终于修复。



这次宕机引发网友一片哀嚎,因为对很多人来说,「生活已经不能没有AI了。」


这句话,越来越多的人说出口时,语气已经不像抱怨,更像陈述一个事实。写作业问AI,理思路问AI,不知道吃什么也问AI。


顺滑、即时、永远在线,我们已经默认AI就应该如此。但从来如此,便对吗?



官方宣传语:你是否隐隐担忧,自己或身边的人正在:参与一场席卷所有人的技能大退化?遭受LLM诱发的认知扭曲?把思考和情感,一并外包给AI自动补全?现在就把SLOW LLM装进你的电脑,或者你在乎的人的电脑吧!🔗https://slowllm.lav.io/


一个名为Sam Lavigne的大学教授,最近发布并开源了一款名为「Slow LLM」的AI工具。


顾名思义,它做的事情十分「缺德」且专一:让Claude、ChatGPT、Grok甚至Gemini的响应速度,变得极其、极其缓慢。


而整个过程里,AI其实一直在正常工作。


一段被「劫持的代码


Slow LLM的原理,其实并不复杂。


浏览器每次从服务器拉取数据,都要经过一个叫Fetch的JavaScript函数。你问ChatGPT一个问题,它的回答从OpenAI服务器出发、抵达你的页面,中间就是靠这个函数完成传输的。


正常情况下,这个过程会很快。


Slow LLM做的事情,是在你访问AI聊天网站的时候,悄悄把这个函数替换掉。换成一个长得一样、但会故意拖延的版本。数据其实已经到了,只是被一点一点、极其缓慢地释放给页面。


这真不是一张静止图


所以你得到的那段漫长的等待,是真实的体验,背后其实没有任何技术故障。OpenAI的服务器正常运转,Claude的推理没有卡住,网络也没有问题。整件事只是Lavigne的几行代码在中间「掐着水管」。


考虑到易用性,Slow LLM提供了两种部署方式。第一种是安装Chrome插件,只影响你自己的设备,随时可以关掉。



APPSO也实测过,装上之后效果确实相当明显,对话框里的文字一个字一个字往外蹦,有种等待网页加载的那种煎熬。


第二种是走「企业版」路线,把家里路由器的DNS服务器改成Lavigne提供的自定义地址,整个网络上的所有设备同时受影响,覆盖Claude、ChatGPT,DNS版本还能顺带拖慢Grok和Gemini。


Lavigne已经在Github上把代码全部开源,自建DNS对有一点技术基础的人来说并不困难。他自己还没在「毫不知情的人」身上测试过,但说他在考虑。


「也许他们会愤怒地退出LLM。」



Github地址:https://github.com/antiboredom/slow-llm


看到这里,你一定满头问号:Lavigne图什么?要理解Lavigne的脑回路,先得知道他是什么人。


公开资料显示,他目前是德克萨斯大学奥斯汀分校设计系的助理教授,此前在纽约大学和帕森斯设计学院都待过。他的研究和创作长期围绕着互联网数据、自动化与算法正义打转。


换句话说,他不是随手搞了个恶作剧的黑客,他花了很多年在严肃地思考,计算系统是如何悄悄重塑人类行为的。


想要理解他的逻辑,我们还需要先搞懂硅谷产品经理们最痛恨的一个词:摩擦(Friction)。


在互联网的语境里,「摩擦」是原罪。


一个多余的跳转按钮是摩擦,支付时需要输入密码是摩擦,甚至AI回复慢了两秒,也是不可饶恕的摩擦。过去这十几年,产品经理的核心逻辑就是消除一切「摩擦」,提高转化率高,提高体验的丝滑度。


Lavigne认为,LLM把这个逻辑推到了一个让人不安的极端。任何让你感到困难或不适的认知劳动,现在都可以外包。写邮件太费脑子?外包。不知道该不该道歉?外包。今天情绪低落找不到原因?也可以外包。


AI正在把自己变成一个什么都能接的垃圾桶,接管一切你不想自己做的思考。这听起来像是一件好事。效率提高了,烦恼变少了,输出变多了。但人类最宝贵的独立思考步骤却在这个过程里悄悄消失了。


学钢琴之所以值得,是因为它很难。一道卡住你三个小时的数学题之所以留下印象,是因为你在上面真实地挣扎过。


写一封措辞困难的邮件,逼着你想清楚自己到底想说什么、对方会怎么理解——这个过程本身就是一种训练,哪怕结果不完美。


Lavigne观察到,他的学生和朋友们已经开始用AI处理那些本来可以靠自己完成的基本任务。写邮件、整理思路、做简单的决定。时间长了,他们开始忘记那些曾经学会的东西。


「人们越依赖LLM,这种去技能化就会越极端。」


于是他选择了一个很朴素的对策:如果AI让一切变得太顺滑,那就把阻力还回去,哪怕只是让你多等几分钟,让你有机会想一想「这件事我能不能自己来」。


一个关于自我矛盾的诚实


如果你翻过Lavigne的履历,就会发现他酷爱折腾互联网那些理所当然的规则。


在2021年居家办公的高峰期,无数人被无休止的视频会议折磨得痛不欲生。当时,Lavigne开发了一款神作——「Zoom Escaper」。


这个工具可以在你的Zoom音频流里制造逼真的婴儿哭声、狂吠的狗、电钻声甚至糟糕的网络回音。只要你开启它,你的存在就会变得让所有参会者难以忍受,从而名正言顺地逃离会议。


🔗https://zoomescaper.com/


他和他的搭档甚至还做过一个叫「SlopAvoider」的浏览器插件,功能是屏蔽掉2022年11月(ChatGPT发布)之后的所有搜索结果,以此来躲避如今互联网上泛滥的AI垃圾内容。


但相比于此前这些项目,Slow LLM还有一个有趣的细节。Lavigne在开发这个项目的时候,用的是Claude。写了一部分代码之后,他把Slow LLM部署上去,Claude开始变得极其缓慢,他才被迫靠自己把项目做完。


是的,一个批评AI依赖的人,在做这件事的时候,自己也依赖了AI。



这种处境其实很普遍,只是大多数人不会主动说出来。你可能会在刷完半小时短视频之后发一条「短视频真的上瘾」,也可能会边点外卖边转发「外卖毁了厨艺」的长文。


人对自己正在批判的东西产生依赖,几乎是一种很难绕开的处境。因为你没有办法从一个完全外部的位置批判一个已经渗透进日常的技术。


Lavigne没有试图扮演一个清醒的局外人。


他坦白了自己用了AI,然后被自己的工具逼着,独立完成了项目的事实。这个过程本身,就是Slow LLM想制造的体验:停下来,自己做,然后发现其实做得到。


不是彻底不用AI,而是用之前,先等一等,想一想。片刻的停顿,才是Slow LLM真正的价值。



回顾历史,每隔几年,总会有一种新工具引发「人类正在变笨」的恐慌。


计算器让人不会心算,GPS让人失去方向感,搜索引擎让人记忆力退化。然后呢?天并没有塌下来,人类活得好好的,只是把那部分脑力腾出来去处理别的事情了。


或许是由于「人类总会适应」,这句话被验证了太多次,以至于每次有人提出类似担忧,都会被当作杞人忧天。只是,面对大语言模型,这套屡试不爽的乐观主义说辞,可能真的要打上一个大大的问号了。


哲学家Andy Clark和David Chalmers提出过「扩展心智理论」:人类的认知从来就不只在颅骨里,纸笔、日历、手机导航,这些工具在功能上早已成为大脑的延伸。计算器和搜索引擎完美嵌入这个框架,因为它们是被动的——你问,它答,框定问题的人始终是你。


大语言模型的逻辑完全不同。它是主动的,给你的不只是一个答案,而是一套完整的、看起来无懈可击的解题路径。在你真正开始思考之前,AI已经完成了筛选、归纳和重构,把一个打磨过的结论直接推到你眼前。


这套机制,恰好绕过了独立思考得以发生的那个关键环节。长期处在这种模式里,人的独立推理能力很难说不会因此退化。


这种判断并非没有数据支撑。


2025年一项覆盖600余名参与者的研究显示,高频AI使用者的批判性思维能力出现了显著下滑,且呈自我强化态势:用得越多,越依赖,越难独立。年轻群体中,这一趋势尤为突出。


更麻烦的是,这种侵蚀没有明确的发生时刻。你不会在某一天突然意识到「我不会思考了」,只是不知从什么时候开始,遇到问题的第一反应从「让我想想」变成了「问一下AI」。


Slow LLM改变不了什么。


Lavigne自己心里也清楚,但它就像一颗硌脚的石子,突兀、刻意,同时也用一种近乎「没事找事」的卡顿,把一个老生常谈的问题重新摆到桌面上:


每一次把思考「外包」给AI,我们是否正在被温水煮青蛙般地,丢掉人类最宝贵、却也最难被替代的思考能力?


当然,现实情况是,对于绝大多数人来说,我们永远不会去思考这个问题。


因为AI实在太好用了,好用到质疑它本身就显得矫情。那些隐隐的不安还没浮出水面,就已经被AI下一个满意的输出结果淹没了。

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

支持一下

赞赏

0人已赞赏

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: