扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
Anthropic两次泄露核心代码暴露Claude Code精密架构,中国AI公司可借鉴其工程思维但需避免直接抄袭,关键在于理解设计原理并针对性优化。 ## 1. Claude Code泄露事件与架构亮点 - **59.8MB源码意外曝光**:3月31日安全研究员发现npm包内含source map文件,导致51.2万行TypeScript代码泄露,GitHub镜像仓库"claw-code"两小时获5万星。 - **三层记忆系统创新**:包含常驻内存的轻量索引(MEMORY.md)、按需加载的主题文件、grep检索的原始对话,优化有限上下文窗口下的工作效率。 - **KAIROS守护进程模式**:具备autoDream记忆整合功能,使AI从被动工具转向主动协作者,含44个未上线功能如多代理协调和语音交互。 ## 2. 中国AI公司的四堂必修课 - **工具描述即竞争力**:Claude Code对每个工具的prompt描述精细到使用场景和错误处理(2.9万行工具定义),国内产品多停留在基础函数签名调用。 - **记忆架构决定体验**:分层记忆策略(热/温/冷数据)的工程实现领先国内响应式产品,通义灵码等尚未达到同等精细度。 - **情绪检测的工程思维**:用"frustration regex"正则表达式低成本识别用户情绪,避免过度依赖大模型推理。 - **守护进程模式预示方向**:KAIROS的always-on特性展示AI助手将从响应式转向预判式,国内产品均未实现该形态。 ## 3. 合法借鉴与技术边界 - **法律风险明确**:泄露代码仍属商业软件,"claw-code"宣称用Rust重写但核心逻辑照搬可能侵权,出海企业需谨慎评估。 - **技术适配性挑战**:Claude Code设计针对Claude模型特性(如长上下文),直接套用于其他模型可能导致性能下降。 - **快照与迭代差距**:泄露代码含44个feature flag预示重大更新,简单fork难以持续,应吸收架构思想而非具体实现。
2026-04-01 12:16

中国AI 公司,该怎么“抄Claude Code 的作业”?

本文来自微信公众号: 极客公园 ,作者:桦林舞王,编辑:靖宇,原文标题:《中国 AI 公司,该怎么「抄 Claude Code 的作业」?》


如果几天前有人告诉我,号称「最重视AI安全」的Anthropic,会在一周之内连续泄露两次核心机密,我大概会觉得这是愚人节段子。


但它偏偏发生在愚人节前一天。


3月31日,安全研究员Chaofan Shou发现,Anthropic在npm上发布的Claude Code 2.1.88版本里,塞了一个59.8MB的source map文件。这个本该用于内部调试的文件,指向了Anthropic自己Cloudflare R2存储桶里的一个zip压缩包——里面是Claude Code完整的TypeScript源代码,约1900个文件,51.2万行代码。


几小时内,GitHub上出现了多个镜像仓库。其中一个名叫「claw-code」的项目,两小时内拿下5万颗星,成为GitHub历史上涨星最快的仓库。fork数超过4.15万。


而就在五天前,Anthropic刚刚因为一个未加保护的公开数据缓存,泄露了下一代模型「Mythos」的存在——一个被内部描述为「能力阶跃式提升」、在网络安全能力上「远超所有现有AI模型」的新模型。


一周两次泄露。一个讲安全的公司,被自己的安全问题打了脸。开发者社区的评价相当统一——「讽刺得不真实」。


但讽刺归讽刺,泄露出来的东西,是真的有料。一个更重要的问题是,AI公司,应该如何利用这次「泄露」,抄作业?


01


Claude Code「壳子」里有什么?


很多人第一反应是:Claude Code不就是一个套了模型API的命令行工具吗?源代码泄露了又怎样,没有模型权重,这些代码不过是个「壳子」。


这个判断对了一半。Claude Code确实是个壳子,但它是一个精密到让人意外的壳子。


先看工具系统。Claude Code采用了类似插件的架构,每种能力——文件读写、shell执行、网页抓取、LSP集成——都是一个独立的、有权限管控的工具模块。光是工具定义层就有2.9万行TypeScript。


每个工具的描述不是简单的一句话,而是详细到告诉模型「什么时候该用这个工具、怎么用、用完之后期望什么结果」。这些描述本身就是一种精心调优的prompt engineering。


再看记忆系统。泄露代码揭示了一个三层「自修复记忆」架构。最底层是MEMORY.md,一个轻量级索引文件,每行大约150个字符,始终加载在上下文中。具体的项目知识分散在「主题文件」里,按需加载。原始对话记录则永远不会整体回读到上下文中,只在需要时通过grep检索特定标识符。


也就是说,Anthropic的工程师花了大量时间解决的核心问题,不是「怎么调用API」,而是「怎么在有限的上下文窗口里,让模型尽可能聪明地工作」。


然后是那个让所有人都兴奋的KAIROS。


这个以古希腊语「恰当的时机」命名的功能,在源代码中被提及超过150次。它是一个自主守护进程模式,让Claude Code作为一个always-on的后台代理持续运行。更有意思的是它的「autoDream」逻辑——在用户空闲时,代理会进行「记忆整合」,合并零散观察、消除逻辑矛盾、把模糊洞察转化为确定性事实。


换句话说,Anthropic正在让AI编程助手从「你问我答」的工具,进化为一个「持续理解你的项目、主动发现问题」的协作者。


此外,泄露代码还包含44个未上线的feature flag,覆盖了多代理协调模式(COORDINATOR MODE)、语音交互(VOICE_MODE)、30分钟远程规划会话(ULTRAPLAN),甚至还有一个拓麻歌子风格的终端宠物(BUDDY),有18个物种和稀有度等级。


还有两个细节值得一提。一个是「frustration regex」——一段正则表达式,用来检测用户是否在骂Claude。用正则比用模型推理来判断用户情绪要快得多、便宜得多。


另一个是「undercover mode」,Anthropic用Claude Code给公开的开源项目做「隐身贡献」,系统提示词明确写着:「你正在UNDERCOVER模式下运行……你的commit信息不能包含任何Anthropic内部信息。不要暴露身份。」


02


中国AI公司能学到什么


现在回到真正重要的问题。


过去一年,中国AI编程工具赛道明显加速。字节的Trae已经从最初的MarsCode演进为一个AI原生IDE,集成了Agent模式,支持从需求理解到代码编写再到测试的全流程自动化。智谱的CodeGeeX主打开源和本地部署,在中文代码理解上做了深度优化。通义灵码、豆包MarsCode也都在快速迭代。


但如果拿这些产品和Claude Code泄露的架构对比,差距不在「能不能用」,而在工程精细度上。


第一课:工具描述就是产品力。


这可能是最容易被忽视、也最值得学的一点。


Claude Code对每个工具的prompt描述经过了极其精细的调优——什么时候用、什么时候不用、用了之后怎么处理结果、出错了怎么重试。这些描述本质上是在教模型「怎么做一个好的程序员」。


国内很多工具的tool use实现还停留在「给模型一个函数签名,让它自己猜怎么用」的阶段。光是把工具描述写到Claude Code的水平,就能让同一个模型的表现提升一个档次。


第二课:记忆架构,比模型参数更影响用户体验。


Claude Code的三层记忆系统解决的是一个很现实的问题——模型的上下文窗口是有限的,你不能把所有历史对话都塞进去。


Anthropic的做法是把记忆分层——热数据始终在线,温数据按需加载,冷数据只做索引。这种思路并不新鲜,但它在AI编程工具里的工程实现,国内团队大多还没做到这个精细度。


第三课:情绪感知不是玄学,是工程问题。


用一段正则表达式检测用户是否在发火,然后调整回复策略。


这个方案简单到粗暴,但极其实用。它告诉你一个道理——好的AI产品不是每个问题都需要用模型来解决,有时候一个regex就够了。


国内做AI工具的团队,经常陷入「所有问题都要丢给大模型」的思维惯性,这是一种浪费。


第四课:KAIROS指向的方向,比KAIROS本身更重要。


一个always-on的后台代理,在用户不用的时候自动整理记忆、发现问题。


这个产品方向意味着AI编程助手的下一步不是「更快地回答问题」,而是「在你没有问问题的时候,就已经在工作」。


目前国内的AI编程工具几乎全部是响应式的——用户发指令,工具执行。


谁先把守护进程模式做出来,谁就可能定义下一代产品形态。


03


「抄」的边界在哪里


当然,学习和抄袭之间有一条线。


法律层面,这不是开源代码,而是意外泄露的商业软件。直接基于泄露代码构建产品,版权风险是明确的。GitHub上「claw-code」宣称要用Rust重写,但如果核心逻辑照搬,法律边界依然模糊。


对于中国公司来说,在出海压力越来越大的背景下,这种风险需要认真评估。


技术层面,Claude Code的很多设计决策,是针对Claude模型能力深度定制的。比如它的工具描述写得那么长、那么详细,是因为Claude的长上下文处理能力足够强,不会因为系统提示词太长而「走神」。换成上下文窗口短、指令遵循弱的模型,照搬同样的prompt策略可能适得其反。


真正聪明的做法不是fork这51万行代码,而是理解每一个设计决策背后的tradeoff,然后针对自己的模型特点重新实现。


架构思路可以学,工具编排模式可以学,记忆分层策略可以学——但实现必须是自己的。


还有一个容易被忽略的现实——Anthropic泄露的是一个快照,而他们的工程团队每天都在迭代。44个feature flag意味着至少十几个重大功能在排队上线。


你今天fork的代码,下个月就是旧版本。追着抄,永远追不上;理解了原理,才能跑出自己的路线。


这次泄露最大的意义可能不在技术细节,而在于它撕掉了一层神秘感——原来Anthropic最核心的AI编程工具,底层也不过是精心设计的prompt编排,加上工程化的工具调度。


没有黑魔法,只有大量的细节打磨。


这对中国AI公司来说,其实是个好消息。它意味着差距是可以弥合的。前提是,你得有耐心去打磨那些细节——而不是想着直接把别人的代码拿过来改个名字。

本内容由作者授权发布,观点仅代表作者本人,不代表虎嗅立场。
如对本稿件有异议或投诉,请联系 tougao@huxiu.com。

支持一下

赞赏

0人已赞赏

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: