扫码打开虎嗅APP
本文来自微信公众号: 歸藏的AI工具箱 ,作者:歸藏的 AI 工具箱,原文标题:《我给 Claude Code 做了个 AI 硬件监工》
前几天,Anthropic开源了claude-desktop-buddy,用一块小屏幕显示Claude Code里Buddy的状态。
我看到后想:手头刚好有一块M5Paper墨水屏开发板,能不能把这个项目迁移过来?
结果做着做着,它变成了一个完全不同的东西:M5 Paper Buddy(https://github.com/op7418/m5-paper-buddy)。
支持通过这个墨水屏设备蓝牙连接你的电脑,监控所有Cluade Code对话状态,还能快速审批对应的操作。

当你同时跑3-4个Claude Code窗口时,终端切来切去很烦。
你不知道哪个窗口在跑任务、哪个在等你审批、哪个已经闲置了。
而且Claude Code的Permission System需要你在终端里进行审批操作(bash命令、文件编辑等)。
如果你离开电脑,就没法审批,任务就卡住了,除非你开自动模式。
终端擅长输入,不擅长当"状态面板"。
所以我想做一个独立的物理设备,专门用来监控Claude Code的状态、审批操作。

多会话Dashboard
所有Claude Code窗口的状态显示在一个一个叫M5 Paper的墨水屏上:
每个会话显示:上下文使用量(45.8K/200K)、模型(Opus 4.7)、项目名、分支、dirty文件数。
触屏点击可以切换关注的会话,右侧显示该会话的详细信息(最近回复、活动日志)。
比如我在写AIGC Weekly时,同时跑3个项目。
看一眼就知道每个的进度,以及他们当前的状态。

M5Stack是一个以模块化、积木式堆叠设计闻名的ESP32开源物联网硬件生态,而M5Paper则是该生态中一款专为低功耗信息看板打造的触控墨水屏极客终端。
Claude Code需要你在终端里进行审批操作。
•
全屏显示审批卡:tool名+项目+完整内容(bash命令原文/edit的diff/write的文件预览)
•
PUSH按钮同意,DOWN按钮拒绝
•
审批记录在活动日志里留痕
物理按键更有仪式感。
尤其是rm-rf、git push--force这种高风险操作,按物理按钮会让你更慎重。
而且你可以看到完整的diff或命令内容,不用在终端里上下翻页。

通过蓝牙连接电脑,可以离开书桌审批操作。
比如你在沙发上看书,Claude在跑测试,突然需要审批一个bash命令。
墨水屏在桌上亮了,拿起来按一下按钮就行。
配对后自动连接,断电保持状态。
硬件:M5Paper V1.1(ESP32+4.7寸墨水屏+3个物理按键+GT911电容触屏)
架构:Claude Code→Bridge Daemon(Python)→M5Paper(蓝牙/USB)
协议:JSON行分隔,向后兼容
中文支持:3.4MB TTF字体,专门写了codepoint-aware的wrapText

Anthropic的claude-desktop-buddy是单会话、只显示状态、不支持审批。
主要用来显示Buddy的状态,是个好玩的玩具。
M5 Paper Buddy支持多会话、触屏切换、物理按键审批、蓝牙远程控制。
增强了工具属性,而且利用了M5 Paper设备的大屏幕。
Anthropic官方项目用的也是M5Stack硬件。
开源协议、开源代码,天天敌视国内涉及到硬件还得用国内生态。

这个项目本质上是"手机小组件的物理化"。
手机小组件只能"显示信息",不能"交互"。
你不能在小组件上按按钮、不能语音回复、不能触屏操作。
如果把它做成物理设备:
•
可以有按键和触屏
•
"永远亮着"(墨水屏不耗电,断电保持显示)
•
不依赖手机屏幕,但和手机/电脑的AI Agent保持连接
形态可以很多样:磁吸在手机背面、挂在背包上(像挂件)、放在桌上(像桌面陪伴)
现在的M5 Paper Buddy是墨水屏+物理按键,但这只是第一步。
真正的"陪伴"应该是:无论你在哪里,它都能主动告诉你信息,然后你再回复。
不需要你盯着屏幕,不需要你走到设备前。
语音交互会是下一步。
但物理按键和语音不是替代关系,而是互补:
•
在书桌前,你需要看屏幕、按按钮(尤其是高风险操作)
•
离开书桌,你需要语音播报、语音回复

其实这些技术都不新。
墨水屏、蓝牙、触摸屏都是成熟技术,M5Stack、Arduino这种模块化硬件也早就有了。
但为什么以前没人做这种东西?
我觉得是因为做硬件的和做AI的是两拨人。
做硬件的(苹果、三星)关心怎么卖更多手机,不关心"AI Agent状态监控"。
做AI的(OpenAI、Anthropic)关心模型能力,不关心硬件形态。
但现在不一样了。
我做这个项目的时候,几乎没碰过硬件开发。
以前做硬件需要懂电路设计、画PCB、读几百页的datasheet。
现在M5Stack买回来就能用,官方提供完整的库和示例代码。
遇到问题,AI可以帮你读datasheet、写驱动、调试代码。
更重要的是深圳供应链。快速打样(1-2周)、小批量量产、成本低(M5Paper¥500)。
做AI的人可以很快出一个Demo,去跟做硬件的人沟通交流。
再加上3D打印,你可以做出很精致的外壳。
社区有大量开源模型(Thingiverse、Printables)。
所以现在做AI的人可以做硬件了。
个人开发者可以先做出来,大公司还在立项。

我觉得有几个原因:开源(所有人都能改)、可玩性(不只是"有用",而是"好玩")、低门槛(模块化+AI辅助开发)。
M5 Paper Buddy也是这个思路:开源(GPL-3.0)、可玩性(桌面陪伴、物理审批的仪式感)、低门槛(两条命令:/buddy-install+/buddy-start)。
AI和物理世界的交互,不应该只有机器人、自动驾驶这种"大硬件"。
这种模块化的小硬件,门槛低得多,可玩性也强。再搭配3D打印,会有不少玩法。
但大公司慢。做硬件需要供应链、认证、渠道,从立项到上市至少1-2年。
以前他们没做,可能是因为比较迟钝,而且做硬件和做AI的是两拨人。
所以现在有个窗口期。个人开发者可以先做出来,开源社区可以先验证概念。
等大公司做出来,社区已经有成熟方案了。

我觉得AI的下一步不只是更强的模型,还有物理世界的交互。
不只是机器人、自动驾驶这种"大硬件",也包括桌面小设备、可穿戴设备、手机配件这种"小硬件"。
M5 Paper Buddy是一个例子。把AI的状态和决策"物理化",让手机小组件从屏幕里走出来。
•
你的桌上可能有一个"AI监工"(墨水屏+按键)。
•
你的手机背面可能有一个"AI小组件"(磁吸+触屏)。
•
你的背包上可能有一个"AI挂件"(语音+震动)。
这些可能都不是大公司的产品,而是开源社区的创作。

GitHub地址:https://github.com/op7418/m5-paper-buddy
安装方式:
/buddy-install#在Claude Code里运行/buddy-start#启动连接