搬家换到联通后,美国节点突然没那么香了

最近搬家,家里的宽带从电信换成了联通。平时看剧、打游戏,其实没什么明显感觉,直到前两天想下点资料,习惯性切到美国节点,速度怎么都上不去,我当时有点傻眼。

这事后来想明白了。以前我一直以为,美国机房带宽给得足,所以美国节点天然更猛。现在看,这个认知只对了一半。美国服务器资源足是一回事,国内这边走哪家宽带、国际出口怎么走、回程有没有吃到更好的骨干,才是另一半。以前用电信没暴露的问题,换到联通以后,全出来了。

架构一换,Hermes 和 OpenClaw 的 token 就不是一个吃法

昨天那篇《把 Hermes 当成 OpenClaw 替代品,可能一开始就看偏了》写完以后,我又去翻了一圈两边的文档。越翻越觉得,真要看这两个东西差在哪,光看功能还不够,看 token 怎么烧,反而更直接。

我的判断先摆这。

OpenClaw 默认更像一个长期在线的工作台,很多身份、规则、工作区文件、消息面约束,会天然跟着每轮对话走,所以基础盘通常更重。Hermes 则明显更克制一点,很多上下文是按需发现、按需注入,系统提示词也在刻意维持稳定前缀,默认情况下更容易把 token 压住。

当然,这话不是说 Hermes 一定更省。你把 memory provider、skills、sub-agent、长工具输出全开起来,一样能烧得飞起。但是说白了,这两套架构从第一天起,就不是同一种吃 token 的方式。

把 Hermes 当成 OpenClaw 替代品,可能一开始就看偏了

这两天我把 Hermes 和 OpenClaw 的文档来回翻了一圈,越看越觉得,很多人把这两个项目放在一起比,其实一开始就比偏了。

它们当然都在做“个人 AI 助手”。都能接消息、调模型、跑工具、留住一点上下文。Hermes 甚至还专门做了 hermes claw migrate,摆明了是知道自己会接到一批 OpenClaw 用户。

但是说白了,Hermes 不是换皮版 OpenClaw,OpenClaw 也不是多了几个消息入口的 agent framework。一个是从 Gateway 往外长,一个是从 AIAgent 往外长。这个差别不先看明白,后面谈架构、设计理念和生态,基本都会越聊越乱。

AI 写 Demo 很快,返工也是真的快

最近拿 AI 起一个 C++ 小项目,最容易傻眼的时刻,不是它写不出来,而是它三分钟给你拼出一套像模像样的目录树,顺手再塞几个三方库,Demo 还真能跑。问题也在这。你连新引进来的库到底支持什么、编译链路怎么走、边界在哪,都还没摸清,后面返工基本跑不掉。

我现在越来越觉得,AI 编程最怕的不是模型笨,而是起手太贪。尤其是 C++ 这种没什么脚手架兜底的语言,你前面少想一步,后面就得在编译、链接、库版本、目录结构上多还几步。

VS Code 调 C++,别漏了 CMake 和 GDB Printer

以前我在 VS Code 里调 C++,配置基本就停在 launch.json,最多再加一句 GDB。

program 填好,把 gdb 填好,把断点打好。然后呢?然后每次调试前,自己去终端里 cmake --build 一下。

更烦的是,自定义的价格、合约、订单类型断下来以后,VS Code 调试窗口经常只能看到一堆内部字段。数据是对的,但是不说人话。

这事离谱的地方在于,我以前看过的一些教程也差不多就写到 launch.json 为止。直到最近让 AI 配一个新项目,它顺手加了 preLaunchTaskgdb_printers.py,我才反应过来:VS Code 调 C++,不只是把 GDB 启起来。调试前可以自动触发 CMake 编译,断点停住以后,也可以让 GDB 加载 Python 脚本,把业务类型处理成自己看得懂的样子。

说实话,这不是什么黑科技。

但是它刚好补上了 C++ 日常调试里两块很烦的空白:启动前构建,以及断点后的变量展示

文件夹分层再套 namespace,这事到底叫什么

最近写算法服务,twapvwap 这类模块一铺开,我又把这个老问题翻出来了。

C++ 里如果还靠类名硬扛语义,名字很快就会失控。TwapOrderManagerVwapOrderManagerAlgoOrderManager 这种东西,写着写着就一股子“我知道自己结构没收住,但我先把前缀补上”的味道。说白了,按文件夹分层,再配一层 namespace,不是代码洁癖,这是在补 C++ 没有 Java 那种原生 package 体系的空位。

谷歌这次把 Gemma 4 放开了(三)

显存不够为什么会断崖,Mac 为什么能兜底却快不起来

这次刷论坛,最让我长记性的不是哪家又发了榜单,而是一句很土的话,显存不够,参数再大也白搭。

以前我总把“模型慢”理解成算力问题。后来越看越明白,很多时候根本不是 GPU 算不动,而是数据没法待在对的地方。只要内存路径一变,token 速度就不是慢一点,是直接掉下去。

谷歌这次把 Gemma 4 放开了(二)

3060 12GB 本地跑下来,26B A4B 才是更现实的那个

如果只看榜单,最容易心动的肯定是 31B

但真把机器搬出来,还是那台没升级的 RTX 3060 12GB,判断马上就会变。怎么说呢,本地部署这件事,最后拼的不是谁最风光,而是谁最像能长期相处的那个。对我来说,这次真正值得先跑的,不是 31B,而是 26B A4B