Categories

132 个页面

计算机

记录计算机相关的知识与实践,包括编程技巧、技术探索和学习心得

AI 会写代码了,新人靠什么练级

最近这几个月我用 Claude、Codex 这种东西写代码,最强烈的感受不是“程序员要没了”,而是很多以前会丢给新人练手的活,它已经能先打一版了。写个脚手架,补几个测试,顺手改个小功能,一顿操作下来,速度确实快,快到有点意难平。

这事对我这种毕业十年的人,说实话更多是提效。因为我大概知道哪里能信,哪里不能信,哪里看起来跑通了,其实后面埋着坑。但是对刚毕业的人,这件事就没那么轻松了。AI 不只是来抢几小时体力活,它更像是在压缩“新人怎么从不会到会”的那条老路。这也是我想单独写一下的地方。

token 更少,为什么 GPT-5.5 在 Codex 里反而更贵了

傻眼了。

ChatGPT 官方这边一直不太好直接看 token 和费用,我就找了个三方平台,在 Codex 里拿 GPT-5.4 和 GPT-5.5 跑了一轮同类任务,思考模式都拉到 high。结果很直白,简单问题还算温和,GPT-5.5 比 GPT-5.4 大概贵了 30% 左右;一上复杂任务,费用直接干到 2.6 倍,连请求次数和 token 消耗都一起往上走。

我现在的判断也很直白:这不是一句“5.5 单价更贵”就能说完的事。简单问题里,贵主要贵在单价;复杂任务里,贵的其实是整条调用链。但是反过来看,5.5 也确实更像是在替你吃掉返工成本。模型更愿意多想、多做、多检查几步,最后账单不是按一句回答算,而是按整套动作算,人也少来回折腾几轮。

ChatGPT Images 2.0 很强,截图以后还能信吗

开始我其实没想着测。刷到 OpenAI 在 2026 年 4 月 21 日发 ChatGPT Images 2.0 的新闻时,我的第一反应是,又一个图像版本更新。直到我瞅了眼 Artificial Analysis 的榜单,GPT Image 2 (high) 已经排到文本生成图片第一,Elo 1332,我就有点意难平,还是去试了几轮。

结果挺直接,中文效果很好,漫画也能做,连续多张图的角色和叙事稳定性也上来了。但我后面越试越觉得,这次真正值得写的不是“它更会画了”,而是“它开始让一些原来默认可信的东西变得不太可信了”。这件事比排行榜更麻烦。

这轮模型大战,已经卷到价格和芯片上了

今晚刷模型消息,确实有点傻眼。

按官网时间线看,这波密集更新其实是连着来的:2026-04-20 Moonshot 把 Kimi K2.6 挂上首页;2026-04-22 小米正式放出 MiMo-V2.5MiMo-V2.5-Pro2026-04-23 OpenAI 发布 GPT-5.5,API 定价也一起抬了上去;2026-04-24 DeepSeek 又把 V4 Preview 推出来。顺手说一句,群里常说的“小米 2.5”,严格点讲应该是 Xiaomi MiMo-V2.5 / V2.5-Pro,不是一个模糊代号。

我现在的判断很直接:这轮已经不是单纯的模型发版潮了,而是三条线一起打起来了——模型能力、API 价格、芯片栈归属。谁只讲其中一条,基本都容易看偏。也正因为三条线开始咬在一起,大模型这个赛道才会显得这么白热化。

最强模型先锁起来,AI 公司开始卖门禁

这两天刷到 Anthropic 在 2026 年 4 月 7 日放出来的 Project Glasswing,我第一反应有点傻眼。不是因为又一个模型分数更高了,而是它把最强那档能力先锁进了一个小圈子里,先给 AWS、Apple、Google、微软、Linux Foundation 这些防守方用。

我自己的判断很直接:这事比又一个 benchmark 破纪录更重要。前沿 AI 公司现在卖的,已经不只是模型本身,而是“谁先拿到能力、能拿到多少能力、拿到之后要承受什么审计和约束”这一整套访问控制。模型越来越像危险工具,发布节奏也越来越像发放许可证。

搬家换到联通后,美国节点突然没那么香了

最近搬家,家里的宽带从电信换成了联通。平时看剧、打游戏,其实没什么明显感觉,直到前两天想下点资料,习惯性切到美国节点,速度怎么都上不去,我当时有点傻眼。

这事后来想明白了。以前我一直以为,美国机房带宽给得足,所以美国节点天然更猛。现在看,这个认知只对了一半。美国服务器资源足是一回事,国内这边走哪家宽带、国际出口怎么走、回程有没有吃到更好的骨干,才是另一半。以前用电信没暴露的问题,换到联通以后,全出来了。

架构一换,Hermes 和 OpenClaw 的 token 就不是一个吃法

昨天那篇《把 Hermes 当成 OpenClaw 替代品,可能一开始就看偏了》写完以后,我又去翻了一圈两边的文档。越翻越觉得,真要看这两个东西差在哪,光看功能还不够,看 token 怎么烧,反而更直接。

我的判断先摆这。

OpenClaw 默认更像一个长期在线的工作台,很多身份、规则、工作区文件、消息面约束,会天然跟着每轮对话走,所以基础盘通常更重。Hermes 则明显更克制一点,很多上下文是按需发现、按需注入,系统提示词也在刻意维持稳定前缀,默认情况下更容易把 token 压住。

当然,这话不是说 Hermes 一定更省。你把 memory provider、skills、sub-agent、长工具输出全开起来,一样能烧得飞起。但是说白了,这两套架构从第一天起,就不是同一种吃 token 的方式。

把 Hermes 当成 OpenClaw 替代品,可能一开始就看偏了

这两天我把 Hermes 和 OpenClaw 的文档来回翻了一圈,越看越觉得,很多人把这两个项目放在一起比,其实一开始就比偏了。

它们当然都在做“个人 AI 助手”。都能接消息、调模型、跑工具、留住一点上下文。Hermes 甚至还专门做了 hermes claw migrate,摆明了是知道自己会接到一批 OpenClaw 用户。

但是说白了,Hermes 不是换皮版 OpenClaw,OpenClaw 也不是多了几个消息入口的 agent framework。一个是从 Gateway 往外长,一个是从 AIAgent 往外长。这个差别不先看明白,后面谈架构、设计理念和生态,基本都会越聊越乱。