原创 刘小排 刘小排r 2025年09月08日 20:41
大家好,我是刘小排。
由于众所周知的原因,我一边在用着Claude Code,一边在积极寻找能够替代它的同类工具,尤其是国产工具。
昨天有一个国产英雄,它在正面硬刚Anthropic和Claude Code。测试后发现还不错,跟大家正式介绍下。它是GLM 4.5。
省流版
最大的优点
- 目前国内 唯一 提供 包月套餐 的一线AI编程产品 。最低套餐价格人民币20元/月,但我推荐你购买100元/月的套餐
- 对Claude Code等编程工具做过专门适配, 一键搬家,无感平替
一些小缺憾
- 不支持多模态,不理解图片。 目前国内头部几家AI厂商都不支持。
2. 上下文较短,只有128K (官方说很快会扩)
总评
- 如果不考虑多模态能力,几乎和claude-sonnet-4 同等水平,区别不大
- 包月套餐真便宜 。
- 可以用于实战。
购买方式
如果你的使用量不大,可以先试试20元的月套餐尝鲜,也就是一杯咖啡的钱。
如果你是想要用于实际生产工作, 我推荐你购买100元的月套餐 ,用于日常编码,几乎不会遇到使用量限制。
一键让GLM平替Claude Code
到这创建API Key
https://bigmodel.cn/usercenter/proj-mgmt/apikeys

复制以下命令到命令行
https://docs.bigmodel.cn/cn/guide/develop/claude
export ANTHROPIC_BASE_URL=https://open.bigmodel.cn/api/anthropicexport ANTHROPIC_AUTH_TOKEN=替换成你的KEYclaude
执行后,如下图所示。

如果我问:你是什么模型?
它有时候会告诉我它是Anthropic公司开发的……
不用相信它的回答,因为此刻我的已经断开魔法网络了。 它肯定是GLM 4.5。
购买100元套餐后,提升GLM智能水平的邪修玩法
在使用原版Claude Code时,由于我订阅的是每个月$200的满中满套餐,我会显式选择Opus-4.1模型,最大化它的智能水平。
如果用GLM 4.5驱动Claude Code 是否也可以这样玩呢?
答案是肯定的!
我在GLM官方文档中发现了一个小彩蛋!
根据官方文档, GLM会自动切换对用户的请求做路由,会把轻量级的任务,使用GLM-4.5-Air模型。
对话/规划/代码编写/复杂推理等主场景时默认使用模型均为 GLM-4.5,Claude code 会在部分轻量任务时自动路由到 GLM-4.5-Air,这也是我们推荐的使用方式,兼顾性能、速度与价格,暂不支持其它模型(如 GLM-4.5-X/AirX/Flash 等)。
也就是说 —— 我们可以反其道而行之, 如果我们把所有GLM模型都设置为旗舰的GLM-4.5,避免它自动路由请求到GLM-4.5-air,就能最大化GLM的智能水平。
操作方式: 手动打开 ~/.claude/settings.json ,让两个模型都走glm-4.5,而不是glm-4.5-air。 如下所示
"env": {
"ANTHROPIC_MODEL": "glm-4.5",
"ANTHROPIC_SMALL_FAST_MODEL": "glm-4.5"
},
有人可能会问: 这样岂不是写代码的速度会变慢?
我不同意这种看法。
我认为:效率最高的工作方式,是不返工,而不是单次出token的速度。
如果方向错了,走得快,就是错得快。