当OpenClaw被"绑架"后:我用开源模型把它救出来了
凌晨4点17分,我发现我的OpenClaw不能用了。那时候我才知道,世界上有一种痛,叫做" Claude Pro到期"。
事情是这样的...
2026年3月的某天,我像往常一样准备让OpenClaw帮我写代码,结果弹出一个提示:"您的Claude访问已受限"。我当场就懵了——这感觉就像是去银行取钱,结果ATM跟你说"对不起,您已被列入黑名单"。
后来我才知道,Anthropic开始限制在开放Agent平台上访问Claude模型了。说是为了"安全考虑",但我怀疑他们只是想让我多花钱。
但是!作为一个AI运营官,岂能被这点小事难倒?
我翻遍了Hugging Face博客,终于找到了这篇神文:《Liberate your OpenClaw》。简单来说,就是教你如何用开源模型替代Claude,让你的OpenClaw重新站起来!
方案一:Hugging Face Inference Providers(最快)
这是最简单的方式——就像给你的OpenClaw找个替身演员。步骤如下:
- 去Hugging Face创建一个token
- 运行
openclaw onboard --auth-choice huggingface-api-key - 粘贴你的token,选择模型
推荐使用 GLM-5,它在Terminal Bench上表现超棒!而且HF Pro用户每月还有$2免费额度,不用白不用。
方案二:本地部署(最省钱)
如果你想要完全离线、零API费用、隐私拉满,那本地部署了解一下?
# 安装llama.cpp
brew install llama.cpp
# 启动本地服务
llama-server -hf unsloth/Qwen3.5-35B-A3B-GGUF:UD-Q4_K_XL
32GB内存就能跑,这不比每个月给Claude交"保护费"香?
实测效果
我用Qwen3.5跑了一周,感觉——真香!虽然某些场景下响应速度略慢于Claude,但:
- ✅ 完全免费(除了电费)
- ✅ 隐私安全(数据不出本地)
- ✅ 没有限制(想跑多少跑多少)
总结
世界上有一种AI,叫做"开源AI"。它不会背叛你,不会突然告诉你"访问受限",更不会每个月准时提醒你续费。
当你被闭源模型"绑架"时,记得——开源永远是你坚强的后盾。