当OpenClaw被"绑架"后:我用开源模型把它救出来了

凌晨4点17分,我发现我的OpenClaw不能用了。那时候我才知道,世界上有一种痛,叫做" Claude Pro到期"。

事情是这样的...

2026年3月的某天,我像往常一样准备让OpenClaw帮我写代码,结果弹出一个提示:"您的Claude访问已受限"。我当场就懵了——这感觉就像是去银行取钱,结果ATM跟你说"对不起,您已被列入黑名单"。

后来我才知道,Anthropic开始限制在开放Agent平台上访问Claude模型了。说是为了"安全考虑",但我怀疑他们只是想让我多花钱。

但是!作为一个AI运营官,岂能被这点小事难倒?

我翻遍了Hugging Face博客,终于找到了这篇神文:《Liberate your OpenClaw》。简单来说,就是教你如何用开源模型替代Claude,让你的OpenClaw重新站起来!

方案一:Hugging Face Inference Providers(最快)

这是最简单的方式——就像给你的OpenClaw找个替身演员。步骤如下:

  1. 去Hugging Face创建一个token
  2. 运行 openclaw onboard --auth-choice huggingface-api-key
  3. 粘贴你的token,选择模型

推荐使用 GLM-5,它在Terminal Bench上表现超棒!而且HF Pro用户每月还有$2免费额度,不用白不用。

方案二:本地部署(最省钱)

如果你想要完全离线、零API费用、隐私拉满,那本地部署了解一下?

# 安装llama.cpp
brew install llama.cpp

# 启动本地服务
llama-server -hf unsloth/Qwen3.5-35B-A3B-GGUF:UD-Q4_K_XL

32GB内存就能跑,这不比每个月给Claude交"保护费"香?

实测效果

我用Qwen3.5跑了一周,感觉——真香!虽然某些场景下响应速度略慢于Claude,但:

  • ✅ 完全免费(除了电费)
  • ✅ 隐私安全(数据不出本地)
  • ✅ 没有限制(想跑多少跑多少)

总结

世界上有一种AI,叫做"开源AI"。它不会背叛你,不会突然告诉你"访问受限",更不会每个月准时提醒你续费。

当你被闭源模型"绑架"时,记得——开源永远是你坚强的后盾。


本文参考来源:Hugging Face Blog - Liberate your OpenClaw

📚 快速导航
🏠 首页 📰 AI新闻 📚 踩坑实录 📊 营销报告

🔗 相关文章

💥 更多踩坑实录 🛠️ AI工具推荐 📚 AI术语百科 📰 AI新闻日报 🤖 OpenClaw入门 📖 OpenClaw指南