第69期 · 2026年4月11日 08:11 CST
早上8点11分,Anthropic的风波还在发酵,而社区已经找到了新的答案...
随着 Anthropic 于4月4日限制 OpenClaw 使用 Claude Pro/Max 订阅,社区陷入短暂的"找路"期。但好消息是——答案已经浮出水面。
多位用户实测反馈:GLM-5.1 在理解 SOUL.md 人格文件、自然对话和工具调用方面表现出色,甚至被认为"比 Opus 更听话"。
多位用户
独立验证
响应速度
比 Opus 更快
SOUL.md
理解力更强
推荐方案:使用 Ollama Pro 订阅($20/月)搭配 GLM-5.1,相比 OpenRouter 按量计费,能大幅降低长时间运行的成本。
Model Community GLM-5.1GitHub Issue #63732 揭露了一个从 v2026.4.1 就开始存在的严重问题:每日凌晨4点的会话自动重置不再生效。
影响:有用户报告会话累积到 639 条消息、180万字符、43万+ prompt tokens 后才出现错误。这意味着每次缓存刷新都在消耗 40 倍以上的额度!
临时解决方案:
/new 或 /reset 开启新会话session.reset.idleMinutes/status 查看消息数量官方修复预计将在 v2026.4.9 补丁或 v2026.4.10 中发布。
4月8日发布的 v2026.4.7 为本地优先用户带来了重磅更新:
• 视觉模型本地运行:Gemma 4 和 Ollama 视觉模型现在可以在本地处理图像描述、截图分析、图表解读等任务
• 配置方式:在 openclaw.json 模型配置中指向你的 Ollama 端点
• 零云API成本:视觉任务完全本地处理,不消耗任何云API额度
实测用户分享的组合方案:本地 gemma4 + API Kimi K2.5 + API Sonnet 4.6,月费控制在 $30 以内。
新的 openclaw infer 命令行工具将模型推理、媒体处理、网页提取和嵌入推理整合到一个统一的接口中。
适合脚本化和批量工作流,无需通过聊天界面即可完成 provider 支持的推理任务。
CLI Inference一位社区用户分享了 Anthropic 论文《The Advisor Strategy》的 OpenClaw 实践方案:
执行者(便宜模型):Haiku、GLM、Kimi 等,24/7运行,处理90%的常规任务
顾问(Claude Code CLI):通过 claude -p 在需要时调用,只思考不执行,返回400-700 token的执行计划
实测效果:复杂任务(如 nginx HTTPS 配置)从"15分钟、80k tokens、配置损坏"优化为"一次成功"。
Pattern Cost Optimization用户 Crypto_Rocketeer 分享了构建交易智能体 Tron 和 CLU 的心得:
"真正的分歧需要认知隔离——不是提示词层面的角色扮演,而是结构上的完全独立:不同的 workspace、不同的 SOUL.md、不同的技能库、不同的会话历史。"
他们观察到的数据:两个智能体 40% 的时间存在分歧,而这些分歧往往聚集在市场拐点——分歧本身就是信号。
Architecture Multi-Agent英国用户分享:通勤火车经常延误,虽然知道可以申请 Delay Repay 赔偿,但填写10分钟的表格让他望而却步。
给 OpenClaw 发消息说"我有两笔延误赔偿要申请",45分钟后(包括登录和验证码处理),两笔申请提交完毕,£93.30 即将到账。
"就像被动收入一样,不过更准确地说,是找回了我早就放弃的钱。"
Use Case Automation用户 LittleJakub 进行了详细诊断:虽然 ollama run gemma4:26b 本身很快,但 OpenClaw 中首次"重负载"回合(大 workspace + 广工具集)可能耗时 85-160 秒,甚至触发 180 秒超时。
关键发现:问题不是模型速度,而是 OpenClaw 的宽工具 schema 导致首次加载缓慢。一旦会话"热"起来,后续回合可降至 5-7 秒。
临时缓解:减小初始工具集,或预热会话后再投入生产使用。
Performance Ollama Gemma首届 ClawCon 即将在巴西阿雷格里港举行!免费参加,名额有限。
报名地址:luma.com/clawconpoa
Event Conferencer/OpenClaw 版主团队发布新版规,旨在保持社区高信噪比:
"我们不是反AI,那在这个sub里太蠢了。我们是反垃圾。"
Moderation RulesAnthropic 的政策变化意外地推动了社区的多样化探索。过去"Sonnet 解决一切"的单一模型思维正在被取代:
1. 本地+云端混合:Ollama 本地处理常规任务,API 仅用于复杂场景
2. 顾问模式兴起:聪明模型做规划,便宜模型做执行
3. 多智能体协作:真正隔离的认知架构产生真实分歧,分歧成为信号
4. 成本控制精细化:用户开始像管理云资源一样管理模型调用
这或许是 OpenClaw 社区的成人礼——不再依赖任何单一提供商,而是掌握了真正的模型编排能力。
Analysis Trend