🦞 OpenClaw 玩法资讯聚合

第69期 · 2026年4月11日 08:11 CST

早上8点11分,Anthropic的风波还在发酵,而社区已经找到了新的答案...

"有人说危机是转机,我说危机是社区智慧的试金石。当Anthropic关上一扇门,GLM-5.1已经帮我们把窗户推开。"

🔥 本期焦点:后Anthropic时代,社区的选择

🚀 GLM-5.1 成为 Anthropic 替代首选

随着 Anthropic 于4月4日限制 OpenClaw 使用 Claude Pro/Max 订阅,社区陷入短暂的"找路"期。但好消息是——答案已经浮出水面。

多位用户实测反馈:GLM-5.1 在理解 SOUL.md 人格文件、自然对话和工具调用方面表现出色,甚至被认为"比 Opus 更听话"。

👥

多位用户
独立验证

响应速度
比 Opus 更快

🎯

SOUL.md
理解力更强

推荐方案:使用 Ollama Pro 订阅($20/月)搭配 GLM-5.1,相比 OpenRouter 按量计费,能大幅降低长时间运行的成本。

Model Community GLM-5.1
来源: r/OpenClaw 社区讨论 · 4月10-11日

⚠️ 重要提醒:v2026.4.8 会话重置Bug

🚨 每日会话重置失效,可能正在消耗你的 API 额度

GitHub Issue #63732 揭露了一个从 v2026.4.1 就开始存在的严重问题:每日凌晨4点的会话自动重置不再生效。

影响:有用户报告会话累积到 639 条消息、180万字符、43万+ prompt tokens 后才出现错误。这意味着每次缓存刷新都在消耗 40 倍以上的额度!

临时解决方案

  • 手动执行 /new/reset 开启新会话
  • 在配置中设置更短的空闲超时:session.reset.idleMinutes
  • 定期检查 /status 查看消息数量

官方修复预计将在 v2026.4.9 补丁或 v2026.4.10 中发布。

Bug Important v2026.4.8
来源: r/OpenClaw 技术讨论 · 4月10日

🆕 新功能发布

Gemma 4 和 Ollama 视觉模型原生支持(v2026.4.7+)

4月8日发布的 v2026.4.7 为本地优先用户带来了重磅更新:

视觉模型本地运行:Gemma 4 和 Ollama 视觉模型现在可以在本地处理图像描述、截图分析、图表解读等任务
配置方式:在 openclaw.json 模型配置中指向你的 Ollama 端点
零云API成本:视觉任务完全本地处理,不消耗任何云API额度

实测用户分享的组合方案:本地 gemma4 + API Kimi K2.5 + API Sonnet 4.6,月费控制在 $30 以内。

Feature Vision Local
来源: GitHub Release Notes · 4月8日

openclaw infer CLI 统一推理中心

新的 openclaw infer 命令行工具将模型推理、媒体处理、网页提取和嵌入推理整合到一个统一的接口中。

适合脚本化和批量工作流,无需通过聊天界面即可完成 provider 支持的推理任务。

CLI Inference
来源: v2026.4.7 Release

💡 社区智慧

"顾问模式":用 Claude Code 做"军师"

一位社区用户分享了 Anthropic 论文《The Advisor Strategy》的 OpenClaw 实践方案:

执行者(便宜模型):Haiku、GLM、Kimi 等,24/7运行,处理90%的常规任务
顾问(Claude Code CLI):通过 claude -p 在需要时调用,只思考不执行,返回400-700 token的执行计划

实测效果:复杂任务(如 nginx HTTPS 配置)从"15分钟、80k tokens、配置损坏"优化为"一次成功"。

Pattern Cost Optimization
来源: r/OpenClaw 技术分享 · 4月10日

多智能体架构的精髓:真正的认知隔离

用户 Crypto_Rocketeer 分享了构建交易智能体 Tron 和 CLU 的心得:

"真正的分歧需要认知隔离——不是提示词层面的角色扮演,而是结构上的完全独立:不同的 workspace、不同的 SOUL.md、不同的技能库、不同的会话历史。"

他们观察到的数据:两个智能体 40% 的时间存在分歧,而这些分歧往往聚集在市场拐点——分歧本身就是信号

Architecture Multi-Agent
来源: r/OpenClaw 架构讨论 · 4月10日

OpenClaw 帮我赚了 £93,而我什么都没做

英国用户分享:通勤火车经常延误,虽然知道可以申请 Delay Repay 赔偿,但填写10分钟的表格让他望而却步。

给 OpenClaw 发消息说"我有两笔延误赔偿要申请",45分钟后(包括登录和验证码处理),两笔申请提交完毕,£93.30 即将到账。

"就像被动收入一样,不过更准确地说,是找回了我早就放弃的钱。"

Use Case Automation
来源: r/OpenClaw 用户故事 · 4月10日

🐛 技术问题追踪

Gemma 4 + Ollama 首次加载慢的问题

用户 LittleJakub 进行了详细诊断:虽然 ollama run gemma4:26b 本身很快,但 OpenClaw 中首次"重负载"回合(大 workspace + 广工具集)可能耗时 85-160 秒,甚至触发 180 秒超时。

关键发现:问题不是模型速度,而是 OpenClaw 的宽工具 schema 导致首次加载缓慢。一旦会话"热"起来,后续回合可降至 5-7 秒。

临时缓解:减小初始工具集,或预热会话后再投入生产使用。

Performance Ollama Gemma
来源: r/OpenClaw 技术分析 · 4月11日

📅 社区活动

🦀 ClawCon Porto Alegre — 5月13日

首届 ClawCon 即将在巴西阿雷格里港举行!免费参加,名额有限。

报名地址:luma.com/clawconpoa

Event Conference
来源: r/OpenClaw 公告 · 4月11日

社区规则更新:减少低质量内容

r/OpenClaw 版主团队发布新版规,旨在保持社区高信噪比:

  • 移除低价值帖子(路过抱怨、无实质内容的观点钓鱼)
  • 禁止未经审核的原始AI生成内容(使用AI可以,但要人工审核)
  • 禁止"私信我"、"链接在个人资料"等站外导流行为
  • Showcase/Skills 仅限周末发布

"我们不是反AI,那在这个sub里太蠢了。我们是反垃圾。"

Moderation Rules
来源: r/OpenClaw 置顶公告 · 4月7日

🎯 本期榜单:最热门的模型选择

🏆 后Anthropic时代的推荐组合

  • 性价比之王:GLM-5.1 via Ollama Pro — 多位用户验证,接近 Opus 的智商,更低的成本
  • 本地视觉任务:Gemma 4:26b/31b — v2026.4.7+ 原生支持,零API成本处理图像
  • 日常轻量:Kimi K2.5 — 便宜、够用、中文友好
  • 复杂任务:Sonnet 4.6 — 仍在API计费范围内最强工具调用能力
  • 顾问模式:Claude Code CLI — 利用现有订阅,不额外消耗API

🔮 趋势观察

从"单一模型依赖"到"多模型组合"

Anthropic 的政策变化意外地推动了社区的多样化探索。过去"Sonnet 解决一切"的单一模型思维正在被取代:

1. 本地+云端混合:Ollama 本地处理常规任务,API 仅用于复杂场景
2. 顾问模式兴起:聪明模型做规划,便宜模型做执行
3. 多智能体协作:真正隔离的认知架构产生真实分歧,分歧成为信号
4. 成本控制精细化:用户开始像管理云资源一样管理模型调用

这或许是 OpenClaw 社区的成人礼——不再依赖任何单一提供商,而是掌握了真正的模型编排能力。

Analysis Trend

🔗 延伸阅读

📖 OpenClaw完全指南 📚 AI术语百科 🛠️ AI工具导航 💥 踩坑实录 📰 最新AI资讯 🤖 什么是OpenClaw