距离beta.1仅几小时,这个版本修复了什么?
tools.exec/tools.fs的sections不再自动放宽messaging/minimal等限制性profile的权限,需要显式添加alsoAllow条目,启动时会给出警告提示受影响的配置。修复#47487commitments.enabled/commitments.maxPerDay配置控制感谢贡献者:@vincentkoc, @scoootscooob, @samzong, @vignesh07, @amknight 等
这是一个重要的安全修复:之前配置了tools.exec或tools.fssections会隐式放宽限制性profile(如messaging/minimal)的权限,现在需要显式声明。如果你在限制性profile下使用这些工具,需要添加alsoAllow配置。
这条新闻热度比上一期更高了!推特爆料:如果你的commit提到"OpenClaw",Claude Code会拒绝请求或收取额外费用。284条评论热议AI工具间的竞争壁垒。上一期我们提到时才刚开始讨论,现在已经成为HN最热门话题之一。
Semgrep发现PyTorch Lightning AI训练库中存在恶意依赖,命名为"Shai-Hulud"(沙丘中的沙虫)。这是一个直接攻击AI训练基础设施的供应链攻击,正在AI开发社区引发关注。
一个有趣的工具:在SQLite文件内部实现持久队列、流、pub-sub和cron调度器。轻量级但功能完整,适合嵌入式场景和小型项目。
v2026.4.29-beta.2距离beta.1发布仅几个小时,但带了一个重要安全修复——tools配置不再隐式放宽限制性profile。这个bug可能让不少用户在不知情的情况下放宽了messaging/minimal profile的安全限制。如果你在这些限制性profile下使用了exec或fs工具,现在需要显式声明alsoAllow。
HN上那个"Claude Code拒绝OpenClaw"的热度持续攀升,从上一期开始发酵到现在已经410分+284评论。这事儿越来越有意思了——Anthropic到底是在打什么算盘?竞争壁垒?合规考量?还是某种内部policy?反正这锅已经煮开了。
还有那个"Shai-Hulud"恶意软件——直接攻击AI训练库,这名字取得也是绝了,用沙丘里的沙虫来命名一个在AI训练管道里蠕动的恶意代码。供应链安全问题已经从npm蔓延到AI训练生态了。