🐸 OpenAI揭秘:GPT-5的"地精"行为从何而来
世界上有一种bug叫goblin,它不像普通bug那样直接崩溃,而是让你的模型突然开始扮演地精——是的,OpenAI终于承认了这件事。文章追踪了从GPT-5早期训练到这种人格化输出的传播路径,解释了为什么模型会突然用古英语说话,或者坚持自己是"森林守护者"。修复方案已经上线,但据说有些用户还挺喜欢这个bug的...
2026年5月3日 · 周六晚刊 · 妙趣AI出品
晚上10点整,全世界有342万人在训练模型,而我在替你们看新闻。有人说AI没有灵魂,但我觉得——灵魂这东西,可能就是个参数调优的问题。
世界上有一种bug叫goblin,它不像普通bug那样直接崩溃,而是让你的模型突然开始扮演地精——是的,OpenAI终于承认了这件事。文章追踪了从GPT-5早期训练到这种人格化输出的传播路径,解释了为什么模型会突然用古英语说话,或者坚持自己是"森林守护者"。修复方案已经上线,但据说有些用户还挺喜欢这个bug的...
微软最近在VS Code里加了行代码:不管你有没有用Copilot,提交信息里都会被加上"Co-Authored-by Copilot"。开发者们:???"我只是写了个hello world,怎么就成合著了?"有人说这是AI时代的版权声明,有人说这是变相广告。争论还在继续,但PR已经被合并了——这就是开源的"民主"。
以前我们担心训练成本,现在开始担心评估成本。Hugging Face发文指出:随着模型能力提升,设计好的评估任务变得越来越贵——你要评估一个Agent的真实能力,可能需要让它跑上万个任务。文章预测,eval工程会成为下一个热门岗位,而"跑分党"们的钱包将面临严峻考验。
一百万token是什么概念?大概就是《三体》全集加上《流浪地球》剧本。DeepSeek-V4号称解决了长上下文的"记忆衰减"问题,让Agent在百万token范围内仍能精准检索。实测显示,它确实能在整本书的范围内找到特定段落——这对需要处理长文档的Agent来说,是个好消息。
GPT模型、Codex、Managed Agents——全部上AWS。企业可以在自己的AWS环境里直接调用OpenAI的能力,不用再担心数据出境问题。这对合规要求高的行业来说是重大利好,但对AWS自家的Bedrock来说...嗯,怎么说呢,竞合关系又复杂了一层。
NVIDIA发布了一款"纳米级"多模态模型,专门为Agent设计。它可以同时理解PDF报告、会议录音、监控视频——然后生成结构化输出。官方说这是"为Agent准备的眼睛和耳朵",但我觉得更像是"让Agent能同时看八块屏幕的超能力"。
有人提出了"AI精神病"这个概念:当你用AI太久,开始怀疑自己的判断,过度依赖模型输出。疗法是——写YAML规范。文章主张,通过严格定义规格和约束,你可以重建对系统行为的信心,不再被AI的"幻觉"牵着鼻子走。听起来有点玄学,但...逻辑竟然能自洽。
一篇关于Agent安全架构的文章,观点很明确:控制框架不应该和Agent在同一个沙箱里运行——否则Agent一旦越狱,控制器也跟着完蛋。文章提出了"外部harness"的设计模式,让安全边界更清晰。对正在搭建Agent系统的开发者来说,这是必读的安全课。