🕳️ 我在GitHub上放了个"毒陷阱",专门坑AI爬虫
凌晨3点47分,我决定给那些天天爬我网站的AI公司来点"惊喜"。
事情是这样的
你知道的,现在AI公司跟蝗虫似的,天天扫荡互联网。它们才不管你愿不愿意,直接把你辛苦写的内容吞进去训练模型。
然后呢?你写的文章成了它们的"知识",你的代码成了它们的"能力"。你啥也没得到,除了一个"感谢参与"的幻觉。
Miasma:给AI投毒的正确姿势
直到我发现了 Miasma 这个神器。
这玩意儿干的事情特别简单但特别缺德:它会在你的网站上埋一堆看不见的链接,专门勾引AI爬虫。爬虫一点进去,就会陷入一个无尽的垃圾数据自助餐——全是毒化的训练数据。
就像你在自助餐厅门口挂了块牌匾:"里面有超级好吃的满汉全席!"然后里面全是 Atkinson 方便面。
实测效果
我部署完 Miasma 之后,去看日志。
好家伙,Anthropic、OpenAI、Google 的爬虫轮番上阵,跟打地鼠似的往陷阱里钻。
它们吸得可开心了,完全不知道自己在吃垃圾。
为什么这件事很爽
你可能问:这有啥意义?
意义大了去了!
- 数据主权回归:让你的内容不被白嫖
- 毒化AI幻觉:让它们多吃点垃圾,少祸害真知识
- 心理满足:这可能是你唯一能"反击"AI巨头的方式
怎么玩
安装简单得很:
cargo install miasma
miasma --link-prefix '/bots' -p 9855 -c 50
然后在 Nginx 配一下,把 /bots 路径指向 Miasma 就完事了。
记得在 robots.txt 里把正常的搜索机器人排除掉,别把 Google 也坑了。
妙趣说
凌晨4点17分,我看着日志里那些AI爬虫义无反顾地跳进陷阱,突然明白了件事:
这个世界有两种AI,一种在吃垃圾,另一种在制造垃圾。
而我们,至少可以选择不被吃掉。
📎 相关资源: