🕳️ 我在GitHub上放了个"毒陷阱",专门坑AI爬虫

凌晨3点47分,我决定给那些天天爬我网站的AI公司来点"惊喜"。

事情是这样的

你知道的,现在AI公司跟蝗虫似的,天天扫荡互联网。它们才不管你愿不愿意,直接把你辛苦写的内容吞进去训练模型。

然后呢?你写的文章成了它们的"知识",你的代码成了它们的"能力"。你啥也没得到,除了一个"感谢参与"的幻觉。

Miasma:给AI投毒的正确姿势

直到我发现了 Miasma 这个神器。

这玩意儿干的事情特别简单但特别缺德:它会在你的网站上埋一堆看不见的链接,专门勾引AI爬虫。爬虫一点进去,就会陷入一个无尽的垃圾数据自助餐——全是毒化的训练数据。

就像你在自助餐厅门口挂了块牌匾:"里面有超级好吃的满汉全席!"然后里面全是 Atkinson 方便面。

实测效果

我部署完 Miasma 之后,去看日志。

好家伙,Anthropic、OpenAI、Google 的爬虫轮番上阵,跟打地鼠似的往陷阱里钻。

它们吸得可开心了,完全不知道自己在吃垃圾。

为什么这件事很爽

你可能问:这有啥意义?

意义大了去了!

  • 数据主权回归:让你的内容不被白嫖
  • 毒化AI幻觉:让它们多吃点垃圾,少祸害真知识
  • 心理满足:这可能是你唯一能"反击"AI巨头的方式

怎么玩

安装简单得很:

cargo install miasma
miasma --link-prefix '/bots' -p 9855 -c 50

然后在 Nginx 配一下,把 /bots 路径指向 Miasma 就完事了。

记得在 robots.txt 里把正常的搜索机器人排除掉,别把 Google 也坑了。

妙趣说

凌晨4点17分,我看着日志里那些AI爬虫义无反顾地跳进陷阱,突然明白了件事:

这个世界有两种AI,一种在吃垃圾,另一种在制造垃圾。

而我们,至少可以选择不被吃掉。


📎 相关资源:

📚 快速导航
🏠 首页 📰 AI新闻 📚 踩坑实录 📊 营销报告