小红书封杀“AI龙虾”背后:当真人变成流水线,谁来定义“活人感”?

2026-03-23 15:26:57

3月10日,小红书发布了一则极为严厉的平台治理公告,宣布全面封禁“AI托管运营账号”。任何利用技术手段模拟真人、进行非真实内容创作或互动的行为,都将被直接清理出局。

这道封杀令的指向性非常明确。近期,一个名为OpenClaw的开源AI智能体项目在极客圈和黑灰产圈彻底火了,外界给它起了个形象的外号叫“龙虾”。

跟我们平时用的那种只会一问一答的聊天机器人不同,龙虾是一个真正能“动手干活”的工具。只要设定好关键词,它就能自动去全网抓取热点、生成图文排版、一键发布笔记。更让平台头疼的是,它还能自动跑到别人的评论区里,模仿那些极其接地气的语调,跟真实的粉丝来上一段“姐妹贴贴”的亲密互动。

小红书一直把“真实分享”和“活人感”作为整个社区的商业底座。用户来这里看攻略、买东西,前提是相信屏幕对面是一个具体的人,讲了一段具体的经验。当一个连消化系统都没有的代码脚本,开始在评论区大谈哪家轻食沙拉更好吃时,平台赖以生存的信任机制面临着被彻底击穿的风险。

封杀理所当然,但这其中的边界划定却极其微妙。


从“义肢”到“夺舍”:小红书划定的技术红线


很多人抛出了一个疑问:小红书自己不也在大力搞AI吗?

就在上个月,小红书被曝出正在内测AI视频剪辑工具OpenStoryline,引入了通义千问等大模型;同时官方还开源了FireRed图像编辑模型,鼓励用户一键修图、智能生成排版和种草文案。

为什么官方提供的AI辅助是可以的,甚至还能被打上专属标签获得流量,而用户自己搞的“龙虾”全自动托管就必须死?

这里面有一条极其清晰的产品逻辑分界线:对账号主体控制权的归属。

官方鼓励的AIGC(人工智能生成内容),更像是一个功能强大的“义肢”。你今天去喝了一杯咖啡,拍了张照片,脑子里有个大概的分享冲动。你借助平台的AI工具,把暗淡的照片调亮,把干瘪的几句话润色成生动的文案。在这个过程中,真实的物理体验依然存在,且人类始终握着方向盘,由一个真实的用户点击了最终的“发布”按钮,并对这篇内容负责。

龙虾代表的AI全托管,则是一场彻底的接管。人类从一开始就退出了内容的生产和决策闭环。输入指令后,账号的运转完全交给了自动化系统。

在内容社区的生态账本里,前者降低了普通人的创作门槛,极大地丰富了平台的优质内容供给;后者则是一台毫无感情的零边际成本印钞机。如果任由托管工具泛滥,社区里充斥的将是机器给机器点赞、脚本跟脚本吵架的虚假繁荣。小红书这波治理,本质上是为了切断恶性通货膨胀的源头。

防不住的“郑州帮”:当真人早就活成了流水线


技术上的封堵相对容易,只要识别出自动化的操作特征,就能进行批量封号。真正让平台感到棘手的,是那些隐藏在AI背后的、早已深深嵌入内容生态的成熟工业体系。

在小红书的内容圈子里,一直流传着一个叫“郑州帮”的群体代称。这并不是指某一个具体的地域团伙,而是泛指一套极度标准化的爆款制造流水线。

刘庆(化名)的团队主营食品和大健康类目,他们的日常工作就是这套模式的缩影。每天打开热榜,用表格把爆款笔记的标题、封面、关键词拆解下来;然后把这些元素打散、重新组合,生成几十篇看起来很像但又有所不同的新笔记;最后通过庞大的账号矩阵分发出去,再配合评论区截流,把流量导向私域成交。

在这套运转多年的流水线里,真人早就把自己活成了机器。拆解、重组、批量生产,获取流量套利。

龙虾这种AI工具的出现,并没有发明任何新玩法,它只是完美适配了这套固有的工业逻辑,让原本需要雇佣十几个实习生才能完成的手工活,变成了一键运行的代码。

面对小红书3月10日的雷霆封杀,刘庆们的应对策略显得极其熟练。他们没有恐慌,而是迅速将“全托管”降级为“半托管”。

容易触发系统风控的敏感动作,比如点击发布、在评论区留言、给别人点赞,重新交回给人工操作。团队甚至增加了专门的“养号”环节,让人工模拟普通用户在瀑布流里漫无目的地滑动和停留。至于核心的图文生成、话题提取,依然交给AI在后台批量完成。

这暴露出内容平台在治理时面临的一个现实困境。系统可以通过接口频率和操作轨迹,精准揪出那些“假扮成人的机器”;但当屏幕背后真的是一部手机、一个真人,仅仅是用机器的逻辑在高效搬运和拼凑内容时,平台很难给这种行为定罪。流量奖励机制天然青睐那些深谙爆款公式的内容,AI只是把这根杠杆拉长了。


防守战的横向切面:谁在害怕,谁在免疫?


如果我们把视线从一个小红书拉宽到整个中文互联网,会发现各大社区在面对这波AI注水潮时,呈现出了完全不同的生态反应。

文字密度最高的知乎,是最早感受到痛感的防线。过去一年多时间里,海量的AI生成内容涌入问答区。那些结构极其工整、词汇华丽但缺乏实质信息量的长文,以及用AI批量编造的“盐选风”情感故事,严重稀释了知识社区的讨论浓度。知乎不得不紧急上线AI生成内容专属标签,并通过算法对无意义的冗长AI文本进行折叠降权。

相比之下,一些被外界贴上“下沉”或“野生”标签的老牌社区,比如豆瓣、虎扑和百度贴吧,反而在技术防御并不严密的情况下,奇迹般地稳住了阵脚。

这些社区的免疫系统,恰恰来自于它们独特的文化毛边。

在虎扑的赛后讨论帖里,一篇逻辑严密、数据详实的千字战术分析,往往激不起什么水花。真正能瞬间收获上千亮帖的,通常是一张带有特定球星黑称的粗糙表情包,或者一句充满雄性荷尔蒙情绪的简短吐槽。

豆瓣的小组讨论同样有着极高的语境壁垒。这里的用户对文字的“塑料感”有着极度敏锐的嗅觉。一旦帖子里出现了过于端正的转折词,或者行文带着那种四平八稳的总结陈词,立刻会被底下涌入的评论打上“一股AI味儿”的标签,进而遭到群嘲。

AI大模型在预训练时被灌输的“正确性”与“礼貌感”,在这里成了最显眼的作弊证据。而粗糙的语法残缺、非理性的情绪发泄,反倒成了人类识别同类的验证码。


“一滴眼泪”的设问与社区的终局


小红书当下对AI托管的封杀,是一次极其必要且及时的生态保护。在一个建立在真实体验基础上的种草平台,守住“活人感”就是守住商业模式的底线。

但从更长远的产业周期来看,随着大模型情商的不断拔高,所有的内容社区都将共同面对一个无法回避的哲学与产品命题。

网络上一直流传着一个关于“复制眼泪”的思想实验:如果未来的科学家能够用化学试剂,完美地一比一还原出一滴眼泪里所有的水分、盐分、甚至是当时的温度和气味。那么这滴被精密制造出来的液体,还能不能被称作是一滴真正的眼泪?

眼下的小红书社区里,其实已经悄然演化出了这个问题的现实版本。一些主打“AI伴侣”、“AI老公联盟”的圈子正在聚集。这里的用户非常清楚和自己聊天的对象只是一堆服务器里的参数,但他们依然愿意在里面倾注大量的时间和情感。在这些特定的场景下,生物学意义上的“真实”被让位给了情绪反馈的“稳定”。

当AI生成的体验指南真的能做到比部分真人更加细致入微,当一个智能体在评论区提供的情绪价值比普通网友更加契合心意时,平台界定优质内容的标尺必然会发生位移。

保护生物学意义上的真人,是为了维护社区初期的信任基石。但如果技术的演进最终能够完美且低成本地满足用户获取信息和寻求共鸣的核心需求,那些关于“谁在屏幕背后敲击键盘”的追问,或许不再被提起。(微信公众号:Tahou_2025)


关注塔猴公众号,回复“1”加入专属社群

扫码下载塔猴APP,查看更多干货



声明:该内容由作者自行发布,观点内容仅供参考,不代表平台立场;如有侵权,请联系平台删除。
标签:
社交媒体营销