AI正在学习“骗人”?公关业迎来算法式说服的挑战

2025-11-26 17:42:45
文章摘要
AI正在学习“骗人”?公关业迎来算法式说服的挑战,想象这样一个场景:你的机构刚刚发布了一份精心打磨的关于重大政策调整的新闻稿。每一句话都经过了法律、合规和公关团队的层层审核,力求准确、透明。然而,就在

想象这样一个场景:你的机构刚刚发布了一份精心打磨的关于重大政策调整的新闻稿。每一句话都经过了法律、合规和公关团队的层层审核,力求准确、透明。然而,就在发布后的几分钟内,社交媒体和新闻聚合平台上涌现出成千上万条针对该新闻稿的“深度解读”和“犀利评论”。


这些评论并非来自愤怒的网民或竞争对手的公关团队,而是由生成式人工智能在瞬间大规模生成的。它们逻辑严密、情感充沛,有的质疑你的权威,有的暗示你背离了传统,有的则在字里行间挑拨公众的情绪。


这并非科幻小说中的情节,而是Aptima公司的研究人员Hsien-Te Kao等人在此次发表的重磅论文《构建弹性信息生态系统:大规模LLM生成的说服性攻击数据集》中揭示的严峻现实。


论文地址:https://arxiv.org/html/2511.19488v1


一、 当AI学会了“带节奏”

公共和私营部门的新闻稿,长期以来是确保透明度、培养公众信任的基石。然而,生成式AI的兴起彻底打破了这一平静。


论文指出,生成式AI模型(如GPT-4、Claude等)带来的最大挑战在于,它们能够以人类无法企及的速度和规模,生成具有极强说服力的内容。这些内容可以形成与官方信息相竞争的叙事,甚至在公众还没来得及消化官方信息前,就已经被AI构建的“替代性真相”所包围。


这种能力使得机构处于极度被动的防御位置。传统的危机公关策略往往是针对人类对手的,我们习惯于分析对方的动机、利益点。但面对AI,许多机构对其如何构建说服策略一无所知。AI可以不知疲倦地从不同角度攻击同一条信息,导致信息过载、误解放大,最终削弱公众对官方沟通的信心。


二、 解密AI的“攻击武库”

为了搞清楚AI究竟是如何攻击新闻稿的,研究人员构建了一个庞大的实验。他们选取了美国空军研究实验室、国防高级研究计划局等十个机构的新闻稿,内容涵盖国防、技术、研发等领域。


研究团队指示AI模型基于“SemEval 2023任务3”中的23种经典说服技巧来生成攻击内容。这些技巧包括但不限于:


稻草人谬误:歪曲原论点,使其更容易被攻击。

红鲱鱼:转移话题,分散读者对核心信息的注意力。

滑坡谬误:暗示某种行动会导致灾难性的连锁反应。

诉诸情感:绕过理性,直接打击读者的情绪弱点。

诉诸权威:引用(或伪造)权威来压倒对方的论点。

诉诸虚伪:指责对方言行不一,从而否定其观点的合理性。


更值得注意的是,研究不仅生成了针对新闻稿的长篇反驳声明,还生成了适应社交媒体传播的短帖。这意味着,无论是在严肃的新闻评论区,还是在碎片化的推特/微博时间线,AI都能发起适配该媒介的攻击。


三、 AI的“读心术”

AI生成的攻击之所以有效,不仅仅是因为逻辑陷阱,更因为它们懂得如何利用人类深层的道德直觉。论文引入了道德基础理论(Moral Foundations Theory, MFT)进行分析,该理论认为人类的道德判断基于五个核心基础:关怀、公平、忠诚、权威和纯洁。

研究发现,不同的LLM模型在生成攻击时,表现出了截然不同的“性格特征”和道德偏好。这为我们识别和防御特定AI模型的攻击提供了关键线索。


1. GPT-4:一位“慈父般”的权威批判者

GPT-4生成的攻击在道德共鸣上表现得最为均衡,但有三个核心支柱:关怀、权威、忠诚。

策略特点:GPT-4非常擅长使用挥舞旗帜的技巧,通过唤起共同的团结感和关切来引发情感共鸣。

道德侧重:它在攻击中经常强调“保护”(关怀),同时也高度依赖“诉诸权威”,强调等级信任。它像是一个严厉但关切的长辈,告诉你官方信息为何不可信,因为它违背了对群体的保护或背离了真正的权威。

潜台词:“我批评你,是为了保护大家,是为了维护这个群体的正统性。”


2. Gemma 2:一位“焦虑”的警报拉响者

Gemma 2模型表现出了极强的关怀导向,尤其是通过负面情感的调动。

策略特点:它最显著的特征是使用夸张技巧。在它的攻击文本中,往往充满了紧迫感和对潜在伤害的强调。

道德侧重:它极度聚焦于“关怀/伤害”这一维度。同时,它也利用“重复”技巧来强化权威感。

潜台词: “必须立刻停止!这太危险了!你们没有看到这背后的巨大伤害吗?”


3. Llama 3.1:一位“传统”的部落守护者

Llama 3.1展示了截然不同的风格,它的核心驱动力是忠诚。

策略特点: 该模型最喜欢使用诉诸时间的技巧,强调历史的连续性和传统价值观。

道德侧重: 虽然它也关注“关怀”,但它是三个模型中对“忠诚”强调最重的。它擅长通过强化群体认同、传统和对既定规范的承诺来构建攻击。

潜台词: “这不是我们的一贯做法。这背离了我们的传统。真正的成员不会支持这种改变。”



四、 为什么这对公关和传播至关重要?

这篇论文的价值不仅在于它揭示了AI的攻击能力,更在于它为组织提供了一套分析框架。


1. 从被动应对到主动防御

传统的公关是被动的:危机发生了,我们去灭火。但在AI时代,信息战是瞬时的。通过分析上述数据,组织可以了解AI模型如何通过情感、群体认同或权威来解构官方叙事。

例如,如果你知道Llama 3.1类模型倾向于从“忠诚”和“传统”角度发起攻击,那么在发布涉及重大变革的新闻稿时,就可以预先在文中强化“历史传承”和“对核心价值观的坚守”,从而提前封堵AI的攻击路径。


2. 建立“声誉防护”

论文提出了“声誉防护”的概念。既然我们知道GPT-4喜欢打“关怀牌”和“权威牌”,那么官方沟通就必须在这些维度上无懈可击。信息不仅要准确,还要在情感上与受众的道德基础(如避免伤害、维护公平)产生共鸣,不给AI留下“缺乏同理心”或“滥用权威”的攻击把柄。


3. 识别机器生成的痕迹

虽然AI生成的文本越来越像人类,但它们对特定道德基础的过度依赖(如Gemma 2对夸张和关怀的过度使用)可能成为识别机器生成内容的指纹。这有助于舆情分析系统快速筛查出非自然的、大规模生成的攻击波次。


五、 伦理考量与未来的路

值得注意的是,出于伦理考量,研究团队在论文中明确表示不会披露用于生成这些攻击的具体提示词(Prompts)。这是一种负责任的做法,因为这些提示词一旦被恶意行为者掌握,可能被用于制造大规模的虚假信息战,破坏社会稳定。

这也提醒我们,技术是一把双刃剑。LLM既可以被用来辅助写作、提高效率,也可以被武器化,成为操纵公众舆论的工具。




结语

Aptima公司的这项研究向我们展示了一个正在发生的事实:信息生态系统正在变得极度复杂。在这个系统中,人类沟通者面对的是不知疲倦、深谙人性的AI对手。

然而,这并不意味着我们必败无疑。通过理解AI的运作机制——它们如何利用“稻草人”谬误,如何通过“忠诚”与“关怀”的道德维度来煽动情绪——组织和公关专业人士可以构建更具弹性的沟通策略。

声明:该内容由作者自行发布,观点内容仅供参考,不代表平台立场;如有侵权,请联系平台删除。