奥尔特曼炮轰Anthropic恐慌式营销!网友贴脸开大:你也别装大善人

2026-04-22 17:53:41

这周,围绕Anthropic最新发布的模型Mythos,OpenAI CEO萨姆·奥尔特曼与Anthropic管理层在社交媒体上展开了激烈的对线。

奥尔特曼称对方搞“恐慌式营销”,而围观网友却并不买账,直呼吃相难看。

Mythos模型引发争议


事情的起因,是Anthropic在近期高调推出了一款名为Mythos的全新AI模型。根据官方公布的信息,Mythos主要针对网络安全领域进行开发,具备强大的代码分析和系统漏洞挖掘能力。

Anthropic在发布这款产品时,他们对外反复强调Mythos极度危险,宣称如果该模型落入普通人或恶意组织手中,将对全球网络造成不可估量的破坏。基于这种安全考量,Anthropic宣布Mythos不对公众开放,仅向特定高付费企业客户提供。

这种宣传手法让Anthropic的估值攀升,眼看就要超过了OpenAI ,这立刻引发了奥尔特曼的强烈不满。

▲OpenAI CEO萨姆·奥尔特曼与Anthropic CEO达里奥·阿莫迪

奥尔特曼在社交平台上直接贴脸开大,公开抨击Anthropic的做法。他明确指出,Anthropic故意渲染末日论调,本质上是一种恐惧营销。奥尔特曼认为,利用公众对未知技术的担忧,刻意制造信息不对称,其真实目的并不是为了保护人类,而是为了把AI交给精英阶层,并名正言顺地卖出高价。

在奥尔特曼看来,真正的技术应该普惠,而不是打着安全的幌子进行商业变现。

奥尔特曼的这番发言,看似维护技术平权,揭露行业内的不良营销手段。但互联网是有记忆的,这番正义的言论,并未得到公众的广泛认同。

赛博对账


面对奥尔特曼的指责,舆论走向出人意料。大家没有去声讨Anthropic,反而对OpenAI和奥尔特曼本人进行了一场赛博对账。

大量网友指出OpenAI才是玩弄末日论调的祖师爷,简直五十步笑百步。

网友们翻出了当年OpenAI内部模型泄露时的公关操作。当时,OpenAI故意放出风声,宣称内部研发出了可能威胁人类生存的强大模型,引发了全球范围内对人工智能的恐慌与讨论。这种操作拉满了OpenAI的科技神秘感,为其带来了海量关注。

随后,Sora模型的发布再次用了这手套路。OpenAI在展示了Sora的视频生成能力后,以“需要评估深度伪造风险”和“确保社会安全”为由,压制开放进度,迟迟不向公众开放。这种做法,与今天Anthropic对Mythos的限制如出一辙。

此外,网友还提及了奥尔特曼近期遭遇的住宅袭击事件。在个人安全争议方面,奥尔特曼团队也擅长刷存在感,将普通的治安事件与AI的社会变局强绑定。

两家公司的策略高度一致,师出同门,如今却跳出来互相指责。网友直言:“你也别装大善人。”

恐惧营销


“天下熙熙,皆为利来;天下攘攘,皆为利往”。OpenAI和Anthropic的这波操作,并非独创。在过去的几十年里,制造恐慌再提供方案的盈利模式,在各个行业都有。

第一个例子是千禧年的电脑杀毒行业。

在互联网普及的初期,普通用户对电脑病毒缺乏认知。当时的许多杀毒软件公司为了推销产品,夸大各类电脑病毒的破坏力,宣称一旦感染,用户的硬盘数据将永久损毁,硬件也会报废。在渲染了足够的恐慌后,这些公司高价售卖杀毒光盘和按年计费的订阅服务。后来行业内曝出丑闻,部分杀毒软件公司的内部人员会故意编写并在网络上散播病毒,随后自家软件立刻推出针对性的查杀工具,养寇自重。

第二个例子是保健品与饮用水行业。

曾经的酸碱体质就是一个典型的商业骗局。商家通过铺天盖地的广告和专家背书,制造出“酸性体质会导致癌症和慢性病”的恐慌。在消费者陷入焦虑后,商家推出了价格高昂的弱碱性水、碱性保健品和饮食套餐。直到多年后,该理论的创始人才被法庭判决欺诈,利用伪科学制造恐慌的营销才宣告破产。但在此期间,相关企业已经攫取了巨额利润。

第三个例子是新能源汽车的续航焦虑。

在电动车发展初期,充电设施并不完善。早期的电动车厂商利用了用户的续航焦虑,为了获取更高的单车利润,厂商不断推销搭载更大电池容量、价格更高的高配车型,并反复强调极端环境下的抛锚风险。而实际的出行数据表明,绝大多数用户的日常通勤距离在30公里以内,根本不需要溢价购买超大电池。

从杀毒软件、弱碱性水、超大容量电池,再到今天Anthropic的Mythos模型和OpenAI的Sora,恐惧营销的套路如出一辙。把特定的产品包装成拯救危机的唯一解药,就是流量密码。

安全叙事


回到当下的人工智能行业,巨头们为何对安全议题如此上心?深入后你会发现,这是是一场商业排他性的竞争。

以安全和防范风险为借口,Anthropic和OpenAI可以拒绝将核心模型开源,免受舆论压力。他们将最先进的技术封闭在私有服务器里,普通开发者无法获取代码,只能通过调用API来使用这些模型。通过这种方式,巨头们掌握了定价权,可以向B端大客户收取高昂的调用费用。

不仅如此,巨头们还通过不断的公关战和媒体发声,向公众和政府输送一种观念:“AI危险,只有我们这些大公司,才有能力控制它”。

这种人为构建的信息茧房,目的是在为监管设立高门槛。当政府听从这些巨头提供的安全建议制定法律,就会加入严苛的安全审查和算力追踪机制。这会导致后来的创业者和开源社区面临高昂的合规成本,实现几家巨头之间的合法垄断。安全,完全沦为了一种排除竞争对手的商业手段。

中国从业者和用户的态度则截然不同。


吃瓜的中国网友


相比于美国人沉迷于科幻电影里的末日探讨,中国AI行业更加务实。国内的产业并不热衷于虚空索敌,空谈安全,而是更看重技术。

当前,中国企业正在大力推动具身智能技术进入制造业工厂,让智能机器人承担分拣、装配和巡检工作;同时,国内的大模型厂商正致力于让AI处理政务审批流程、金融风险评估和医疗影像分析。对于中国而言,解决具体的行业痛点、提升生产效率,才是核心目标。

与此同时,面对巨头们的人工智能安全炒作,国内网友们反应淡定,如何呢又能怎。

只要工具好用、能提高日常工作生活的效率,我们就愿意买单。没有人愿意为末日恐慌去支付溢价。

过度的安全炒作和饥饿营销,最终必然会引起公众的严重反感。无论是OpenAI还是Anthropic,商业竞争的本质决定了他们的发声都在为了财务报表。对于广大开发者而言,最好的应对方式或许就是专注自身的发展。无论巨头们如何争吵,能真正推动社会进步的,还是那些踏踏实实落地的技术应用。(微信公众号:Tahou_2025)



声明:该内容由作者自行发布,观点内容仅供参考,不代表平台立场;如有侵权,请联系平台删除。
标签:
大模型
企业级大模型
AI 安全
模型安全
AI 伦理与治理
伦理规范