AI和游戏如何共同构建新的体验

2026-01-13 15:55:22
文章摘要
文章围绕AI和游戏如何构建新体验展开。指出当前AI游戏大多不好玩,“AI原生游戏”应是AI从0到1构建系统。作者提出“LargeGameplayModel(LGM)”概念,探讨其构建方向与长期价值。还阐述了AI原生游戏的定义、颗粒度构建、不同层级规则等,认为游戏是AI语言,呼吁更多研究者投入,强调其长期价值及对供给关系的重塑。

全文脉络可以被大致分为三部分:

1. 游戏机制、游戏演出、游戏内容生成、AI游戏的Scaling Law四个话题组成第一部分,核心围绕着定义、论证我的 “Large Gameplay Model (LGM)” 概念;

2. AI Gaming Infra单独组成第二部分,围绕着构建 LGM 当下最应做的方向;

3. 游戏社区、游戏化AI、AI Gaming for Science组成最后一部分,主要探讨 LGM 构建的长期主义价值,和AI游戏的北极星。

一,为什么“AI原生游戏”仍然不存在

如果大家看过“铼三实验室”此前发布的AI游戏方向研报,大概知道长期以来坚持的一个判断:AI原生游戏是伪命题

逻辑很简单:从第一性原理出发,游戏存在的意义是人类觉得好玩。一个产品无论多么炫技、理念多么超前,如果缺乏心流与闭环,无法提供稳定的愉悦感,那么它与游戏的本质背道而驰——这种情况下,AI只是噱头,而不是游戏性的驱动力,这个产品作为游戏就没有价值。但要注意这个的定语——并不是说这个产品没有价值,只是说它作为游戏的出发点是伪命题!这就是强调的从游戏的第一性原理出发推导的结论。

游戏的“好玩”始终是一种近乎玄学的存在。这个概念表面上极为主观,但从设计方法论的角度出发,我们仍然可以尝试用相对框架化的方式去解构它。

对于游戏行业的从业者而言可能比较熟悉,“好玩”通常被拆解为一系列可分析的组成部分:关卡循环、反馈节奏、交互动机、系统平衡等。它们共同构成了一个稳定、可收敛、由规则驱动的体系——也就是我们所说的游戏机制(Mechanics)

而这些机制在被设计师有机组合后,便形成了和谐的玩法(Gameplay)。两者之间的关系并非简单叠加,而是一种类似化学反应的过程:

其中,(游戏设计师)的品味(Taste),正如化学反应中的催化剂。它并不直接改变机制的结构,却决定了反应能否发生、以及反应最终的形态。

这也是游戏设计中最具人性的部分——为什么机制A与B结合能产生令人上瘾的体验,而C与D却无法成立?为什么在某些情境下需要做减法,而在另一些情境下又必须做加法?理论层面我们或许能解释一部分,但总会在某个临界点上失语。那种无法再被逻辑完全解释的部分,就只能诉诸设计师的直觉与品味。

市场最终选择的,是那些由稳定机制优质品味共同催化出的游戏体验,成为经典咏流传。

而从这一层结构去反观AI的本质,就不难理解:构成游戏性(Gameplay)的这两大要素——规则驱动的机制人的审美判断——恰恰是当下AI最难以胜任的领域。这也解释了为什么现阶段的AI游戏大多“看上去很聪明”,却未必真的“好玩”。

从去年8月开始一直到今年7月份都持有以上的这个看法,这也是驱动持续做Research的核心动力。




二,AI原生:定义从0到1

直到在今年7月开始真正意义上的AI游戏开发实操,这个观点才开始出现转折。实践意识到,过去大家对于“AI原生”的理解太表层了。

什么是AI原生?用一句话总结,那就是:没有AI,这个产品根本无法存在。

换句话说,AI不是锦上添花的功能组件,而是从0到1构建整个系统的必要条件。假如去掉AI,这个项目立即崩塌,不复存在,那么它才配被称为AI原生。

以此标准回看当下市面上的AI游戏,它们几乎无一例外仍是“AI增强型游戏”而非“AI原生游戏”。哪怕是那些看似以AI判定胜负或决定剧情走向的作品,本质上仍运行在确定的框架之上。AI在其中的作用只是“局部随机变量”——为确定性系统增添不确定性,而不是创造系统本身

对于像Mirage,Genie这种世界模型做出的游戏,那就是AI原生游戏。AI不仅生成内容,还生成规则;它不在固定的世界中运行,而是自己生成世界的法则。

这才是AI真正参与0到1构建过程的产品。但现在还没有。

如果硬要讨论 Character.ai 这种产品,我觉得也可以算AI原生,但我更倾向于不认为他们属于“游戏”,依旧是纯发散的聊天机器人。但到了 Silly Tavern 这一维度的产品,我觉得就可以勉强沾边了。

简中社区可能将其译为“小酒馆”或“傻酒馆”。这个产品本质上就是在C.ai基础上增加了更多api,给玩家多了更多定制化的功能,并用一些基础规则收敛了AI行为,如让玩家设计“角色卡”,并同时有了基础概念,如地点、道具等。于是它拥有了规则框架,有基础循环,且是理论上可以真正从抽象维度去涌现的、无限的体验。

那么我们现在就可以把“AI原生游戏”分为两个分支:

第一个就是所谓世界模型,靠纯粹AI原生能力去做端到端的生成;  第二个是从 Silly Tavern 可以延伸的一个,现有游戏机制和AI底层原理更能有机结合的方向。端到端生成方向可能更多还是要靠算力的力大砖飞,以及基模的技术性突破。这些可能不是我们今天在场大部分人有机会接触的领域。于是我也专注于钻研第二个方向,这可能是更加偏前端产品维度的、对技术门槛要求低但对游戏机制理解和设计师“品味”有一定要求的方向。

我认为这个方向是AI原生的——没有AI的存在,其游戏性是无法被构建的。在探讨这个概念之前,我想先表述一下我自己对游戏玩法概念的拆解。当然,关于“什么是游戏”的话题已经被前人探讨过无数次,包括如今的世界上可能每一处角落都还在有人进行无休止的探讨,这也是游戏迷人的一点——或许有一些共识存在,但每一次市场上那些推陈出新的玩法出现,都让这些共识更像是形而上的辩经而非不变的真理。于是我搬出我自己的定义:目前我们探讨的常规游戏,更多像是多种玩法的组合而成的体验;那些也许好玩的游戏都至少要有一个最核心的玩法,并和谐地设计其他玩法,目的都是辅助这个核心玩法的构建。而组成每一个玩法的最小单位是游戏机制,串联起这些游戏机制的叫游戏规则。例子,CAM DOWN! (我们今年的一款游戏)从现实中的拍摄和直播行为取得灵感,玩家可以在游戏中直播拍摄任何画面,直播间的观众会进行实时的反馈。在这个体验里,“拍摄”就算是一种机制,它的反馈循环为:举起相机 → 在屏幕上显示取景内容 → 玩家看到取景内容(交互行为的直接反馈) → 基于反馈玩家开始下一次拍摄行为循环,以此往复。这就是我们游戏中最小反馈循环的一个。


然而单一机制构不成玩法。如果这款游戏只有这个独立的拍摄反馈循环的话,它只能算作是一个交互玩具,可以放在大学里的交互媒体设计毕业展上,但如果放在游戏专业的展里面,就不太合适——它还构不成完整的玩法。这个时候就需要别的机制相互耦合,来让系统真正具有“游戏性”。直播间的反馈也是一种机制,反馈循环为:玩家控制直播的内容 → 观众反馈 → 玩家感知到反馈 → 基于反馈开始下一次直播行为循环。定义好了这些,我们就可以设计相关的规则来串联起合适的机制,构成玩法循环。在 CAM DOWN! 里,我们定义好拍摄画面和直播内容的关系,以及观众的反馈会具体如何影响玩家后续的行为逻辑,例如拍摄画面好 → 观众点赞 →人气值上涨 → 收益上涨,最后将直播收益作为游戏的最终目标,那么这样一来,游戏的核心玩法就成型了。玩家至少可以通过交互行为来获得预期反馈,并向着目标持续体验游戏。如果进一步抽象,我们会发现其实他们无非就是颗粒度大小的差异。颗粒度大一些,单位就是游戏玩法,小一些就是游戏机制。

如果我们能靠更小颗粒度的“机制”,让AI在规则之中涌现出“玩法”——构建游戏性的最小单位,那么这样的AI游戏就是AI原生的了。而当我们放弃“AI做插件”的思路,而去思考AI能在游戏构建中承担怎样的基础角色,就会发现“机制”才是最值得重构的部分。

游戏机制是可以继续被解构和拆分成更小颗粒度的稳定单位的,只要我们可以在设计系统的时候,把思维抽象再抽象,抽象到极致来解构这些规则。我平时最常举的例子,就是角色关系;在设计传统RPG游戏里的角色之间的关系时,可能会给每个关系去做定义,如友情、亲情、爱情、仇敌、陌生人。 那么,去用程序定义它们的时候,可能常见的做法是去写一个父类定义角色关系类,然后定义基础属性和逻辑,再去分别开子类来给每种关系配表;在需要依托关系属性介入做逻辑判定的环节中,相关的方法可能再去取对应的那个关系的属性,基于结果推进这个相应的逻辑环节。然而,当我们试图真正构建AI原生机制时,传统意义上对关系的抽象远远不够。我们必须进一步提升抽象层级,对这些人类社会性概念进行再解构。以“爱情”为例,我们在解构这个概念的时候,其实就是在问自己:什么是爱情——这听起来像是一个哲学问题(笑),但在系统设计的语境中,我们可以尝试把它分解为一组更基础的属性:例如“亲密关系的”“排他的”“具有生理驱动的”等。这样的拆解并非终点,我们还可以继续向下分层,去寻找这些属性背后更细的逻辑单元。这一过程实际上极度考验设计师的抽象能力与逻辑能力。它不仅需要形式化思维,更需要丰富的生活经验作为前提支撑——只有对现实关系具备深刻体察,才能反向推导出抽象层的定义。当设计师将所有可想到的角色关系逐一拆解到足够细的颗粒度后,可以将这些概念放入一个共享的“语义池”中,通过比较与归纳,提炼出它们的共性维度,从而定义出一套具有普适性的规则集。那这个时候,什么亲情友情爱情仇人,都无需游戏设计师自己去定义了;LLM可以在你这个健壮的普适规则集里,涌现出无限可能,但又那么地符合逻辑,前提是我刚才说的,这个规则集要足够健壮,抗造。这时候的游戏内角色关系,就是AI原生的了。

 



三,颗粒度

在这一层面,我主要围绕游戏中最需要智能的对象——角色进行系统性构建。

驱动智能体角色的一切行为的核心骨架被我拆成了三个部分:上下文(短期记忆)、意图识别、认知系统。我认为这三个部分足以处理游戏中角色需要应对和执行的一切事情。

目前角色形象资产来自网络免费素材包

首先,角色的短期记忆收集了一定范围内一切需要被角色意识到并可能影响角色做决策的信息——谁和谁说了什么、谁做了什么、什么事情刚刚发生、我现在感觉怎么样等等。

然后,会有一个叫 Memory Executor 的组件,基于一个有一定上下文工程和简单后训练处理的LLM,来专门持续处理角色的短期记忆信息。处理之后就进入下一步——意图识别环节。

同样地,我也做了一个叫 Intent Interpreter 的组件,这也由一个被专项处理过的LLM来驱动,专注处理上一环节的LLM处理后的记忆信息,来识别成为角色的真正行为意图(如果此时需要)。意图识别环节构成了通往最后角色执行我们上一层面看到的“动作”和行为语法的桥梁。

而对于认知系统,主要是用来服务短期记忆的信息收集部分,同时也在角色做出最后实际“动作”的环节扮演重要角色。可以说认知系统贯穿智能体角色始终,甚至贯穿整个游戏世界。它是这样运转的:

首先,定义好离散化的基础认知概念,我在这里将其分为三大类——人、事、物,试图包揽绝大部分情况。分别给人事物三种认知再做细致的基础概念划分,用游戏化符号来对大模型进行语义对齐。

然后,对于所有游戏内的事物(对象),均会向外散发出信号,这些信号由其附带的基础认知概念构成。同时,智能体角色具有接收外界信号的能力,通俗来讲就是角色的视听触觉等感官能力;这些信号可能也会受到环境条件的阻碍,比如传播范围、障碍等(如视觉信号无法穿过不透明的物体)——本质上就是在离散地解构和模拟现实世界。

智能体角色接收完信号后,将会进行一个信息提炼的过程,并将相关信息转化到短期记忆里,形成上下文,再由这个环节的LLM进行下一步处理,转化为意图,到最后角色执行的“动作”;一旦有具象的动作出现,这个环节又会再散发出新的信号,构成周围其他角色的上下文认知。

于是我们可以回过头来再看这个演示,里面其实透露出了很大的信息量:

“我”对另一名角色说了指令后,首先发生的是“我”的这个“动作”发出的信号被角色接收到,通过认知系统处理为她的短期记忆(构建上下文),她的记忆处理器再去通过LLM来处理这段上下文,其中包含了她对“我”的认知(“我”对于她而言是谁?),对于“我”说的话的认知(“酒”是什么东西?),并开始构建下一步的意图;当她的认知系统提供了相关上下文后,这个智能体就有了基础认识,即“Steven(一个我熟悉的人——具体为什么熟悉?可以是游戏中大家共同的经历决定的,也可以是玩家预设的)希望我去给他取一瓶酒”,意图识别器就可以转化为正确的意图——看到前面的酒,移动过去,拾取(交互),并做出回应。

我们发现,当整个微观规则和构建基础角色的颗粒度与规则集足够稳健后,对于这种带有逻辑链路的复合事件,整个行为流程全为AI涌现的结果,没有一丝一毫的预设逻辑:每个角色的“行动决策”是一个动态组合结构。AI 不只是执行,而是自己推演角色接下来的行为链。

这样一个游戏角色就通过AI原生的方式被构建出来了。

1,社会层 —— 关系与协作

当我们将前两者定义好后,后面更宏观的、发散的概念自然而然就可以通过AI的力量涌现出来,这也就是我说的AI最擅长的事情。第一个事儿就是智能体角色之间的关系发展。

基础行为和感知认知构建了角色的基本活动边界,通过LLM智能涌现逐步形成关系网和游戏社会。

在测试的例子里,到现在都一直被我津津乐道的其中一个,是我操控两个互相关系很好的角色强行干架。

很快一个非常有意思的现象就发生了:在干架途中,两个角色开始对话,对话内容如上。

发生这个现象的原理也非常不言自明——在前面我们提到了微观规则的构建和智能体角色的运转原理,那么当角色之间有了相互的认知、对于目前在做的事情有了基础认知和上下文,LLM自然而然就会通过意图识别环节判断出角色的现状和下一步的合理行为;在这样一个背景下,当角色发现自己在和好朋友打架,非常合理地就会对应地做出符合角色之间的社会关系的复合决策。

同样地,当角色之间有了基础关系,他们就会自然而然地进行互帮互助行为基础行为和感知认知构建了角色的基本活动边界,通过LLM智能涌现逐步形成关系网和游戏社会。

在这样的颗粒度下,社交关系不是固定变量,而是语言驱动的流动系统。这意味着“联盟”“背叛”“交易”等事件都能自然涌现。

2,制度层 —— 事件与循环

到了这一层就要开始构建我在前面一直在解构的玩法(Gameplay)了。通过前面几层颗粒度的涌现,我认为AI原生的机制可以被构建出来(最小交互循环),下一步就是围绕构建出来的这些机制来让AI涌现出玩法,所以我在这里引入了制度层,来定义游戏内引导玩家或者说定义玩家体验流程的元素。

在这一层中,我需要单独定义事件颗粒度,以及涌现出事件的规则,让游戏内对象基于LLM推演自由演化,在规则的收束下自然而然演化出大大小小的事件和循环,推动游戏的宏观层发展(说白了就是传统RPG游戏里的“任务系统”)。

它的颗粒度特征为:制度规则是可组合、可学习、可被AI实验的。玩家与AI可以共同调试世界。

3,Meta层 —— 演化与协议

其实,在前四层中,如果按照我的理论能够构建出一个稳定的具有可玩性的体验的话,我认为已经算是AI原生游戏了。

那么到了Meta层,其规则试图构建的内容将不只是游戏玩法了,而是一个目前看来更加形而上的AI游戏世界。这个部分我也没有在演讲中展开来讲,在后面的分享中我会试图去详细展开阐述我构建AI游戏世界的一个关键概念:LS类系统(Learnable System Class)理论框架。

在AI原生道路上发展,下一层的目标我认为是使游戏的“规则”本身成为AI的可学习对象。

这意味着AI不仅能在游戏中玩,还能修改玩法来适应目标。

 

做个总结:在 Kingdom of LLMs 里,我们不是让AI“玩“”游戏,而是让AI在不同颗粒度下“理解”规则、“表演”行为、“拼接“”世界

从一次简单的移动交互,到制定一条王国法令,都是同一套语言系统在不同分辨率下的演出。

于是我定义了一个简单的坐标系,其中横轴为颗粒度大小,纵轴为工程能力要求;游戏的规则颗粒度越细,对应需要的工程能力就要越强。但AI原生游戏的颗粒度有个上限,那就是我上面所定义的游戏玩法(Gameplay),因为在我的定义里,一旦有了一个玩法,整个体验的游戏性就出来了,就不再是交互玩具了。所以,一旦你这个游戏已经有了一个不需要AI参与也能构建起来的游戏玩法,就不叫AI原生游戏;游戏的核心玩法是由AI通过更小颗粒度规则涌现出来的,那就是AI原生游戏。




四,游戏是AI的语言

自然语言有语法与句法;游戏语言有逻辑与反馈。在自然语言中,我们用规则去描述意义;在游戏语言中,我们用机制去构造体验。

当规则足够清晰且高度抽象时,AI就能在这门语言的语法框架内生成语义表达——即“玩法”。

换句话说,AI可以从“理解文字”跃迁为“理解规则”,从“生成故事”跃迁为“生成体验”。

这便是AI原生游戏的关键转折点:AI不再只是执行设计师预设的逻辑,而是在逻辑层面参与构造。

从开发流程角度看,程序员的任务其实是把设计师的“自然语言需求”翻译成“游戏语言实现”。AI介入LGM后,这条翻译链可以反过来——AI成为能读懂、解释、甚至反向修改游戏语言的智能体。它不再是工具,而是共创者。

为什么C.ai当年能够火遍全网,形成范式?就是因为我上面说的这些——在AI原生的体验里,AI的角色“升维”了,AI在和玩家一同书写语言,共塑全新的体验。

为什么C.ai的模式现在走向尾声?就是因为自然语言不够好玩儿。

就像当你玩了一把精彩绝伦的文字冒险DND后,你总要幻想能有一个机会去通过更高维的叙事方式,来把这种绝妙的体验发扬光大。

我们开启新一轮的例证环节,来更好地阐述“游戏是AI的语言”。

《模拟人生》系列绝对是传统游戏品类里对当下AI游戏的发展有着重大启示的游戏,基于生活模拟类玩法衍生出的大大小小的包含AI元素的游戏在近两年内数不胜数。我在这里举两个例子,均是较大体量的作品:inZOi 与The Proposal (暂未公布)。

最大的启发是,它提出了一个用LLM对传统 Utility AI 框架的优化方案

 

但 inZOI 目前暴露出的最大问题是它不好玩。当我们仔细观察其游戏规则维度,并和《模拟人生》做对比时,就会发现,它的基础规则和行为体系很单薄;换句话说,它的玩法颗粒度不够细,不够多。这就又回到上一部分的理论中:构建好的AI涌现玩法的前提,是足够健壮的、颗粒度足够细的规则集。inZOI 的第一步就没做好,而是堆料到视听体验上去了。

游戏是AI的语言这个理论,在我的游戏研发过程中也给了我自己很多启发,我在这里分享两点。

首先就是在这样的演出效果下,游戏可以省去一切需要写的逻辑function call——甚至重写状态机、行为树范式。

当角色受重伤时,传统游戏的做法大多是去依赖显式逻辑体系(Utility AI, FSM, Behavior Tree等),来枚举并判断角色的决策路径。然而,随着角色行为的复杂度提升,这种以规则枚举为基础的设计模式往往会迅速膨胀,导致逻辑链条冗长、维护成本陡增。

 在 Kingdom of LLMs 中,将游戏语义对齐给AI后,可以纯粹由大模型根据上下文自发执行。只需定义好自发执行所需的一切基础条件,在此之上一切逻辑function call的功能都无需再补充。

第二个意义是让AI把控那些无法量化的概念。例子依旧来源于 CAM DOWN! :

我们曾经在设计不同玩家的角色定位时,脑暴出了一种“直播间房管”的角色定位,其目的是运营管理直播间,带水军节奏等,让直播间的人气高涨。

这个时候我想到了一个概念叫“网感”——当玩家角色的网感强的时候,其运营直播间的效果就会更好。但问题是,“网感”是一个非常抽象的概念,该如何用游戏的形式来模拟其抽象效果?

到最后我只能诉诸于“强行量化”,将其强行量化成数值,和游戏内角色关联——比如角色升级的时候,可以选择升级“网感”值,但这样的话这个概念和玩家自己的操作和代入就毫无关系了。

在这个时候,如果我们能够将直播间玩法的基础规则集的颗粒度构建好,并引入AI——由AI把控“网感”概念,在游戏规则内自由发挥,这种抽象的、难以量化的概念也可以有机会在游戏的语义中被表达,最大化成都增强玩家的代入感和趣味性。

以上两个灵感虽然都是基于很抽象的模型框架,但我认为和游戏机制那一趴还是有本质区别的,所以值得单拎出来持续探索。核心目标相似:让AI做擅长的事情并尽情涌现;一个是涌现玩法,一个是涌现具象内容。在前者不允许出错,其关乎于游戏世界的稳定性;后者允许出错,或者说不叫出错,叫possibility——在很多时候,我们反而希望其能有“反差”的内容。

但优先级和前提也是明确的:这些反差内容能够获得正反馈的先决条件,是先要有一个稳定的机制涌现沙盘,或者说稳定的LGM。这层决定了这些反差内容至少是要符合逻辑的。

我认为人天然对那些意料之外,且符合逻辑的事情着迷;如果是符合逻辑但意料之内,就没那么有正反馈;如果是意料之外但不符合逻辑,负反馈就更大了,这也是现在AI幻觉问题在C端产品造成的最大困扰。

这就是 LGM 存在的价值。

但如果想要创造一个拥有持续性美好体验的AI原生应用,我们不能迷信AI在内容涌现上的力量。

这部分将会是一个看起来比较反直觉的理论:

对于AI生成的内容,我认为现在市面上一直存在着一个误区:很多信仰AI的、做C端应用的产品经理,往往都会错误地相信AI的一个特性——可以无限生成内容和体验,并以此为产品核心哲学,来围绕这一点大量做文章。我想说的是,这个特性是伪命题:AI生成的内容和体验其实都是有限的。

因为至少目前的大模型,是无法创造新的内容的,一切看似的无限生成的内容,都是神经网络涌现拟合的结果,没有一丝一毫是新的内容,因为AI不具备创意性。

AI的力量在于利用上下文来无限生成内容。构成产品健壮的上下文规则的做法是我一直在聊的“颗粒度理论”,而构成上下文的新内容则要另辟蹊径。

这就像在大语言模型刚刚诞生之时,我们对其产出的内容有着无限的好奇;但在当下如果让你去读ChatGPT产出的小说,你一定会觉得非常无聊。

但我们当下对于AI产出的内容的兴奋点来源于什么?来源于我们自己,或者说人类提供的提示词和上下文窗口。

这是人与AI的最大区别:人可以源源不断地创造新的真实内容

所以如果产品闭环中可以把人(可以是用户本身、也可以是其他用户)和人的现实生活中的内容做关联、绑定、转化,那么就找到了一个我们上面所说的创造“真的”内容的点;具体如何把这个点和最终的情感陪伴体验结合,则要落实到具体的游戏设计层面。

所以我长期看好那些关注「用户故事」的AI原生方向。那些利用AI的能力,利用游戏化的设计,真正把人和能够创造正反馈的无限内容有机结合起来的产品,不论是AI+社交,还是AI+OC,还是AI陪伴类助手。

在演讲中,我提到了两个这方面的优质方案,第一个切入点在于社交(引入其他用户创造新的真内容),第二个切入点在于与用户相关的经历(用户本身成为无限真内容的提供者)。

第一种方案通过机制来关注「用户故事」、用「内容转化协议」构建体验。

第二种方案通过找到一个可以链接用户现实生活内容、构建共同经历的方式创造无限体验——这层无限属性的前提是产品找的这个“用户现实生活内容”本身是无限的真内容。

这是一个很有创意的产品,最重要的是其找到了上面所述的属于它的一条构造“无限真内容”的路径,即依附于游戏产品这个外部内容。

逗逗的产品体验和其他游戏产品有点像是“寄生关系”:它本身的产品机制其实是不支撑它创造真内容的,而是结合玩家游玩别的游戏的体验来利用AI的能力去加工相关信息,转化(或试图转化)成消费级体验。

所以它其实是取巧地找到了一个口子来提供无限内容,那就是另一个消费级内容赛道(游戏);这样一来,在逗逗构建的产品模型里,就不需要考虑去怎么提供无限内容了,要考虑的只是把外来的这个无限内容结合AI和机制来加工转化成自己的消费级内容(与用户的相关经历),产品体验就闭环了。

那么只要游戏这个赛道能源源不断地提供新的内容和体验,逗逗游戏助手的理论生命周期就能无限延长。

五,AI游戏需要更多的Researcher

AI 游戏的发展现在正处在和 Agent 崛起前夜一样的节点。

就像Agent当初的发展路径一样——没有MCP,没有标准化的 Memory API 与 Tool/Action Schema、没有足够稳定的推理与执行中间件,就不会有今天泉涌而出的各个领域的 Agent 应用。

同理,如果没有属于 AI 游戏的基础设施,我们也无法真正进入 AI 原生游戏的时代。只有把这些底层能力跑通,AI 游戏才能从“Demo”迈向“生态”。

所以23年、24年出来的AI游戏方向的很多产品都胎死腹中:没有通用的架构级的infra层基础,想要靠之前我们想当然的AI能力一步到位做出现象级产品,属实是要么步子迈太大,扯到蛋;要么就是做着做着发现,自己的游戏压根就不需要AI的存在。因为我们发力的方向和顺序都错了。所以我们要好好重新沉下心来,从头规划一下。

这八个可能的infra方向是我在构建《规则拼接实验室》项目时逐步总结出来的,他们本身的名称也足够不言自明。当然,可能的infra范式远远不止这些,我在这里主要想给大家提供一个sense,表达在我的愿景中,当下值得发力的方向。

在这点上,像 Aivilization 与 WorldVac 这样的项目反而值得尊重。

它们并没有急于追求商业闭环或游戏目标,而是从“AI在游戏领域能到达什么效果”出发,反向推导玩家体验与系统逻辑。这个过程漫长、艰难、甚至看似“不务正业”,但它们代表了正确的路径。

我判断至少还需要两年时间,AI游戏的Infra层才可能真正成型。而前提是我们能有越来越多的 Aivilization 和 WorldVac

越多团队选择做基础设施,行业的未来就越清晰。

因此我在此呼吁:

 

AI游戏生态的诞生,离不开更多从底层思考的Researcher。

而两年之后会发生什么?

当Infra稳固之后,AI游戏的格局将出现两极分化:

一类是垂直赛道型小体量产品——像肉鸽(Roguelite)那样,小而美,形成新的风格品类;

另一类是基于AI游戏通用协议的泛娱乐生态爆发——AI不再只是游戏的引擎,而成为跨媒体内容平台的通用接口。

最后,值得强调的一点是:AI游戏是一个值得长期主义投入的方向。

原因有二:

其一,基础模型的迭代对产品端影响相对有限,只要牢牢把握模型原理并与玩法有机结合,产品生命周期可持续;

其二,游戏的商业化路径极为务实——“好玩≈能赚钱”。

与互联网应用不同,游戏的收入逻辑更清晰,也更能让团队在可控功耗下长期存活。

六,AI游戏会重塑供给关系

infra层爆发之后,有一个方向的生态增长必不可忽略:新的游戏生态的形成。

张鹏老师讲的一点可能对于今天在座的很多前辈来说是老生常谈了,但我还见识短浅,对我的启发很大,我在这里稍微分享一下:

他说AI的作用绝不是降本增效,而是改变供给——供给关系一改变,自然就会有新的需求,解放生产力和新的需求的创造是相辅相成的,然后就会有平台的诞生,自然而然。

抖音的出现让摄像头平权,改变了互联网消费内容的生态格局;AI的出现,到现在各个巨头在一直追求能够做到类似事情的,可能都放在视频生成,或者交互视频生成上(Sora App)。

然后就是新的需求的诞生:在抖音之前,没有人会想过我可以平时拍下日常发到网上,就像Sora出来之前也没有人会想过我可以创作一堆有的没的AI视频传播我的抽象想法。

那么发展 AI Gaming Infra 实际在做的另一件事儿就是游戏级别的体验内容的创作逐步平权。

待到infra层进一步发展后,先是各路前端开发者受益,不需要再自己造轮子(当然那个时候还有没有前端开发者这个角色的存在要打个问号);然后就是非技术背景的游戏设计师/产品经理,比普通人多的技能其实就是抽象和逻辑能力;到最后就是随便揪一个人出来就能进行游戏创作,就像今天的拍抖音和玩Sora一样。

但在这里我也想提出一个看起来反直觉的事情:

游戏级别的体验内容的创作平权的价值并不等于谁都能做游戏

就像所有人都能说话、写字,并不代表所有人都应该去讲脱口秀、写小说。不知道大家能不能理解这个概念。

学会说话、写字、用自然语言解构这个世界的真正意义,在于说话、写字、语言拓展世界边界这些行为本身。

一百年前维特根斯坦说 Language is the World(语言即世界),我认为放到如今早已不准确了;如今解构世界的信息载体形式要更高维、更抽象。到今天我是不是可以说摄像头即世界、互联网即世界、社交媒体即世界?

所以AI游戏的终极目标是“游戏即世界”:我们要用游戏的力量赋能AI,和一切能够颠覆生产关系的技术革命。

一个月前,OpenAI 发布了一份万字报告。在这份报告里,人们发现当下使用 ChatGPT 的人早已不是在工作、生产,而是与AI一同“生活”。

游戏化体验,或者说通人性的体验,在这个环节很重要。

吴恩达是Agent这个词的构造者;同时,他也提出过一个光谱,Agent光谱。其坐标为AI Agent的“自治”能力。

其实我很早也提出过一个光谱概念,叫AI游戏化光谱,坐标为 Level of Optimal Experience(心流体验感)。

我认为这个光谱其实可以和Agent光谱相结合。

如果大家还记得前面的颗粒度坐标系,会发现颗粒度越小,AI越发地涌现,这是不是就和自治的概念很接近?

颗粒度越小,游戏内的Agent能力边界越大,那就越智能,学习能力越强——游戏体验还会更好?

所以或许这才是真正的,生产与娱乐相结合——鱼和熊掌可以兼得了。

Agent的方向是让人单位做工能量越来越强,做的事情维度越来越高、价值密度越来越大。

游戏的方向是让人和科技的链接体验越来越自然,我们这个社会的精神状态越来越美好。

这也是科技的本质意义。

 

对于构建这个方向的游戏化体验,我持有两个基础belief:

  1. 游戏是最通人性的体验。

  2. 一切人类通过人机交互形式可以做到的事情,大模型理论上也一定可以做到。


而「游戏即世界」理论的重点是:我们要用游戏的力量赋能AI,和一切能够颠覆生产关系的技术革命

 

人类的思维和需求反馈循环

在以上的循环中,每一个环节都值得每个年代的创业者结合当下最新的技术来定义新的范式,不断创造价值。

游戏+AI可以在创造context、结合context、获取context层做文章。

我们在当代互联网去认识、了解一个人,要比前互联网时期简单高效数百倍,但context的总量理应是不变甚至更多的,因为我们现在有超高维度的交互形式和信息密度媒介。

而游戏化AI产品可以无限持续加速这个进化路线——这个事情(更高维度的交互形式和信息密度)我认为对于人类的需求而言是没有天花板的。



声明:该内容由作者自行发布,观点内容仅供参考,不代表平台立场;如有侵权,请联系平台删除。
标签:
智能体(Agent)
生成式大模型
语义级改写引擎