拒绝伪需求:利用“AI 逆向工程”思维,快速拆解竞品技术路线图
摘要:
在 AI 赛道,竞品分析如果不深入到模型层和提示词层,就是在做“伪需求”。你抄了它的界面(UI),却不知道它背后是用 GPT-4 还是 Llama 3,是用 RAG 还是长上下文,这会导致巨大的研发资源浪费。
本文将分享一套“AI 逆向工程”工作流:利用 Perplexity 进行情报扫描,利用 Chrome DevTools 抓包数据,最后用 GPT-4o 反推竞品的 System Prompt 结构与模型体量。
01. 认知升级:从“看皮囊”到“看骨相”
传统 APP 的壁垒在功能逻辑,AI 应用的壁垒在模型选型与提示词工程(Prompt Engineering)。
当竞品上线了一个“超好用的文档润色功能”时,初级 PM 会说:“我们也做一个润色按钮。”
而高阶 AI PM 会问:
1. 模型层: 他用的是通用大模型,还是微调过的垂直模型?
2. 架构层: 他的响应速度这么快,是用了 Groq 这种推理加速芯片,还是模型量化了?
3. 策略层: 他的输出为何如此稳定?System Prompt 里加了什么约束条件?
02. 第一步:OSINT 情报扫描 —— Perplexity 的降维打击
不要用 Google 或百度搜竞品技术栈,信息噪音太大。Perplexity 是目前最高效的技术情报挖掘机。
实操场景:
假设竞品 App 上线了一个“法律合同审查”功能,准确率极高。你想知道他们背后的技术供应商。
工具:Perplexity Pro (开启 Copilot)
侦查 Prompt:
"Analyze the technical stack of [竞品App名称]'s newly launched contract review feature.
Focus on:
1. Which LLM provider are they partnering with? (OpenAI, Anthropic, or self-trained?)
2. Search for their engineering team's tech blogs, GitHub issues, or PR announcements regarding 'contract review'.
3. Are they using Vector Database (like Pinecone/Milvus) for RAG?"
Perplexity 的价值:
它会深度检索技术论坛、招聘JD(招聘要求往往暴露技术栈)、CTO 的访谈记录。你可能会惊讶地发现:“原来他们早在半年前就招聘了精通 LangChain 的工程师,并且使用了 MiniMax 的国产模型接口。”
03. 第二步:Prompt 结构逆向 —— Chrome DevTools + GPT-4o
竞品到底给 AI 下了什么指令,才让输出效果这么好?虽然我们看不到后端的 System Prompt,但我们可以通过“输出反推输入” 。
实操 SOP:
1. 抓包(Sniffing):
- a. 打开竞品网页版,按 F12 打开 Chrome DevTools。
- b. 进入 Network 面板,筛选 Fetch/XHR。
- c. 执行一次核心功能(例如:点击“润色文案”)。
- d. 在网络请求中找到 /chat 或 /completions 接口,复制其 Response(通常是 JSON 格式的 Markdown 文本)。
2. 反推(Reverse Engineering):
- a. 将竞品的输入(你的提问)和输出(它的回答)喂给 GPT-4o。
逆向分析 Prompt (发给 GPT-4o):
GPT-4o 的输出:
它会给你一个高度还原的 Prompt 模板。通过这种方式,你能快速吸收竞品在“语气控制”和“边界防御”上的心法。
04. 第三步:深度推演 —— 用 Token 速率反推模型体量
这步最硬核。竞品不告诉你他用了什么模型,但**响应速度(Latency)和生成速率(Tokens/sec)**不会撒谎。
核心指标:
● TTFT (Time To First Token): 首字生成时间。反映了服务器负载或是否使用了 RAG(检索增强)。
● TPS (Tokens Per Second): 生成速度。反映了参数量大小。
实操逻辑:
1. 录屏测速: 录制竞品生成长文本的过程。
2. 计算 TPS: 生成总字数 / 生成总耗时。
3. 对标参考系(2024年Q4 行业均值):
测得 TPS | 推测模型体量/技术路线 | 可能性分析 |
> 100 tokens/s | 极速/小模型 | 极大概率使用了 Groq 推理芯片,或 Llama-3-8B 级别的量化小模型。成本极低。 |
30 ~ 60 tokens/s | 主流大模型 | 类似 GPT-4o / Claude 3.5 Sonnet 的标准 API。兼顾智商与速度。 |
< 10 tokens/s | 超大模型 或 复杂 RAG | 可能是 GPT-4-32k 旧版,或者后端跑了极其复杂的 Agent 工作流(联网+检索+思考)。 |
深度分析:
如果竞品 TTFT 很慢(>3秒),但 TPS 很快,说明他在后端先跑了一遍 RAG(检索数据库),然后再流式输出。
如果 TTFT 极快但内容很傻,说明没有任何 RAG,直接裸调模型。
结论价值:
通过这个分析,你能算出竞品的Token成本。如果他 TPS 很高且免费开放,说明他用的是廉价小模型,你可以用更强的模型在质量上降维打击他;如果他 TPS 很低且收费昂贵,说明他背后有复杂的 Agent 链条,你需要评估研发壁垒。
05. 总结
● 用 Perplexity 扫清技术栈盲区。
● 用 Chrome + GPT-4o 偷师提示词逻辑。
● 用 TPS 速率 摸清成本底牌。
下期预告:
很多 AI 产品死在了“数据标注”这一环。下期我们将深入基建层,讲解 《标注员的职业进化:如何利用 Coze 搭建自动化“预标注”智能体》
#CompetitorAnalysis #ReverseEngineering #PromptHacking#



