微软 AI 芯片 Maia 200 上线,性能提升 30%,剑指英伟达
2026-01-28 11:16:08
文章摘要
微软 Maia200 正式在Azure上线,该芯片基于台积电3nm工艺,有1400亿晶体管,每美元性能提升30%。它的上线标志云厂商对英伟达的围剿进入新阶段。


微软 CEO 纳德拉刚刚宣布,微软自研的第二代 AI 芯片 Maia 200,现已正式在 Azure 上线。

这款基于台积电 3nm 工艺打造的芯片,拥有 1400 亿晶体管,每美元性能比微软现有系统提升了整整 30%

过去微软要向英伟达支付昂贵的 AI 推理成本,但现在,微软决定自己造芯片了。


纳德拉推特官宣 Maia 200 上线

一、 不给黄仁勋打工了

过去的两年里,全球 AI 行业似乎只为一家公司转动,英伟达(Nvidia)。从 H100 到 Blackwell,每一块显卡都被视为硬通货,被马斯克称为“算力黄金”

但对于微软来说,这是一种甜蜜的痛苦。


黄仁勋与标志性皮夹克

作为 OpenAI 最大的金主和 Azure 的掌舵者,微软每个季度都在向英伟达支付数百亿美元。据财报显示,微软 2026 财年第一财季的资本支出达到了创纪录的 349 亿美元,其中约一半都用来购买 GPU 和 CPU。

这对于资本巨头也是一笔天文数字,更要命的是,随着 ChatGPT 和 Copilot 的用户数突破 9 亿,AI 的成本还在发生质的变化。

在 AI 发展的早期,成本主要集中在训练,这是一次性投入,虽贵但可控。但现在,成本的大头变成了推理,即模型每天回答 9 亿用户的提问。

这是一个无底洞。每生成一个 Token,每回答一个问题,都在烧钱。

如果继续全盘依赖英伟达,微软实际上是在给黄仁勋打工。为了打破这个死循环,微软必须拥有自己的印钞机。

Maia 200 就是这台机器。

微软 CEO 纳德拉在访谈中直言不讳:“我们的计划是在自己的 AI 模型和芯片之间建立一个闭环。”

潜台词是:我不想被任何人卡脖子,无论是产能,还是价格。


二、 1400 亿晶体管的暴力美学

那么,Maia 200 到底强在哪里?


Maia 200 官方宣传演示

如果说英伟达的 GPU 是全能王,既能训练也能推理,什么都能干,但价格昂贵;那么 Maia 200 就是微软培养的特种兵,它专注于高效的推理

1. 参数

  • 工艺制程: 采用台积电 3nm 工艺。这是目前量产芯片的巅峰,塞进了 1400 亿 个晶体管。作为对比,英伟达的上一代 H100 只有 800 亿晶体管。
  • 内存猛兽: 配备 216GB 的 HBM3e(高带宽内存),带宽高达 7TB/s。这意味着什么?这意味着 Maia 200 可以把巨大的 GPT-4 或 GPT-5 模型一口气塞进进显存里,而不需要频繁地在硬盘和内存之间搬运数据。
  • 极致算力: 其 FP4 性能是亚马逊最新一代 Trainium 3 的 3 倍

Maia 200 液冷机架细节

2. 私房菜

英伟达的 GPU 是卖给全世界用的,它必须照顾到各种场景,就像外卖,一直点一家,永远一个味儿。

而 Maia 200 是微软为 OpenAI 量身定制的私房菜。微软拥有 OpenAI 的源代码,它比任何人都清楚 GPT 模型需要什么样的算力。

这就和 PS5 一样,也许显卡不如顶配电脑,但各个游戏厂商会做定制优化,用户体验并不差。

对于微软的财务报表来说,这只是为了把 Copilot 每次对话的成本从 1 美分降到 0.7 美分。乘以 9 亿用户,这就是数十亿美元的利润。


Maia 200 服务器单板渲染图

三、 围攻光明顶

Maia 200 的上线,标志着云厂商对英伟达的围剿进入了新阶段。

不仅仅是微软,谷歌早就有了 TPU,并且已经迭代到了第六代(Trillium),支撑着自家的 Gemini 模型;亚马逊 AWS 也在疯狂推销自家的 TrainiumInferentia 芯片,试图用低价吸引客户。

大家都在做同一件事:训练用英伟达(没得选),推理用自研(省钱,能闭环)。


微软 Azure AI 数据中心实景

这就是目前 AI 芯片市场的格局:

  • 英伟达依然是王。 在通用性、软件生态(CUDA)和巅峰性能上,它拥有绝对的实力。对于大多数公司和科研机构来说,英伟达是唯一的选择。
  • 但微软们正在挖墙脚。 它们通过混合部署策略,把那些确定性强、规模巨大的内部负载(如 ChatGPT、Office 365 Copilot)转移到自研芯片上。

微软超级智能团队负责人苏莱曼已经表态,他的团队将利用 Maia 200 进行合成数据生成和强化学习。这说明 Maia 200 已经是主力军。


四、 结尾

AI 竞争的下半场,成本控制成了生死线。

如果 Copilot 的订阅费是 20 美元,而背后的算力成本是 15 美元,那就是个苦力活;如果有了 Maia 200,成本降到了 10 美元,就成了印钞机

能够把推理成本打下来,或许更能让纳德拉睡得安稳。因为在商界,省下来的每一分钱,都是利润。

现在还只是开始,而 Maia 200,就是微软射向英伟达的第一颗子弹。

声明:该内容由作者自行发布,观点内容仅供参考,不代表平台立场;如有侵权,请联系平台删除。
标签:
模型部署