MiniMax M2.7开源,携手全球伙伴加速AI生态繁荣
2026-04-13 06:00:08
文章摘要
今日,MiniMax M2.7 正式开源。三周前该模型率先上线,能自我进化、完成复杂生产力任务,在多场景表现优异,调用量快速提升。开源首日,其与多家芯片厂商、推理平台完成接入与适配。未来将与更多伙伴协作,加速全球 AI 生态繁荣。全球开源地址已公布。
MiniMax M2.7 在今天正式开源。我们和华为昇腾、摩尔线程、沐曦、昆仑芯、NVIDIA,以及 Together AI、Fireworks、Ollama 等海内外芯片厂商、推理平台携手,在开源首日即完成模型接入与推理适配工作,推动全球 AI 生态繁荣发展。
三周前,MiniMax M2.7 率先上线。M2.7 开启了模型的自我进化,也是我们第一个 AI 深度参与迭代自己的模型。M2.7 能够自行构建复杂 Agent Harness,并基于 Agent Teams、复杂 Skills、Tool Search tool 等能力,完成高度复杂的生产力任务。
基于其在真实的软件工程、专业办公场景的优异表现,M2.7 已成为在 Hermes Agent、OpenClaw 等智能体工具中最受好评的模型之一。来自海内外的开发者与企业客户的接入需求持续增长,模型调用量在快速提升。

- 昇腾 AI 基础软硬件实现首日适配,基于 vllm-Ascend 推理引擎在 Atlas 800 A3、Atlas 800I A2 系列产品上为模型的推理部署提供全流程支持;
- 摩尔线程技术团队基于 MUSA 架构,针对 M2.7 的模型特点完成深度调优,成功在 MTT S5000 上实现模型的的高性能推理;
- 沐曦曦云 C 系列 GPU 凭借全栈自研的 MXMACA 软件栈,首日完成深度适配,实现“模型发布即算力就绪”的 Day 0 体验;
- 昆仑芯依托自研架构,通过底层算子优化与软硬件协同加速,保障 M2.7 在平台上的稳定、高效运行表现;
- NVIDIA 推理框架 TensorRT-LLM 为 M2.7 提供了深度适配与全面优化支持,帮助开发者和企业用户高效完成模型的部署与上线。
除产品适配外,Together AI、Fireworks、Ollama、vLLM、SGLang 和智源众智 FlagOS、魔搭等海内外开发平台与社区已同步在首日接入 MiniMax M2.7 模型并完成适配。
未来,我们将与海内外更多生态伙伴携手,在模型架构优化、应用场景落地、行业生态建设等多维度展开协作,为客户和开发者提供模型的最佳使用体验,加速全球 AI 生态繁荣。
全球开源地址:
huggingface.co/MiniMaxAI/MiniMax-M2.7
github.com/MiniMax-AI/MiniMax-M2.7
文章来自于微信公众号 "MiniMax 稀宇科技",作者 "MiniMax 稀宇科技"
声明:该内容由作者自行发布,观点内容仅供参考,不代表平台立场;如有侵权,请联系平台删除。
标签:

