更小、更强、更省。阿里Qwen 3.5四款模型齐发,马斯克惊呼“智能密度惊人”

2026-03-03 17:03:37

参数仅1/13,性能却反杀GPT-120B?

塔猴3月3日报道,刚刚,国产开源模型再次引爆全网,不是谷歌,不是马斯克,而是来自中国的阿里Qwen团队。

就在昨天(3月2日),阿里正式祭出Qwen 3.5小型模型系列全家桶,一口气发布了0.8B、2B、4B、9B四款轻量级模型。全系原生支持多模态、遵循Apache 2.0开源协议、不仅更强,还更省,直接把大模型的使用门槛打到了手机端。

推特掌门人埃隆·马斯克都坐不住了,他在自己的推特平台上评价道:“Impressive intelligence density”(惊人的智能密度)。


马斯克X平台点赞Qwen 3.5

连马斯克都惊呼不可思议,这波国产模型到底有多强?

简单来说,这次阿里只是秀了下“单位智能”的肌肉,就把全世界吓得不行,Qwen 3.5系列向世界证明:更少的计算量,一样能产出更高的智能。

塔猴第一时间梳理了Qwen 3.5系列的核心看点,带你一探究竟。

01. 9B模型逆天反杀,笔记本也能跑

此次发布的全家桶中,最引人注目的当属Qwen3.5-9B。

在以往的认知里,要想模型聪明,参数必须大,显存必须大,必须来个H100压压惊。但Qwen3.5-9B直接颠覆了这一常识,简直是“蚂蚁绊倒大象”。

根据VentureBeat和官方披露的测试数据,Qwen3.5-9B在综合知识、视觉数学、图像识别等多个基准测试中,超越了同量级的Llama-3,还反杀了OpenAI的gpt-oss-120B。

要知道,gpt-oss-120B的参数量可是Qwen3.5-9B的13.5倍


Qwen3.5-9B 基准测试对比

凭什么Qwen能做到以小博大?

这背后是阿里团队在架构上的突破:Gated DeltaNet混合注意力架构。配合大规模强化学习(RL)优化,这套一加一大于二的组合,让模型在处理复杂逻辑和多模态信息时,效率呈指数级提升。

对于开发者和普通用户来说,这意味着什么?

意味着你现在,只需要一台普通的8GB显存游戏本,或者是一台MacBook Air,就能在本地流畅运行一个“SOTA(当前最佳)”级别的多模态大模型。

不仅能聊,还能看,还能写代码,且完全离线、隐私安全。这在两年前,简直是不可想象的。


13代i5 + 16GB内存本地运行Qwen3.5

02. 0.8B到4B全覆盖,轻松塞进iPhone 17

如果说9B是桌面端的王炸,那么0.8B、2B和4B则是阿里给移动端和边缘设备准备的老虎队。

这次Qwen团队的刀法极其精准,堪称开源界老黄。

极致轻量组(0.8B & 2B):
这两款模型专为IoT设备、耳机、旧手机等算力受限场景打造。经过量化处理后,它们的显存占用极低,响应速度却达到了毫秒级。 塔猴在X平台上看到,已经有开发者晒出了在iPhone 17 Pro上通过MLX框架加速运行Qwen3.5-2B的视频。


iPhone 17 Pro 运行 Qwen3.5-2B

视频中,用户不仅能与模型流畅对话,甚至可以直接调用摄像头让AI识别画面中的物体。

黄金甜点位(4B):
而4B模型,则被视为Agent(智能体)的最佳载体

它在性能上已经逼近了上一代庞大的Qwen3-30B,甚至在某些指标上追平了80B的模型,但显存需求却死死压在了8GB以内

对于想做AI眼镜、具身智能机器人或者复杂端侧APP的开发者来说,Qwen3.5-4B无疑是一把利器,既有大模型的脑子,又有小模型的身材。

03. Apache 2.0全开放,开源社区玩疯了

技术虽好,生态跟不上也不行。

此次Qwen 3.5系列最良心的一点,就是全系采用Apache 2.0协议,并且同时开源了Instruct(指令微调版)Base(基础版)

也就是说,无论你是做学术研究,还是做商业应用,甚至拿去魔改、套壳,阿里都双手欢迎。

消息一出,全球开源社区直接炸锅。

短短24小时内,Hugging Face和阿里的ModelScope魔搭社区下载量激增,服务器一度被热情的开发者挤爆。

在Reddit和X平台上,各路大神已经开始整活:

有开发者实测,使用LM Studio加载Qwen3.5-9B,在普通家用电脑上仅占用7GB显存,推理速度飞快。


LM Studio运行Qwen3.5-9B,显存约7GB

更有Web前端大神通过Transformers.js,直接在浏览器里跑通了全系列模型。用户甚至不需要安装任何环境,打开网页就能跑AI,这对于中小企业和个人开发者来说,门槛再次被压低。

“More intelligence, less compute”(更高智能,更少计算),Qwen团队这句口号,真的没有画饼。

04. 结语

阿里这次Qwen 3.5的发布,证明了在算法和架构优化面前,堆砌参数不再是提升智能的唯一路径。

Qwen 3.5可以轻松跑在你的手机里、跑在你的浏览器里、甚至跑在你的眼镜里,而且完全开源,这给技术派无限遐想。

正如马斯克所言,这惊人的“智能密度”,或许正是开启下一个AI时代的钥匙。

你的显卡或者手机,准备好了吗?
传送门:Hugging Face 下载ModelScope 下载
(微信公众号:Tahou_2025)
下载塔猴APP,关注微信公众号「塔猴」,查看更多干货!

记得点赞、转发、推荐,祝大家AI路上不迷路!

声明:该内容由作者自行发布,观点内容仅供参考,不代表平台立场;如有侵权,请联系平台删除。
标签:
开源大模型
模型优化
模型压缩
边缘模型部署
多模态大模型
智能体(Agent)