更小、更强、更省。阿里Qwen 3.5四款模型齐发,马斯克惊呼“智能密度惊人”
参数仅1/13,性能却反杀GPT-120B?
塔猴3月3日报道,刚刚,国产开源模型再次引爆全网,不是谷歌,不是马斯克,而是来自中国的阿里Qwen团队。
就在昨天(3月2日),阿里正式祭出Qwen 3.5小型模型系列全家桶,一口气发布了0.8B、2B、4B、9B四款轻量级模型。全系原生支持多模态、遵循Apache 2.0开源协议、不仅更强,还更省,直接把大模型的使用门槛打到了手机端。
推特掌门人埃隆·马斯克都坐不住了,他在自己的推特平台上评价道:“Impressive intelligence density”(惊人的智能密度)。
马斯克X平台点赞Qwen 3.5
连马斯克都惊呼不可思议,这波国产模型到底有多强?
简单来说,这次阿里只是秀了下“单位智能”的肌肉,就把全世界吓得不行,Qwen 3.5系列向世界证明:更少的计算量,一样能产出更高的智能。
塔猴第一时间梳理了Qwen 3.5系列的核心看点,带你一探究竟。
01. 9B模型逆天反杀,笔记本也能跑
此次发布的全家桶中,最引人注目的当属Qwen3.5-9B。
在以往的认知里,要想模型聪明,参数必须大,显存必须大,必须来个H100压压惊。但Qwen3.5-9B直接颠覆了这一常识,简直是“蚂蚁绊倒大象”。
根据VentureBeat和官方披露的测试数据,Qwen3.5-9B在综合知识、视觉数学、图像识别等多个基准测试中,超越了同量级的Llama-3,还反杀了OpenAI的gpt-oss-120B。
要知道,gpt-oss-120B的参数量可是Qwen3.5-9B的13.5倍!
Qwen3.5-9B 基准测试对比
凭什么Qwen能做到以小博大?
这背后是阿里团队在架构上的突破:Gated DeltaNet混合注意力架构。配合大规模强化学习(RL)优化,这套一加一大于二的组合,让模型在处理复杂逻辑和多模态信息时,效率呈指数级提升。
对于开发者和普通用户来说,这意味着什么?
意味着你现在,只需要一台普通的8GB显存游戏本,或者是一台MacBook Air,就能在本地流畅运行一个“SOTA(当前最佳)”级别的多模态大模型。
不仅能聊,还能看,还能写代码,且完全离线、隐私安全。这在两年前,简直是不可想象的。
13代i5 + 16GB内存本地运行Qwen3.5
02. 0.8B到4B全覆盖,轻松塞进iPhone 17
如果说9B是桌面端的王炸,那么0.8B、2B和4B则是阿里给移动端和边缘设备准备的老虎队。
这次Qwen团队的刀法极其精准,堪称开源界老黄。
极致轻量组(0.8B & 2B):
这两款模型专为IoT设备、耳机、旧手机等算力受限场景打造。经过量化处理后,它们的显存占用极低,响应速度却达到了毫秒级。
塔猴在X平台上看到,已经有开发者晒出了在iPhone 17 Pro上通过MLX框架加速运行Qwen3.5-2B的视频。
iPhone 17 Pro 运行 Qwen3.5-2B
视频中,用户不仅能与模型流畅对话,甚至可以直接调用摄像头让AI识别画面中的物体。
黄金甜点位(4B):
而4B模型,则被视为Agent(智能体)的最佳载体。
它在性能上已经逼近了上一代庞大的Qwen3-30B,甚至在某些指标上追平了80B的模型,但显存需求却死死压在了8GB以内。
对于想做AI眼镜、具身智能机器人或者复杂端侧APP的开发者来说,Qwen3.5-4B无疑是一把利器,既有大模型的脑子,又有小模型的身材。
03. Apache 2.0全开放,开源社区玩疯了
技术虽好,生态跟不上也不行。
此次Qwen 3.5系列最良心的一点,就是全系采用Apache 2.0协议,并且同时开源了Instruct(指令微调版)和Base(基础版)。
也就是说,无论你是做学术研究,还是做商业应用,甚至拿去魔改、套壳,阿里都双手欢迎。
消息一出,全球开源社区直接炸锅。
短短24小时内,Hugging Face和阿里的ModelScope魔搭社区下载量激增,服务器一度被热情的开发者挤爆。
在Reddit和X平台上,各路大神已经开始整活:
有开发者实测,使用LM Studio加载Qwen3.5-9B,在普通家用电脑上仅占用7GB显存,推理速度飞快。
LM Studio运行Qwen3.5-9B,显存约7GB
更有Web前端大神通过Transformers.js,直接在浏览器里跑通了全系列模型。用户甚至不需要安装任何环境,打开网页就能跑AI,这对于中小企业和个人开发者来说,门槛再次被压低。
“More intelligence, less compute”(更高智能,更少计算),Qwen团队这句口号,真的没有画饼。
04. 结语
阿里这次Qwen 3.5的发布,证明了在算法和架构优化面前,堆砌参数不再是提升智能的唯一路径。
Qwen 3.5可以轻松跑在你的手机里、跑在你的浏览器里、甚至跑在你的眼镜里,而且完全开源,这给技术派无限遐想。
正如马斯克所言,这惊人的“智能密度”,或许正是开启下一个AI时代的钥匙。
(微信公众号:Tahou_2025)记得点赞、转发、推荐,祝大家AI路上不迷路!



