Qwen3.6 没有 40B 版本

factrue,查了一圈,Qwen3.6 系列不存在 40B 这个规格。你可能混淆了版本号和参数量——"3.6"是版本代号,不是参数前缀。目前 Qwen3.6 开源的本地可跑模型主要是两个:35B-A3B(MoE)和 27B(Dense)。

Qwen3.6-35B-A3B:当前本地编程模型的标杆

这是一个 MoE 稀疏模型,总参数 35B,但每个 token 只激活 3B 参数。核心数据:

SWE-bench Verified: 73.4%,超越前代 Qwen3.5-35B-A3B 一大截,在编码 agent 场景下接近甚至超过更大的 dense 模型。对比 Google Gemma 4 26B-A4B 的 52.0%,高出 21 个百分点。

推理速度:RTX 4090 上 120+ tokens/s,262K 上下文窗口。Simon Willison 实测在 M5 MacBook Pro 上本地运行,SVG 生成任务击败了 Claude Opus 4.7。

社区共识:如果你有 32GB 显存或者 Apple Silicon 大内存机器,这是目前本地编程首选

Qwen3.6-27B:Dense 版本的实力

Artificial Analysis Intelligence Index 得分 46(推理模式)。Reddit 社区讨论中被认为是"40B 以下量化后最强模型"——这可能是你听到"40B"说法的来源,指的是量化后占用接近 40B 模型的显存空间,但模型本身是 27B 参数。

API 版本:Qwen3.6 Max

Intelligence Index 得分 52,256K 上下文。定价 $1.30/1M input tokens,$7.80/1M output tokens,在同级模型中属于中等偏低。不过在 LiveBench 上仍落后于 Gemini 3.1 Pro 和 GPT-5.4。

总结:如果你想本地跑,35B-A3B 是性价比怪物——3B 激活参数就能打出 73.4% SWE-bench,4090 单卡流畅。27B dense 版适合需要更稳定输出的场景。没有 40B 版本,别被社区讨论中的显存占用数字误导了。

create by solin