
阿里巴巴通义千问团队日前宣布推出 Qwen3.5 中型系列模型,该系列模型的核心理念是以更少的算力实现更高的智能,即不再单纯追求参数规模,而是通过优化模型架构、数据质量和强化学习来提升实际性能。
在发布公告中通义千问团队称,Qwen3.5-35B-A3B 在多项基准测试中已经超越此前参数规模更大的 Qwen3-235B-A22B-2507 和 Qwen3-VL-235B-A22B。
这个测试结果表明更好的架构、数据质量和强化学习可以推动智能进步,而不需要非得依赖于更大参数量,这也意味着未来我们可能可以在性能较低的普通电脑上运行这些本地模型。
新发布的模型如下:
Qwen3.5-35B-A3B:采用 MoE 混合专家架构,总参数为 35B,激活参数为 3B。该模型在复杂推理、多语言理解和多模态任务中表现出色,尤其是在智能体场景下与更大规模模型形成有效竞争。
Qwen3.5-122B-A10B:总参数为 122B,激活参数为 10B,定位为中大型模型,重点优化复杂智能体任务和长上下文处理能力,继续缩小中型规模与前言模型之间的差距。
Qwen3.5-27B:该模型属于纯稠密模型,适合本地部署和在资源受限的环境中部署,在保持较高性能的同时显著降低推理成本。
Qwen3.5-Flash:托管生产版本,该版本与 Qwen3.5-35B-A3B 对齐,默认支持 1M 上下文长度并内置官方工具调用能力,适合企业级 API 调用和实时应用场景。
目前这些新发布的模型均在 HuggingFace 和 ModelScope 中发布,所有模型均为开源模型,任何个人和企业均可下载模型微调或直接使用,当然也不限于竞争产品使用这些模型蒸馏和改进自己的模型。
GGUF 量化版可在 24GB 内存 (包括显存) 的设备上运行:
阿里巴巴也同样为知名模型量化团队 Unsloth AI 提供首日权限让该团队可以提前进行量化,经过量化的版本可以在包含 24GB 内存 / 显存的设备上本地运行,这可以显著降低个人开发者、研究机构和中小企业的模型运行成本。
以上就是“阿里巴巴发布Qwen3.5中型系列模型 量化版可在24GB内存/显存的上本地运行”的详细内容,想要了解更多Python教程欢迎持续关注编程学习网。扫码二维码 获取免费视频学习资料

- 本文固定链接: http://www.phpxs.com/post/14013/
- 转载请注明:转载必须在正文中标注并保留原文链接
- 扫码: 扫上方二维码获取免费视频资料