在人工智能开源领域,国产模型再次交出了一份惊艳的答卷。4月19日晚间,备受期待的千问3.6系列中等尺寸模型——Qwen3.6-35B-A3B正式面向全球开发者开源。
这款模型最核心的亮点在于其“以小博大”的极致效率。虽然总参数量高达350亿,但得益于先进的混合专家(MoE)架构,在实际运行推理时仅需激活30亿参数。这意味着开发者可以用更低的算力成本,获得远超同体量模型的智能输出能力。

在多项权威基准测试中,新模型的表现堪称“跨级挑战”。无论是在考察终端编程能力的Terminal-Bench2.0,还是针对真实世界Agent能力的评估中,其表现不仅大幅超越了前代产品,甚至能够与参数量更大的稠密模型一较高下。
除了硬核的编程与逻辑能力,该模型还引入了“多模态思考”模式。在处理复杂的视觉语言任务时,它能够像人类一样对图像进行空间智能分析和识别。在RefCOCO等复杂图像识别测试中,它取得的高分成绩证明了其在理解现实物理世界方面的巨大潜力。
为了让技术更快速地转化为生产力,该模型已实现与OpenClaw、Claude Code等主流Agent框架的深度兼容。这种高度的适配性,使其有望成为开发者本地部署“智能大脑”的首选底座,轻松应对长程且复杂的业务逻辑。
目前,感兴趣的开发者已经可以通过魔搭社区、Hugging Face或Qwen Studio直接下载并体验这一最新的开源成果。
阿里巴巴千问团队开源稀疏混合专家模型Qwen3.6-35B-A3B,总参数量350亿,激活参数仅30亿。该模型以低计算成本在多项编程基准测试中超越Qwen3.5-27B,并显著领先前代Qwen3.5-35B-A3B,实现轻量级模型在智能体编程领域的关键突破。
上海AI实验室发布全球最大开源科学多模态模型“书生 Intern-S1-Pro”,参数达1万亿。该模型基于“通专融合”架构SAGE,在科学能力上达到国际领先水平,尤其在复杂学科评测中展现出卓越的逻辑推理能力。
腾讯自研大模型混元2.0(Tencent HY2.0)正式发布,与此同时,DeepSeek V3.2也逐步接入腾讯生态。目前,这两大模型已在元宝、ima等腾讯AI原生应用中率先上线,腾讯云也同步开放了相关模型的API及平台服务。
全新发布的Tencent HY2.0采用混合专家(MoE)架构,总参数量高达4
Moondream3.0预览版以轻量高效的混合专家架构(总参9B,激活仅2B)引领视觉语言模型革新。它在复杂场景中表现卓越,多项基准测试超越GPT-5、Gemini和Claude4等主流模型。相比擅长验证码识别的2.0版,3.0版显著扩展了视觉推理能力,引发AI社区广泛关注。
近日,美团宣布推出一款基于混合专家架构的大型推理模型 ——LongCat-Flash-Thinking。这个新模型的参数量高达5600亿,令人瞩目!但最令人惊喜的是,它能够根据上下文需求动态激活186亿至313亿个参数,平均激活约270亿个参数。这种灵活的设计使得模型在多种任务上表现出色,特别是在逻辑推理、数学运算和编程等领域。根据美团的官方数据显示,LongCat-Flash-Thinking 在一系列基准测试中与其他主流模型进行了深入比较。在数学推理方面,例如 MATH500和 AIME25的测试中,该模型表现不凡,甚至声称

关注 “悠AI” 更多干货技巧行业动态