阿里云Qwen3開源8款「混合推理模型」

4月29日消息,今日阿里云Qwen3正式發(fā)布并全部開源8款混合推理模型。

此次開源包括兩款MoE模型:Qwen3-235B-A22B(2350多億總參數(shù)、 220多億激活參),以及Qwen3-30B-A3B(300億總參數(shù)、30億激活參數(shù));以及六個Dense模型:Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B和Qwen3-0.6B。

全球開發(fā)者、研究機構(gòu)和企業(yè)均可免費在魔搭社區(qū)、HuggingFace等平臺下載模型并商用,支持Apache2.0協(xié)議開源,也可以通過阿里云百煉調(diào)用Qwen3的API服務(wù),

個人用戶可立即通過通義APP直接體驗Qwen3,夸克也即將全線接入Qwen3。

Qwen3 模型支持 119 種語言和方言。

Qwen3 模型支持兩種思考模式:1. 思考模式,適合需要深入思考的復(fù)雜問題。2. 非思考模式,適用于對速度要求高于深度的簡單問題。這種靈活性使用戶能夠根據(jù)具體任務(wù)控制模型進行“思考”的程度。這兩種模式的結(jié)合大大增強了模型實現(xiàn)穩(wěn)定且高效的“思考預(yù)算”控制能力,讓用戶能夠更輕松地為不同任務(wù)配置特定的預(yù)算,在成本效益和推理質(zhì)量之間實現(xiàn)更優(yōu)的平衡。

據(jù)介紹,旗艦?zāi)P蚎wen3-235B-A22B在代碼、數(shù)學(xué)、通用能力等基準(zhǔn)測試中,與一眾頂級模型相比,表現(xiàn)出極具競爭力的結(jié)果。性能表現(xiàn)超OpenAI-o1、DeepSeek-R1等大模型。

小型MoE模型Qwen3-30B-A3B的激活參數(shù)數(shù)量是QwQ-32B10%,表現(xiàn)更勝一籌, Qwen3-4B 這樣的小模型也能匹敵 Qwen2.5-72B-Instruct 的性能。

對于部署,阿里云推薦使用 SGLang 和 vLLM 等框架;而對于本地使用,像 Ollama、LMStudio、MLX、llama.cpp 和 KTransformers 這樣的工具也非常值得推薦。

2025-04-29
阿里云Qwen3開源8款「混合推理模型」
今日阿里云Qwen3正式發(fā)布并全部開源8款混合推理模型。Qwen3 模型支持 119 種語言和方言。Qwen3 模型支持兩種思考模式:1. 思考模式,適合需要深入思考的復(fù)雜問題。據(jù)介紹,旗艦?zāi)P蚎wen3-235B-A22B在代碼、數(shù)學(xué)、通用能力等基準(zhǔn)測試中,與一眾頂級模型相比,表現(xiàn)出極具競爭力的結(jié)果。

長按掃碼 閱讀全文