3月6日消息,阿里云開源推理模型QwQ-32B,性能媲美6710 億參數(shù)的DeepSeek-R1。據(jù)介紹,QwQ-32B是基于Qwen2.5-32B+強化學習煉成,開發(fā)者和企業(yè)可以在消費級硬件上輕松將其部署到本地設備中。
用戶可以通過Qwen Chat(https://chat.qwen.ai)在線體驗訪問。
用戶也可通過通義APP免費體驗最新的千問QwQ-32B模型。
目前,QwQ-32B 已在Hugging Face和ModelScope魔搭社區(qū)開源,采用了 Apache 2.0 開源協(xié)議。
所有人都可免費下載模型進行本地部署,或者通過阿里云百煉平臺直接調(diào)用模型API服務。
對于云端部署需求,用戶可通過阿里云PAI平臺完成快速部署,并進行模型微調(diào)、評測和應用搭建;或是選擇容器服務ACK搭配阿里云GPU算力(如GPU云服務器、容器計算服務ACS等),實現(xiàn)模型容器化部署和高效推理。
QwQ-32B團隊指出,大規(guī)模強化學習(RL)有潛力超越傳統(tǒng)的預訓練和后訓練方法來提升模型性能。近期的研究表明,強化學習可以顯著提高模型的推理能力。例如,DeepSeek R1 通過整合冷啟動數(shù)據(jù)和多階段訓練,實現(xiàn)了最先進的性能,使其能夠進行深度思考和復雜推理。
最新的推理模型 QwQ-32B,是一款擁有320億參數(shù)的模型,其性能可與具備 6710 億參數(shù)(其中 370 億被激活)的 DeepSeek-R1 媲美。
QwQ-32B 在一系列基準測試中進行了評估,測試了數(shù)學推理、編程能力和通用能力。以下結(jié)果展示了 QwQ-32B 與其他領先模型的性能對比,包括 DeepSeek-R1-Distilled-Qwen-32B、DeepSeek-R1-Distilled-Llama-70B、o1-mini 以及原始的 DeepSeek-R1。
QwQ-32B 模型表現(xiàn)出色,幾乎完全超越了OpenAI-o1-mini,比肩最強開源推理模型DeepSeek-R1:在測試數(shù)學能力的AIME24評測集上,以及評估代碼能力的LiveCodeBench中,千問QwQ-32B表現(xiàn)與DeepSeek-R1相當,遠勝于o1-mini及相同尺寸的R1蒸餾模型;在由Meta首席科學家楊立昆領銜的“最難LLMs評測榜”LiveBench、谷歌等提出的指令遵循能力IFEval評測集、由加州大學伯克利分校等提出的評估準確調(diào)用函數(shù)或工具方面的BFCL測試中,千問QwQ-32B的得分均超越了DeepSeek-R1。
QwQ-32B團隊表示,這一成果突顯了將強化學習應用于經(jīng)過大規(guī)模預訓練的強大基礎模型的有效性。此外,研發(fā)團隊還在QwQ-32B推理模型中集成了與 Agent 相關的能力,使其能夠在使用工具的同時進行批判性思考,并根據(jù)環(huán)境反饋調(diào)整推理過程。
據(jù)介紹,在初始階段,QwQ-32B模型特別針對數(shù)學和編程任務進行了 RL 訓練。與依賴傳統(tǒng)的獎勵模型(reward model)不同,通過校驗生成答案的正確性來為數(shù)學問題提供反饋,并通過代碼執(zhí)行服務器評估生成的代碼是否成功通過測試用例來提供代碼的反饋。隨著訓練輪次的推進,這兩個領域中的性能均表現(xiàn)出持續(xù)的提升。在第一階段的 RL 過后,增加了另一個針對通用能力的 RL。此階段使用通用獎勵模型和一些基于規(guī)則的驗證器進行訓練。最后發(fā)現(xiàn),通過少量步驟的通用 RL,可以提升其他通用能力,同時在數(shù)學和編程任務上的性能沒有顯著下降。(果青)
- 《黑神話:悟空》PS5國行版將于6月18日正式發(fā)售,建議零售價268元起
- 報告:2029年美國AI搜索廣告支出將達260億美元,占比13.6%
- 重塑內(nèi)生安全體系 實現(xiàn)AI時代安全突圍 ——2025北京網(wǎng)絡安全大會(BCS)開幕
- 門禁憑證技術進化簡史:開啟更加安全和便利的未來
- Google I/O 大會:科技盛宴,引領未來創(chuàng)新潮流
- 馬蜂窩端午出行大數(shù)據(jù):短途周邊游是主流,非遺民俗關注度持續(xù)走高
- 微軟裁員6000人原因揭曉 AI沖擊首當其沖
- 騰訊音樂2025Q1業(yè)績持續(xù)高質(zhì)量增長:在線音樂服務收入達58億元,同比增長15.9%
- 硅谷巨頭庭審吐真言:未來10年Meta、谷歌搜索、iPhone或成歷史
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。