亚洲精品,日韩av,亚洲国产一区二区三区亚瑟,玩弄寡妇丰满肉体,香蕉久久夜色精品升级完成,亚洲av无码成人精品区一区

  • 科技·商業(yè)·財(cái)經(jīng)媒體
科技·商業(yè)·財(cái)經(jīng)

DeepSeek-R1-0528升級(jí)解析:深度思考與推理能力躍升新高度

   時(shí)間:2025-05-29 20:32 作者:馮璃月

昨日,深度求索公司宣布其DeepSeek R1模型已完成最新的小版本迭代,新版本被命名為DeepSeek-R1-0528。用戶現(xiàn)在可以通過(guò)官方網(wǎng)站、App以及小程序進(jìn)入對(duì)話界面,并啟用“深度思考”功能,來(lái)體驗(yàn)這一最新版本。同時(shí),API接口也已同步更新,且調(diào)用方式維持原樣。

深度求索公司在晚間詳細(xì)公布了此次DeepSeek-R1-0528版本的更新內(nèi)容。據(jù)悉,該版本依舊基于2024年12月發(fā)布的DeepSeek V3 Base模型,但后訓(xùn)練過(guò)程中投入了更多的算力,顯著提升了模型的思維深度和推理能力。在多個(gè)基準(zhǔn)測(cè)評(píng)中,包括數(shù)學(xué)、編程和通用邏輯等方面,DeepSeek-R1-0528取得了國(guó)內(nèi)領(lǐng)先的成績(jī),并且在整體表現(xiàn)上已接近國(guó)際頂尖模型,如o3和Gemini-2.5-Pro。

在各項(xiàng)評(píng)測(cè)集上,DeepSeek-R1-0528均展現(xiàn)出卓越表現(xiàn)。特別是在AIME 2025測(cè)試中,新模型的準(zhǔn)確率從舊版的70%提升到了87.5%。這一顯著進(jìn)步得益于模型在推理過(guò)程中思維深度的增強(qiáng)。在AIME 2025測(cè)試集上,舊版模型平均每題使用12K tokens,而新版模型則提升至23K tokens,顯示出更為詳盡和深入的解題思考。

官方還利用DeepSeek-R1-0528的思維鏈對(duì)Qwen3-8B Base進(jìn)行了蒸餾,得到了DeepSeek-R1-0528-Qwen3-8B。在數(shù)學(xué)測(cè)試AIME 2024中,該8B模型的表現(xiàn)僅次于DeepSeek-R1-0528,超越了Qwen3-8B(+10.0%),與Qwen3-235B相當(dāng)。深度求索公司認(rèn)為,DeepSeek-R1-0528的思維鏈將對(duì)學(xué)術(shù)界推理模型的研究以及工業(yè)界小模型的開發(fā)產(chǎn)生重要影響。

除了深度思考能力的增強(qiáng),DeepSeek-R1-0528還在其他方面進(jìn)行了優(yōu)化。針對(duì)“幻覺”問(wèn)題,新版模型在改寫潤(rùn)色、總結(jié)摘要、閱讀理解等場(chǎng)景中,幻覺率降低了45%至50%左右,提供了更為準(zhǔn)確和可靠的結(jié)果。在創(chuàng)意寫作方面,新版R1模型針對(duì)議論文、小說(shuō)、散文等文體進(jìn)行了優(yōu)化,能夠輸出篇幅更長(zhǎng)、結(jié)構(gòu)內(nèi)容更完整的長(zhǎng)篇作品,并且寫作風(fēng)格更加貼近人類偏好。

在工具調(diào)用方面,DeepSeek-R1-0528也進(jìn)行了支持,不過(guò)目前還不支持在“思考”功能中進(jìn)行工具調(diào)用。當(dāng)前,該模型在Tau-Bench測(cè)評(píng)中的成績(jī)?yōu)閍irline 53.5% / retail 63.9%,與OpenAI的o1-high相當(dāng),但與o3-High以及Claude 4 Sonnet仍有一定差距。

DeepSeek-R1-0528還在前端代碼生成、角色扮演等領(lǐng)域的能力上進(jìn)行了更新和提升。用戶現(xiàn)在可以在網(wǎng)頁(yè)端調(diào)用該模型,使用HTML/CSS/Java開發(fā)各種應(yīng)用。

API接口也同步進(jìn)行了更新,調(diào)用方式保持不變。新版R1 API支持查看模型的思考過(guò)程,并增加了Function Calling和JsonOutput的支持。不過(guò),官方對(duì)max_tokens參數(shù)的含義進(jìn)行了調(diào)整,現(xiàn)在該參數(shù)用于限制模型單次輸出的總長(zhǎng)度(包括思考過(guò)程),默認(rèn)為32K,最大為64K。API用戶需及時(shí)調(diào)整該參數(shù),以防輸出被提前截?cái)唷?/p>

此次更新后,官方網(wǎng)站、小程序、App端和API中的模型上下文長(zhǎng)度仍為64K。若用戶對(duì)更長(zhǎng)的上下文長(zhǎng)度有需求,可以通過(guò)第三方平臺(tái)調(diào)用上下文長(zhǎng)度為128K的開源版本R1-0528模型。

DeepSeek-R1-0528與之前的DeepSeek-R1使用同樣的base模型,僅改進(jìn)了后訓(xùn)練方法。私有化部署時(shí),用戶只需更新checkpoint和tokenizer_config.json(tool calls相關(guān)變動(dòng))。該模型參數(shù)為685B(其中14B為MTP層),開源版本上下文長(zhǎng)度為128K(網(wǎng)頁(yè)端、App和API提供64K上下文)。用戶可以在Huggingface等平臺(tái)下載DeepSeek-R1-0528的模型權(quán)重,此次開源倉(cāng)庫(kù)(包括模型權(quán)重)仍然采用MIT License,并允許用戶利用模型輸出、通過(guò)模型蒸餾等方式訓(xùn)練其他模型。

 
 
更多>同類內(nèi)容
全站最新
熱門內(nèi)容