新京報貝殼財經(jīng)訊(記者羅亦丹)6月27日,騰訊混元宣布開源首個混合推理MoE模型 Hunyuan-A13B,總參數(shù)80B,激活參數(shù)僅13B,效果比肩同等架構(gòu)領(lǐng)先開源模型,但是推理速度更快,性價比更高。這意味著,開發(fā)者可以用更低門檻的方式獲得更好的模型能力。
MeE是DeepSeek大模型采用的架構(gòu)類型,并在DeepSeek爆火后得到了業(yè)界的更多認可。而本次騰訊混元所發(fā)布的,是業(yè)界首個13B級別的MoE開源混合推理模型,基于先進的模型架構(gòu),Hunyuan-A13B表現(xiàn)出強大的通用能力,在多個業(yè)內(nèi)權(quán)威數(shù)據(jù)測試集上獲得好成績,并且在Agent工具調(diào)用和長文能力上有突出表現(xiàn)。
即日起,模型已經(jīng)在 Github 和 Huggingface 等開源社區(qū)上線,同時模型API也在騰訊云官網(wǎng)正式上線,支持快速接入部署。
校對 穆祥桐