6月27日,騰訊混元宣布開源首個混合推理MoE模型 Hunyuan-A13B,總參數(shù)80B,激活參數(shù)僅13B。即日起,模型已經(jīng)在Github和Huggingface等開源社區(qū)上線,同時(shí)模型API也在騰訊云官網(wǎng)正式上線,支持快速接入部署。這是業(yè)界首個13B級別的MoE開源混合推理模型,在Agent工具調(diào)用和長文能力上有突出表現(xiàn)。(36氪)
6月27日,騰訊混元宣布開源首個混合推理MoE模型 Hunyuan-A13B,總參數(shù)80B,激活參數(shù)僅13B。即日起,模型已經(jīng)在Github和Huggingface等開源社區(qū)上線,同時(shí)模型API也在騰訊云官網(wǎng)正式上線,支持快速接入部署。這是業(yè)界首個13B級別的MoE開源混合推理模型,在Agent工具調(diào)用和長文能力上有突出表現(xiàn)。(36氪)