華為宣布開源盤古7B稠密和72B混合專家模型
2025-06-30 11:15
6月30日,華為正式宣布開源盤古70億參數(shù)的稠密模型、盤古Pro MoE 720億參數(shù)的混合專家模型和基于昇騰的模型推理技術(shù)。1、盤古Pro MoE 72B模型權(quán)重、基礎(chǔ)推理代碼,已正式上線開源平臺(tái)。2、基于昇騰的超大規(guī)模MoE模型推理代碼,已正式上線開源平臺(tái)。3、盤古7B相關(guān)模型權(quán)重與推理代碼將于近期上線開源平臺(tái)。(界面)
喜歡您正在閱讀的內(nèi)容嗎?歡迎免費(fèi)訂閱泰伯每周精選電郵。
立即訂閱
聲明:泰伯網(wǎng)登載此文出于傳遞更多信息之目的,并不意味著贊同其觀點(diǎn)或證實(shí)其描述,文章內(nèi)容僅供參考。