
6月30日,華為宣布開源盤古70億參數的稠密模型和720億參數的混合專家模型(盤古Pro MoE 72B)。此外,基于昇騰的模型推理技術也同步開源。華為表示,此舉是華為踐行昇騰生態戰略的又一關鍵舉措,將推動大模型技術的研究與創新發展,加速推進人工智能在千行百業的應用與價值創造。
據了解,華為最新開源的Pro MoE 72B大模型,在參數量僅為720億,激活160億參數量的情況下,通過動態激活專家網絡的創新設計,實現了以小打大的優異性能,甚至可以媲美千億級模型的性能表現。在業界權威大模型榜單Super CLUE最新公布的2025年5月排行榜上,位居千億參數量以內大模型排行并列國內第一。
最近一段時間以來,華為公開了一系列基于昇騰的大模型技術,讓國內AI開發者備感期待。
今年6月20日舉辦的華為開發者大會2025上,華為重磅發布了盤古大模型5.5。全新升級的盤古大模型5.5包含了五大基礎模型,分別面向NLP(自然語言處理)、多模態、預測、科學計算、計算機視覺領域,推動大模型成為行業數智化轉型的核心動力。會上,華為還發布了基于Cloud Matrix384超節點的新一代昇騰AI云服務,將384顆昇騰NPU和192顆鯤鵬CPU通過高速網絡Matrix Link全對等互聯,形成一臺超級“AI服務器”,單卡推理吞吐量躍升到2300Tokens/s,可為大模型應用提供“澎湃算力”。
值得注意的是,今年5月30日,華為還重磅推出參數規模高達7180億的全新模型——盤古Ultra MoE。這是一個全流程在昇騰AI計算平臺上訓練的準萬億MoE模型。同時,華為發布盤古Ultra MoE模型架構和訓練方法的技術報告,披露眾多技術細節,充分體現了昇騰在超大規模MoE訓練性能上的跨越。
這一系列突破,更為關鍵的意義在于,華為盤古大模型是基于昇騰云的全棧軟硬件訓練而成的,這標志著基于昇騰架構可以打造出世界一流大模型。華為不僅完成了國產算力+國產模型的全流程自主可控的訓練實踐,同時在集群訓練系統的性能上也實現了業界領先,這意味著實現了從硬件到軟件、從訓練到優化、從基礎研究到工程落地的“全棧國產化”和“全流程自主可控”的閉環,國產AI基礎設施的自主創新能力得到了進一步驗證。
此外,與其他大模型廠商相比,華為在大模型戰略上一直獨樹一幟,強調“不作詩,只做事”,堅持為千行萬業“解難題,做難事”,加速千行萬業智能化升級。在盤古大模型5.5發布的同時,華為五大盤古行業思考大模型(盤古醫學、盤古金融、盤古政務、盤古工業、盤古汽車)也同步上線。
華為常務董事、華為云計算CEO張平安介紹,在過去的一年中,盤古大模型持續深耕行業,已在30多個行業、500多個場景中落地,在政務、金融、制造、醫療、煤礦、鋼鐵、鐵路、自動駕駛、氣象等領域發揮巨大價值,重塑千行萬業。
因此,此次華為宣布開源盤古70億參數的稠密模型和720億參數的混合專家模型,一方面有助于更多開發者基于國產算力平臺開發大模型技術,進一步擴展昇騰生態;另一方面在開源的帶動下,有助于吸引更多垂直行業以盤古大模型為基礎打造智能化解決方案,推動大模型更廣泛更深入地賦能千行百業。