算力不開放,智能難平權:萬億參數時代,誰為開源模型托底?

2025 年8月7日,恰逢開放計算技術大會開幕,立秋的北京酷熱難耐,仍然無法阻止全球ICT、智算從業者,以及不少想用好AI的企業前來參會的熱情。人潮涌動的展廳,座無虛席的會場,說明各個行業都有不少落地AI的困惑與問題,迫切渴望尋找解決之法。
企業做AI,一定都遇到過這樣的情況:
下載了開源大模型,想自己訓練專有模型,但服務器顯存不夠,萬億參數模型的推理頻繁中斷,跑一次崩一次;
業務部門的同事對AI的響應時間極為敏感,多個模型及智能體協同作業時,等待時間一長就怨聲載道,IT部門沒少吃投訴;
聽說超節點技術能解決算力問題,一打聽,這東西也太貴了,部署之前還得解決液冷、高壓供電、復雜互聯系統之類的要求,只有巨頭能玩,自家企業的現有IT設施無法上車。
如何在業務中用好開源大模型,是當下企業智能化最迫切的任務。而具備開放架構、成熟技術、穩定高效部署的超節點,成了希望所在。2025開放計算技術大會現場,浪潮信息展廳的元腦SD200超節點,就吸引了不少觀眾駐足。

據了解,元腦SD200超節點AI服務器是浪潮信息面向萬億參數大模型AI時代而設計,以開放設計支持64路本土GPU芯片,可單機運行超萬億參數大模型,實現多模型機內并行與智能體實時協作,采用創新多主機低延遲內存語義通信架構,64卡整機推理性能呈超線性擴展,更重要的是已實現商用部署,可高效支持企業實現多開源大模型的規模化應用。
實現AI普惠化需要開源大模型與開放超節點的協同創新。以DeepSeek、KIMI等開源大模型為基礎,結合元腦SD200商用開放超節點的強大算力支撐,將產生怎樣的技術倍增效應?
咱們就從這場開放計算技術大會上行業熱議的話題聊起。

先進的大模型開源了,意味著所有企業都能用好AI了?沒那么簡單。所謂智能平權,是指不同規模的企業、組織乃至個人,都能公平獲取和運用AI能力。
開源大模型的普及,確實為各類企業提供了技術底座。但許多企業在部署開源大模型時,還會面臨一個共性問題:如何找到能高效承載萬億級模型的AI基礎設施,讓技術潛力真正落地為業務生產力?
首先,開源大模型邁向萬億級,穩定運行的前提是放得下。KIMI-K2為代表的先進開源大模型參數量達萬億規模,特別是當邁入Agentic AI(代理式AI)階段,企業一般不會只用一個大模型。為了充分發揮不同大模型的特色優勢,多個超大規模參數的大模型同時跑起來,產生的KV Cache超過了傳統多卡服務器的承載極限,實時交互時往往因內存溢出導致任務中斷。如何解決這個問題?

本次開放計算技術大會上,業內討論了scale out(橫向擴展)與scale up(縱向擴展)兩條技術路線,共識是:超節點通過scale up在單機內高密度集成計算單元,構建單一統一計算域,實現超大統一顯存空間,是必然選擇。
其次,AI應用不僅要能跑,還要跑得快。將多張加速卡連起來,但這還不夠。傳統架構中,跨節點鏈路過長會導致通信延遲飆升,尤其在推理場景中,幾MB的小數據包高頻交互,對延遲極為敏感。特別是當AI應用從訓練階段轉向推理與后訓練為主,海量token的實時處理需要極致的通信效率,所以scale up系統還需要解決高效通信的問題。
更關鍵的是,技術方案必須能落地。再好的超節點系統,如果不能被部署到企業現有設施中,不能響應實際業務需求,那也只是畫餅而無法充饑。目前,企業普遍存在多品牌多批次芯片的混搭算力現狀,而模型在異構算力平臺間遷移困難的問題,正成為AI落地的主要障礙。而開放架構的超節點,可以兼容多元算力芯片,讓企業原來的IT投資不浪費,掌握選擇權,并通過開源軟件生態,支持模型的快速遷移與AI應用的敏捷上線。

所以,能落地的開放超節點,也就和開源大模型一起,成為智能平權的兩大基本要素,讓企業真正實現“技術平權、智能平權”。
回應最終用戶的所想所要,才是企業級市場真正需要的超節點,而以應用導向、客戶需求來研發,才能構成對市場的正向引導。客觀來看,市面上成熟可商用的開放超節點,并不多見。所以,元腦SD200在此次大會上讓大家格外關注。
那么,打造開放超節點,究竟存在什么難點呢?

基于開放架構的超節點,為開源大模型的規模化落地和應用創新提供支撐,二者協同才能真正突破算法與算力的雙重壁壘。這個理想很豐滿,但把開放超節點從理念轉化為成熟可商用的產品,并非易事。
首要挑戰就是構建大規模、高集成度的Scale Up系統,Scale out技術比較成熟,實現起來更簡單。而Scale Up的復雜度更高,以前的一些成熟技術和管理軟件也不夠用,需要針對性地開發。
其次,便是工程化的問題。芯片的跨距離傳輸會受到光模塊的影響,故障率和功耗都會影響傳輸性能。銅纜又有連接極限,怎么在有限的空間內堆積更多的計算芯片,需要創新的架構設計和工程實踐。

顯然,要把開放超節點帶進現實,必須得系統性創新。因此,元腦SD200率先闖過重重難關,為行業提供了有益的實踐參考。具體是怎么做的?
第一步,開放架構,構建AI可用的算力底座。
基于OCM(開放算力模組)+OAM(開放加速模塊)融合架構,元腦SD200實現多元算力芯片兼容,單機可集成64路本土GPU芯片,滿足萬億規模大模型運行的算力需求。采用3D Mesh開放架構,實現8倍顯存擴增,單機可提供4TB顯存與64TB內存,支持1.2萬億參數Kimi K2模型的流暢推理。這種模塊化設計支持靈活擴展,解決了傳統架構在部署成本、擴展難度和長期運維上的痛點,顯著降低開源大模型的落地門檻。

第二步,軟硬協同,實現AI好用的性能優化。
軟件在超節點復雜的系統當中,發揮著非常重要的作用。元腦SD200通過智能總線管理,實現64卡全局最優路由自動創建,支持多拓撲靈活切換與資源按需分配。結合預填充-解碼(Prefill-Decoder)分離推理框架,系統實現軟硬件深度協同,智能化調度復雜AI計算任務。
軟硬協同的創新設計,實現了性能的超線性擴展,讓元腦SD200在大模型場景中展示出非常好的性能表現,比如,滿機運行DeepSeek R1全參模型推理性能超線性提升比為3.7倍,滿機運行Kimi K2全參模型推理性能超線性提升比為1.7倍。說明超節點并不是堆更多卡就夠了,還要有軟硬協同、系統優化,才能拉開差距。
第三步,產業鏈整合,打造AI易用的成熟方案。
據了解,元腦SD200采用了很多開源開放的技術,作為系統級廠商,浪潮信息牽引產業鏈上下游開展協同創新。比如,元腦SD200原生支持PyTorch、TensorFlow等主流框架,確保本土頂級開源模型的無縫遷移與Day0快速上線。其高效風冷散熱設計無需改造現有機房,成熟度與穩定性優勢顯著,可以靈活部署到企業已有的數據中心機房里,快速上線業務。
這種系統性創新使元腦SD200成為開放超節點的標桿產品。萬億級模型也放得下、跑得快、能落地,元腦SD200的成功闖關,把智能平權從口號變成了可觸摸的現實,讓業內看到了開放超節點的可行性。

今年一月,OpenAI CEO山姆奧特曼坦言在開源問題上“OpenAI可能站錯了歷史的一邊”,中國的DeepSeek、通義千問等開源模型迅速崛起,特朗普政府呼吁美國AI 開發商更多開源技術……
這些2025年的AI產業新變化,可以匯總出一個清晰的趨勢:通過開源開放,讓AI成為全社會的生產力工具,實現智能平權,是技術演進與產業發展的必然選擇。
但開源大模型爆發式增長的同時,大模型落地的算力門檻,卻讓不少企業只能望“智”興嘆。

這時候,浪潮信息以元腦SD200開放超節點為支點,將開放架構與開源模型深度耦合,正站在歷史前進的方向上。
為什么浪潮信息會成為開放超節點的破局者?打造成熟可商用的開放超節點,要求企業具備橫跨硬件架構、軟件棧優化、生態協同的系統級能力。元腦SD200從芯片互連到應用調度的全棧創新,正是系統級廠商獨有的技術壁壘。
更關鍵的是系統級廠商的產業鏈整合能力。
浪潮信息副總經理趙帥表示,以應用為導向,以系統為核心,聚焦系統架構的創新,在當前的成本和應用性能約束的條件下,思考怎么為用戶創造更大的價值,這是最佳的突破路徑。

他提到,后續浪潮信息也會持續超節點架構的開放戰略,通過技術共享促進產業鏈協同創新,加速超節點技術的產業化進程。隨著產業生態的成熟和市場選擇的多元化,企業將獲得更優化的技術方案選擇:既能夠滿足高性能計算需求,又能實現更合理的成本。這一開放策略將有效降低技術應用門檻,推動AI基礎設施的規模化普及。
當更多企業加入超節點應用陣營,智算產業的市場蛋糕將持續做大,整個產業鏈也將在規模效應中共享增長價值。
不難發現,開放的生態活力,最終會反哺系統級廠商自身。通過開放架構,浪潮信息的技術壁壘與標準壁壘,有望構建起長期優勢,在全球市場獲得更大競爭力,打開廣闊商業空間。
以開源開放牽引產業鏈升級,進擊全球智算市場,中國智算企業正站在歷史前進的方向上——這或許是開放計算技術大會和元腦SD200超節點,帶給我們的終極啟示。
這條智能平權之路,值得中國智算產業鏈全力以赴。

原文標題 : 算力不開放,智能難平權:萬億參數時代,誰為開源模型托底?
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
-
11月7日立即參評>> 【評選】維科杯·OFweek 2025(第十屆)物聯網行業年度評選
-
11月20日立即報名>> 【免費下載】RISC-V芯片發展現狀與測試挑戰-白皮書
-
即日-11.25立即下載>>> 費斯托白皮書《柔性:汽車生產未來的關鍵》
-
11月27日立即報名>> 【工程師系列】汽車電子技術在線大會
-
11月28日立即下載>> 【白皮書】精準洞察 無線掌控——283FC智能自檢萬用表
-
12月18日立即報名>> 【線下會議】OFweek 2025(第十屆)物聯網產業大會


分享













