C114訊 1月16日消息(艾斯)AI時代已經來臨。大模型等新興AI應用需求海量的算力支撐,一座座智算中心拔地而起,規模龐大的萬卡集群逐漸投入商用。如何更好地實現智算中心互聯,服務AI應用創新發展,業界做了大量研究工作。
1月16日,作為“2025中國光通信高質量發展論壇”的開篇之作,“智算中心互聯:算網協同,構筑智算互聯新底座”線上研討會順利召開,會議邀約產業鏈專家代表,圍繞智算中心間跨地域、跨層級、跨主體、高可靠的算力協同與調度,以及智算中心互聯關鍵技術等話題展開了深入探討。
騰訊光網絡架構師李方超應邀作了題為《 超大規模橫向擴展網絡》的主題報告。在報告中,李方超針對AI大模型飛速發展對于網絡提出的全新挑戰與需求進行了深入分析,并詳細介紹了騰訊針對網絡超大規模擴展所打造的MegaScaleOut軟硬件創新解決方案。
以算力換智力存在物理上限 跨IDC的ScaleOut成為剛需
大模型的能力每2-3年就會上一個全新的臺階,同時伴隨著GPU規模相應擴大了數倍乃至數10倍。如今,大模型訓練已從早期GPT3的千卡規模迅速擴展至GPT5的10萬卡規模。顯然,AI的發展與GPU資源線性相關。不過,以算力替換智力天然存在物理資源上限。
“從業務的需求與物理供給之間的矛盾可以推斷出,大園區的擴展是必然的�!崩罘匠谘葜v中介紹道,參考國際市場發展來看,以谷歌、微軟、Meta為代表的北美巨頭們正在積極布局算力園區,這些Hyperscalers通過在自己的優勢區域部署多個子園區,以3-4個IDC的方式共建一個超大規模的算力集群,以此來實現對于電力的供應和投資安全的保證。
作為對比,在國內環境中,如果想訓練一個對標GPT5或者Llama4的大模型,由于GPU的性能限制,我們可能需要更多的GPU來實現相同的算力。同時,隨著多模態訓練的到來,不同型號、不同性能的GPU對應不同類型的訓練存在最優選擇,這對于網絡的靈活和任務分配帶來了更多挑戰。此外,由于交付與工程的因素,會存在不同型號的GPU與不同廠商的GPU混布在同一個IDC的可能,這些最終會導致出現GPU碎片池化的問題。
“因此,結合AI的發展和規模的限制,跨IDC的ScaleOut可能會成為剛需�!崩罘匠瑥娬{。
跨IDC ScaleOut存在多重挑戰 IP與光的融合成為最優解
他進一步分析稱,當進入到DCI以后,收斂比與可靠將變成一個全新的挑戰。
對于DCI出口而言,大象流是一個需要解決的問題。不過,通過優化擁塞控制算法與擴容帶寬等方式,便可以有效應對高并發需求。更大的挑戰在于解決可靠性問題,這主要歸因于跨機房之后對于光纜的不可控。相比傳統網絡來說,無損系統在帶寬下降的時候會直接影響算力能力,網絡抖動與丟包也會直接影響RDMA的性能,光纜故障與抖動成為新的變數。
“根據我們的測算,在丟包0.1%數據的情況下,RDMA的吞吐量會下降10%,因此從機房內到機房間,對于跨IDC的場景,帶寬充裕、鏈路可靠是必備的基本需求�!崩罘匠窒砹艘唤M詳細的測試數據,并指出無法簡單通過光纜與設備來換取可靠性的絕對提升,其中深層次的原因在于“交換機無法實時預見到即將到來的劣化和故障”。
于是,騰訊光網絡團隊意識到,如果可以讓交換機快速地了解物理層到底發生了什么,使交換機有時間去提前執行預定好的策略,并規避物理層的一些變化,這對于IDC的無損網絡來說非常有意義。因此,該團隊提出,IP與光的融合是跨園區無損網絡的最優解。
李方超談到,“針對IP over DWDM,我們正積極推動光器件的小型化與標準化,也即微光學模塊。這一次我們將通過這些創新,讓IP與光可以真正地拉近,實現打破硬件的隔閡,完成真正的融合。通過相干芯片與交換芯片的融合創新,我們讓交換機具備了物理層健康度的評估能力,為跨IDC的Scaleout做好了一切準備�!�
此外,他還詳細介紹了騰訊在ODCC立項的MegaScaleOut項目組,及其在IP over DWDM當中的全新硬件DTS在解決DCI可靠性問題方面的應用,以及通過OCS全光交換設備解決DCI側應用解決容量按需分配的應用。