0%
在過去的概念裡,資料中心僅是存放企業伺服器與數位資料的機房,然而隨著雲端運算和 AI 的興起,今日的超大規模資料中心(Hyperscale Data Center)已儼然成為一座算力工廠,透過集結大量的處理器及其算力(以 GPU、TPU 等特定運算處理器為主,關於 xPU 介紹可參考<AI 趨勢下「運算卸載」會帶來哪些 ASIC 與 xPU 的發展?>研究報告),為訓練複雜的 AI 大型語言模型(LLM)提供源源不絕的動力。
而這樣龐大的算力工廠不僅由伺服器構成而已(關於伺服器組成,可參考<雲端服務商機!白話文解構「伺服器產業」>研究報告),在這之中,交換器更是支撐數據傳輸的重要角色,其功能就像是城市中的十字路口交通指揮中心,負責讀取每個數據封包的目的地地址,然後精準地將其轉發到正確的伺服器或下一個交換器,確保數據能夠快速和準確到達目的地。
隨著 AI 相關應用對於資料中心內部資料高流量、高速傳輸的需求增加,交換器及光收發模組相關零組件規格也迎來大幅升級空間,以下是本篇文章重要觀點:
立即開戶 ➠ 富果 App 串接元富證券,研究到下單一站到位!
在資料中心內,伺服器透過網路線連接到交換器,交換器之間再相互連接,構成一個龐大的內部網路。傳統企業應用中,資料流動以「南北向」(North-South Traffic)為主,使用者從外部網路連線到資料中心內的伺服器,伺服器運算處理過後再回傳資料,多數會採用一種稱為三層式架構(3-Tier Architecture)的設計,這種樹狀結構由下至上分為三層:

Source:富果研究部
但在現代 AI 應用中情況截然不同,訓練一個大型 AI 模型,需要將龐大的計算任務拆解並分配給成千上萬個處理器協同運作,過程中必須進行海量且高頻率的資料交換與同步,形成了巨大的「東西向」(East-West Traffic)流量,其規模往往遠超傳統的南北向流量。
此時整體系統效能不僅取決於單顆處理器或單個機櫃的運算能力,更取決於連接這些運算單元的高速網路骨幹,任何傳輸延遲或瓶頸,都會讓昂貴的 GPU 閒置,直接拖慢 AI 模型的訓練效率,推高營運與開發成本。
而傳統的三層式架構就像是每座城市只有一條主幹道(核心層),跨區交通多數時候都必須先繞到主幹道上,流量一提升便可能會造成嚴重的交通壅塞,這就是三層式架構的瓶頸所在,伺服器機櫃間的通訊路徑過長,且容易在核心層產生擁堵,導致高延遲。
為了解決這個問題和因應 AI 叢集(Cluster)的需求,現代資料中心普遍改用脊葉式架構(Spine-Leaf Architecture),這種架構將網路扁平化、只分為兩層:

Source:富果研究部
這種設計帶來了幾個好處,包括:
但另一方面,AI 伺服器
成為會員繼續閱讀全文,再享每週更新獨家研究報告與多項富果投資研究工具!