NVIDIA DGX Rubin NVL8系統採用Intel Xeon作為Host CPU
Intel® Xeon® 6作為主處理器(Host CPU),展現其在現代AI基礎架構中負責協調、擴展與安全防護的核心角色
2026年3月17日—英特爾今(17)日於NVIDIA GTC 2026大會上,宣布Intel® Xeon® 6將使用於NVIDIADGX Rubin NVL8系統。隨著工作負載轉向大規模、即時推論,此項合作進一步突顯了Xeon系列為GPU加速AI系統提供架構延續性與可擴充性的關鍵作用。
英特爾企業副總裁暨資料中心策略規劃部總經理Jeff McVeigh表示:「在代理式AI與推論系統的驅動下,AI正從大規模訓練轉向無所不在的即時推論。在這個新時代,Host CPU扮演至關重要的角色,負責管理GPU加速系統間的任務協調、記憶體存取、模型安全與吞吐量。Intel® Xeon® 6提供領先的效能、效率,並兼容於客戶賴以擴充推論工作的x86軟體生態系。」
隨著企業持續部署AI系統,推論能力的標準已不僅止於GPU吞吐量,也與CPU主導的系統效能息息相關。Host CPU不僅影響整體叢集效率與總體持有成本(TCO),還負責記憶體管理、任務調度及工作負載分配等關鍵功能,並確保現代AI基礎架構所需的安全性、可靠性與營運連續性。
基於這些系統級需求,Intel® Xeon®處理器以其支援高速記憶體、在多元工作負載下維持平衡效能、較低的長期總持有成本,以及成熟且經企業驗證的軟體生態系,因此成為DGX Rubin NVL8系統的主機處理器。此外,英特爾強大的PCIe與I/O能力,進一步強化Xeon作為多元工作負載下高頻寬、低延遲平台的角色。
- 卓越的每瓦效能表現
- 針對AI軟體堆疊生態系的優化支援,包括新增對NVIDIA Dynamo的支援,以實現CPU與即將推出的GPU之間的異質推論
- 在關鍵任務環境中經驗證的可靠性
- 對GPU加速異質系統的卓越調度能力
Intel® Xeon® 6強化其作為現代AI基礎架構的基礎地位,實現橫跨資料中心、雲端及邊緣應用場景的可擴充部署。隨著AI推理規模擴大,從CPU到GPU資料路徑的端到端機密運算變得極為重要。Intel® Trust Domain Extensions (Intel® TDX)透過硬體級隔離與遠端驗證,進一步強化了Xeon作為現代AI叢集安全基礎的優勢。
NVIDIA DGX Rubin NVL8系統整合了Intel® Xeon® 6處理器,延續目前Blackwell平台(如DGX B300系統)中英特爾Xeon 6776P所建立的架構基礎。在此經過驗證的基礎上,英特爾持續將卓越效能、豐富經驗與系統級專業技術導入全新的DGX Rubin NVL8系統。
英特爾專為Xeon設計多項相關技術,以協助系統充分發揮GPU的最大潛力。透過Priority Core Turbo等功能,確保資料能持續高速傳輸至GPU;憑藉強大的單執行緒效能負責調度、排程與資料遷移,即使推理工作負載日益複雜,Xeon仍能確保系統運行順暢且高效。
Intel® Xeon® 6的關鍵特性:
- 支援高達8 TB系統記憶體,滿足大型模型與日益增長的KV快取需求
- 採用MRDIMM技術,記憶體頻寬較前一代提升3倍,提升對GPU的資料傳輸速率
- 業界領先的PCIe 5.0通道,支援AI加速器及其他裝置
- 透過加密緩衝區(Encrypted Bounce Buffer),確保CPU至GPU資料路徑的機密運算
- 硬體隔離技術,在使用中保護AI資料與模型安全
1See [9A6] at intel.com/processorclaims: Intel Xeon 6. Results may vary