新聞中心

EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > 利用 IP 融合云計算基礎(chǔ)架構(gòu)

利用 IP 融合云計算基礎(chǔ)架構(gòu)

作者: 時間:2022-04-02 來源:新思 收藏

數(shù)據(jù)中心工作負載和計算應(yīng)用程序不斷從傳統(tǒng)數(shù)據(jù)中心遷移到超大規(guī)模數(shù)據(jù)中心。根據(jù) Cisco 全球云指數(shù) 測算,“到 2021 年,94% 的工作負載和計算實例都將在云數(shù)據(jù)中心進行處理”(圖 1)。雖然許多應(yīng)用程序由超大規(guī)模的公共云運營商托管,但許多關(guān)鍵任務(wù)工作負載和計算實例都是由私有超大規(guī)模數(shù)據(jù)中心托管的。預(yù)計從 2016 年到 2021 年,私有超大規(guī)模數(shù)據(jù)中心將以 11% 的復(fù)合年增長率增長。雖然大型云提供商開發(fā)了定制的機架級系統(tǒng),但私有云提供商通常采用融合基礎(chǔ)架構(gòu) (CI) 或超融合基礎(chǔ)架構(gòu) (HCI) 系統(tǒng)來提高效率并降低管理成本。CI 系統(tǒng)和 HCI 系統(tǒng)使私有云提供商能夠通過自動化系統(tǒng)配置和控制、虛擬化計算、存儲和網(wǎng)絡(luò)操作,大規(guī)模快速部署新系統(tǒng)。向 CI 和 HCI 系統(tǒng)的過渡正在影響半導(dǎo)體片上系統(tǒng) (SoC) 供應(yīng)商,促使他們對其服務(wù)器處理器、低延遲存儲固態(tài)硬盤 (SSD) 和網(wǎng)絡(luò)交換機設(shè)計加以優(yōu)化。對  CI 和 HCI 系統(tǒng)的需求推動了一類新型 SoC 架構(gòu)的產(chǎn)生,這些架構(gòu)需要最新的 IP 來執(zhí)行產(chǎn)業(yè)功能,如 PCI Express (PCIe)、DDR5、緩存一致性、NVMExpress (NVMe) SSD 存儲和最高帶寬以太網(wǎng)網(wǎng)絡(luò)。

本文引用地址:http://www.butianyuan.cn/article/202204/432744.htm

圖 1:在傳統(tǒng)和云數(shù)據(jù)中心之間分配 Cisco 工作負載和計算實例1

CI 系統(tǒng)將計算、存儲、網(wǎng)絡(luò)和管理結(jié)合到同一套解決方案中,而不是作為不同的數(shù)據(jù)中心功能提供。功能全面的 CI 和 HCI 系統(tǒng)實現(xiàn)了整體管理的自動化,使 IT 人員能夠?qū)P墓芾響?yīng)用程序,而不是基礎(chǔ)架構(gòu)。預(yù)先集成的機架級系統(tǒng)降低了整體復(fù)雜性,以及集成和運營成本。CI 和 HCI 可實現(xiàn)更快的系統(tǒng)部署、更輕松的互操作性和穩(wěn)定的管理,同時還可減少培訓(xùn)和技術(shù)支持的開銷。為了滿足效率和性能要求,用于構(gòu)建 CI 和 HCI 系統(tǒng)的 SoC 元件(如設(shè)計 IP)正在針對處理、內(nèi)存性能和連接功能進行優(yōu)化。

利用 NVMe SSD 和基于 PCIe 的加速器提高性能

基于服務(wù)器的 SSD 可以利用在 PCIe IP 接口上運行的 NVMe 協(xié)議直接連接到服務(wù)器 CPU,同時還能用作緩存加速器,極其快速地緩存頻繁訪問的數(shù)據(jù)或“熱”數(shù)據(jù)。高性能的 NVMe SSD 利用極其高效的輸入/輸出操作和低讀取延遲特性在 PCIe 上運行,不僅提高了服務(wù)器的效率而且避免了通過外部存儲設(shè)備訪問數(shù)據(jù)的必要性。在 PCIe 上運行、以實現(xiàn)服務(wù)器加速的 NVMe SSD 非常適合針對數(shù)據(jù)庫查詢的私有云的高處理量應(yīng)用程序。

除了使用基于 PCIe 的 NVMe SSD 進行數(shù)據(jù)庫加速外,CI 和 HCI 系統(tǒng)還使用 PCIe 交換機架構(gòu)來加速人工智能 (AI) 應(yīng)用的主機處理器。AI 服務(wù)器需要在處理器加速后才能滿足深度學(xué)習(xí)性能的需求。由于圖 2 所示基于 PCIe 的交換機架構(gòu)帶來的低延遲特性,將主機處理器連接到 GPU 和基于硬件的加速器可對深度學(xué)習(xí)算法進行優(yōu)化。對于需要緩存一致性的應(yīng)用程序,基于 PCI Express 協(xié)議棧構(gòu)建的加速器緩存一致性互連 (CCIX) 協(xié)議可在主機處理器和硬件加速器之間進行高速連接。當(dāng)前運行速率是 25 Gbps 且很快就提高為 32 Gbps 的 CCIX 通過定義命令,要求在更新內(nèi)存時即更新系統(tǒng)中的所有組件,確保系統(tǒng)實現(xiàn)單個內(nèi)存空間,從而減少復(fù)制的需求。CCIX 支持交換機拓撲、直連和網(wǎng)格連接。

圖 2:基于 PCIe 交換機架構(gòu)的多主機 AI 服務(wù)器

利用高存儲性能優(yōu)化應(yīng)用

經(jīng)過融合的計算、存儲和網(wǎng)絡(luò)系統(tǒng)需要性能最高的 DRAM 解決方案才能在主機處理器上運行虛擬應(yīng)用程序。整個行業(yè)正在從 DDR4 DRAM 過渡到新一代 DDR5 和 HBM2 DRAM。DDR5 解決方案能夠?qū)崿F(xiàn)高達 4800 Mbps 的數(shù)據(jù)運行速率,從而能夠和每一個高達 80 位寬的通道的多個雙列直插式存儲模塊 (DIMM) 進行連接,從而加快了深度學(xué)習(xí)等功能的工作負載速度。另外,DDR5 還具有可靠性、可用性和可維護性 (RAS) 功能,包括內(nèi)聯(lián)或邊帶糾錯碼 (ECC)、奇偶校驗和數(shù)據(jù)循環(huán)冗余校驗 (CRC),旨在縮短系統(tǒng)停機時間。與 DDR5/4 DRAM 相比,HBM2 是一種高效的解決方案,具有很高的帶寬且每比特數(shù)據(jù)的存取功耗最低。SoC 架構(gòu)師會針對高帶寬應(yīng)用選擇 HBM2 ,針對大容量應(yīng)用選擇 DDR5,或者針對需要高帶寬 HBM2 和大容量 DDR DRAM 的 AI 加速等應(yīng)用結(jié)合使用這兩種類型。

簡化數(shù)據(jù)中心網(wǎng)絡(luò)

傳統(tǒng)的企業(yè)數(shù)據(jù)中心采用基于樹的網(wǎng)絡(luò)拓撲結(jié)構(gòu),其中包含交換式以太網(wǎng)和 VLAN 標(biāo)記。這種拓撲結(jié)構(gòu)僅定義了一條連接網(wǎng)絡(luò)的路徑,通常用于處理服務(wù)器之間的南北數(shù)據(jù)流量。私有云數(shù)據(jù)中心使用的 CI 和 HCI 系統(tǒng)采用扁平的雙層葉脊架構(gòu),具有25G、50G、100G 或 200G 以太網(wǎng)鏈路,使虛擬化服務(wù)器能夠在許多虛擬機之間分配工作流。最新 400G 八通道小型可插拔 (OSFP) 多模收發(fā)器(采用 8 條通道 56G PAM-4 PHY IP)通過提供多個 56G 葉脊鏈路,助力數(shù)據(jù)中心實現(xiàn)高達 400G 的以太網(wǎng)網(wǎng)絡(luò)拓撲。業(yè)界正計劃向 400G 以太網(wǎng)系統(tǒng)所采用的 112G PAM-4 以太網(wǎng)鏈路過渡,并且期待能夠過渡到 800G 以太網(wǎng)應(yīng)用。

CI 和 HCI 系統(tǒng)可以使用軟件定義網(wǎng)絡(luò) (SDN) 輕松管理網(wǎng)絡(luò),將控制流與數(shù)據(jù)路徑分離,從而進一步簡化數(shù)據(jù)中心的網(wǎng)絡(luò)。OpenFlow 等通用軟件棧提供了全行業(yè)一致的軟件環(huán)境來控制 CI 和 HCI 系統(tǒng)。SoC 設(shè)計人員并非擁有專利軟件堆棧,而是在整個私有云數(shù)據(jù)中心內(nèi)運行由 OpenFlow 管理的數(shù)據(jù),使用戶可以非常輕松地(虛擬)配置網(wǎng)絡(luò),無需實際訪問網(wǎng)絡(luò)的硬件設(shè)備。

總結(jié)

CI 和 HCI 系統(tǒng)將超大規(guī)模數(shù)據(jù)中心的三個核心方面(計算、存儲和網(wǎng)絡(luò))整合到同一套解決方案當(dāng)中。它們?nèi)〈烁鞣N各樣經(jīng)常斷開連接的系統(tǒng)和管理工具。隨著企業(yè)數(shù)據(jù)中心不斷向私有云過渡,服務(wù)器和數(shù)據(jù)中心開始利用虛擬化進行整合,支持將越來越多的工作負載放在數(shù)量更少的物理服務(wù)器上運行。利用最新的行業(yè) IP 架構(gòu)和接口協(xié)議進行系統(tǒng)融合,從而對低延遲數(shù)據(jù)庫查詢和深度學(xué)習(xí)等應(yīng)用加以優(yōu)化。CI 和 HCI 系統(tǒng)的硬件在進行集成時使用全新的一套優(yōu)化處理器、高級技術(shù) IP、IP 接口、NVMe SSD 和緩存一致性加速器。

為 CI 和 HCI 系統(tǒng)集成處理器 IP、高級存儲器 IP、連接 IP、NVMe 存儲以及緩存一致性加速器時,SoC 設(shè)計人員需要考慮成本、功耗、性能和開發(fā)進度等因素的技術(shù)權(quán)衡問題。圖 3 展示了一個高級 AI 服務(wù)器 SoC,其中包含主機處理器、安全算法、系統(tǒng)內(nèi)存、連接和加速器。

圖 3: AI 加速/服務(wù)器 SoC

Synopsys 提供種類齊全、通過硅驗證的優(yōu)質(zhì) IP 產(chǎn)品組合,幫助設(shè)計人員開發(fā)出面向應(yīng)用(支持 CI 和 HCI 系統(tǒng))的 SoC。Synopsys DesignWare? 接口 IP、處理器 IP 和基礎(chǔ) IP 在高性能、低延遲和低功耗方面都進行了優(yōu)化,同時支持 16 nm 至 7 nm FinFET 的先進處理技術(shù)。



關(guān)鍵詞: 云計算 存儲器

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉