淺談存儲器體系結構的未來發(fā)展趨勢
對存儲器帶寬的追求成為系統(tǒng)設計最突出的主題。SoC設計人員無論是使用ASIC還是FPGA技術,其思考的核心都是必須規(guī)劃、設計并實現(xiàn)存儲器。系統(tǒng)設計人員必須清楚的理解存儲器數(shù)據(jù)流模式,以及芯片設計人員建立的端口。即使是存儲器供應商也面臨DDR的退出,要理解系統(tǒng)行為,以便找到持續(xù)發(fā)展的新方法。
本文引用地址:http://butianyuan.cn/article/201710/367190.htm曾經在斯坦福大學舉辦的熱點芯片大會上,尋求帶寬成為論文討論的主題,設計人員介紹了很多方法來解決所面臨的挑戰(zhàn)。從這些文章中,以及從現(xiàn)場工作的設計人員的經驗中,可以大概看出存儲器系統(tǒng)體系結構今后會怎樣發(fā)展。
存儲器壁壘
基本問題很明顯:現(xiàn)代SoC時鐘頻率高達吉赫茲,并且具有多個內核,與單通道DDR DRAM相比,每秒會發(fā)出更多的存儲器申請。僅僅如此的話,會有很顯然的方案來解決這一問題。但是,這背后還有重要的精細結構,使得這一問題非常復雜,導致有各種各樣的解決辦法。
SoC開發(fā)人員關注的重點從高速時鐘轉向多個內核 , 這從根本上改變了存儲器問題。不再是要求一個 CPU每秒有更高的兆字節(jié)(MBps) ,現(xiàn)在,我們面臨很多不同的處理器——經常是很多不同類型的處理器,都要求同時進行訪問。而且,存儲器訪問的主要模式發(fā)生了變化??茖W和商業(yè)數(shù)據(jù)處理任務通常涉及到大量的局部訪問,或者更糟糕的是采用相對緊湊的算法很慢的傳送大量的數(shù)據(jù)。配置適度規(guī)模的本地SRAM或者高速緩存,這類任務的一個CPU對主存儲器的需求并不高。
DRAM芯片設計人員利用了這種易用性,以便實現(xiàn)更高的密度和能效。相應的,以可預測的順序申請大塊數(shù)據(jù)時,DRAM實現(xiàn)了最佳比特率——它允許塊間插。如果SoC不采用這種常用模式,存儲器系統(tǒng)的有效帶寬會降低一個數(shù)量級。
新的訪問模式
不好的是,SoC的發(fā)展使得DRAM設計人員的假設難以實現(xiàn)。多線程以及軟件設計新出現(xiàn)的趨勢改變了每一內核訪問存儲器的方式。多核處理以及越來越重要的硬件加速意味著很多硬件要競爭使用主存儲器。這些趨勢使得簡單的局部訪問變得復雜,DRAM帶寬與此有關。
多線程意味著,當一個存儲器申請錯過其高速緩存時,CPU不會等待:它開始執(zhí)行不同的線程,其指令和數(shù)據(jù)區(qū)會在與前面線程完全不同的物理存儲區(qū)中。仔細的多路高速緩存設計有助于解決這一問題,但是最終,連續(xù)DRAM申請仍然很有可能去訪問不相關的存儲區(qū),即使每一線程都仔細的優(yōu)化了其存儲器組織。相似的,競爭同一DRAM通道的多個內核也會擾亂DRAM訪問順序。
軟件中的變化也會產生影響。表查找和鏈接表處理會對大數(shù)據(jù)結構產生隨機分散存儲器訪問。數(shù)據(jù)包處理和大數(shù)據(jù)算法將這些任務從控制代碼轉移到大批量數(shù)據(jù)處理流程,系統(tǒng)設計人員不得不專門考慮怎樣高效的處理它們。虛擬化把很多虛擬機放到同一物理內核中,使得存儲器數(shù)據(jù)流更加復雜。
傳統(tǒng)的解決方案
這些問題并不是什么新問題——只是變復雜了。因此,芯片和系統(tǒng)設計人員有很多成熟的方法來滿足越來越高的基帶帶寬需求,提高DRAM的訪問效率。這些方法包括軟件優(yōu)化、高速緩存以及部署DRAM多個通道等。
大部分嵌入式系統(tǒng)設計人員習慣于首先會想到軟件優(yōu)化。在單線程系統(tǒng)中,軟件在很大程度上過度使用了存儲器通道,能耗較高。但是在多線程、多核系統(tǒng)中,軟件開發(fā)人員對DRAM控制器上的實際事件順序的影響很小。一些經驗表明,他們很難改變實際運行時數(shù)據(jù)流模式。DRAM控制器可以使用重新排序和公平算法,編程人員對此并不清楚。
高速緩存的效率會更高——如果高速緩存足夠大 ,能夠顯著減少DRAM數(shù)據(jù)流。例如,在嵌入式多核實現(xiàn)中,相對較小的L1指令高速緩存與規(guī)模適度的L2一同工作,能夠完全容納所有線程的熱點代碼,有效的減少了對主存儲器的指令獲取數(shù)據(jù)流。相似的,在信號處理應用中,把相對較少的數(shù)據(jù)適配到L2或者本地SRAM中,可以去掉濾波器內核負載。要產生較大的影響,高速緩存不一定要實際減少DRAM申請總數(shù)量——只需要保護主要申請源不被其他任務中斷,因此,編程人員能夠優(yōu)化主要任務。
當芯片設計人員無法確定將要運行在SoC中的各種任務時,則傾向于只要成本允許,提供盡可能多的高速緩存:所有CPU內核和加速器的L1高速緩存、大規(guī)模共享L2,以及越來越大的管芯L3。在熱點芯片大會上,從平板電腦級應用處理器到大量的服務器SoC,有很多高速緩存的實例。
在低端,AMD的Kabini SoC (圖1) 就是很有趣的研究。AMD資深研究員Dan Bouvier介紹了這一芯片,它包括四個Jaguar CPU內核,共享了2兆字節(jié)(MB) L2高速緩存,而每個Jaguars有32千字節(jié)(KB)指令和數(shù)據(jù)高速緩存——并不是非傳統(tǒng)的協(xié)議。更驚奇的是芯片的圖形處理器,除了常用的顏色高速緩存以及用于渲染引擎的Z緩沖,還有它自己的L1指令高速緩存和128 KB L2。
圖1.AMD的Kabini SoC目標應用是平板電腦,但是仍然采用了大規(guī)模高速緩存,顯著提高了存儲器帶寬。
而在高端則是IBM的POWER8微處理器(圖2),IBM首席網絡設計師Jeff Stuecheli介紹了這一款芯片。這一650 mm2、22 nm芯片包括12個POWER體系結構CPU內核,每個都有32 KB指令和64 KB數(shù)據(jù)高速緩存。每個內核還有自己512 KB的SRAM L2高速緩存,12 L2共享大容量96 MB的嵌入式DRAM L3。Stuecheli介紹說,三級連續(xù)高速緩存支持每秒230吉字節(jié)(GBps)的存儲器總帶寬。有趣的是,芯片還含有一個小容量會話存儲器。
圖2.IBM的POWER8體系結構在SoC管芯上實現(xiàn)了三級高速緩存。
在這兩個SoC之間是為微軟的XBOX One提供的多管芯模塊(圖3),微軟的John Snell在大會上對此進行了介紹。模塊含有一個SoC管芯,提供了豐富的存儲器資源。SoC有8個AMD Jaguar內核,分成兩組,每組4個。每一內核有32 KB的L1指令和數(shù)據(jù)高速緩存。每4個一組的CPU內核共享一個2 MB L2。此外,管芯上還有4個8 MB共享SRAM,它們至少為CPU提供了109 GBps的帶寬。
圖3.微軟的XBOX One結合了大容量高速緩存、本地SRAM以及模塊內DRAM,以低成本實現(xiàn)了更大的帶寬。
使用DRAM
而XBOX One SoC還揭示了更多的信息。無論您有多大的管芯高速緩存,都無法替代巨大的DRAM帶寬。SoC管芯包括四通道DDR3 DRAM控制器,為模塊中的8 GB DRAM提供了68 GBps峰值帶寬。
DRAM多通道的概念并不限于游戲系統(tǒng)。幾年前,數(shù)據(jù)包處理SoC就開始提供多個完全獨立的DRAM控制器。但是這種策略帶來了挑戰(zhàn)。存儲器優(yōu)化會更加復雜,系統(tǒng)設計人員必須決定哪種數(shù)據(jù)結構映射哪一通道或者控制器。當然,還有可能要求自己的DRAM控制器完成某些高要求任務,在一些嵌入式應用中,這些控制器是非常寶貴的。而DRAM多通道會很快用完引腳,用盡I/O功耗預算。
即使在FPGA設計中,引腳數(shù)量也是一個問題,設計人員應能夠非常靈活的重新組織邏輯,選擇較大的封裝。Altera的高級系統(tǒng)開發(fā)套件(圖4)電路板主要用于原型開發(fā),實現(xiàn)寬帶設計,應用領域包括HD視頻處理、7層數(shù)據(jù)包檢查,或者科學計算等,這是非常有用的套件。
圖4.Altera的高級系統(tǒng)開發(fā)套件極大的滿足了兩片大規(guī)模FPGA的存儲器需求。
Mark Hoopes是Altera廣播應用專家,解釋了電路板應提供很大的存儲器帶寬,不需要詳細的知道用戶在兩片大規(guī)模FPGA中實現(xiàn)的某些設計。因此,設計電路板時,Hoopes檢查了現(xiàn)有Altera視頻知識產權(IP)的存儲器使用模式,調研了外部設計團隊的需求。
結果讓人清醒。Hoopes說:“當您查看每一項功能時,看起來都需要存儲器。但是,當您把功能結合起來后,其需求非常大。在一個例子中,應用程序開發(fā)人員要求為每一片F(xiàn)PGA提供全256位寬DDR3接口以及四通道QDR II SRAM。即使是1932引腳封裝,這也無法實現(xiàn)。因此,設計人員最終采用了四個SRAM塊以及一個192位DDR3接口。
Hoopes指出了多個存儲器控制器對于SoC非常重要。他說,IP開發(fā)人員通常能夠熟練的在子系統(tǒng)級優(yōu)化存儲器,甚至能夠提供他們自己經過優(yōu)化的DRAM控制器。還可以讓一個DRAM通道專門用于子系統(tǒng),讓其他IP模塊運行子系統(tǒng)設計人員的優(yōu)化措施。
未來發(fā)展
在開發(fā)板上還有另一個有趣的模塊:每片F(xiàn)PGA連接了一個MoSys帶寬引擎。這一芯片含有72 MB的DRAM,組織成256塊來仿真SRAM時序,調整用于表存儲等局部訪問應用。非常獨特的是,芯片使用了一個高速串行接口,而不是常用的DDR或者QDR并行接口。Hoopes強調說:“接口是我們包含這些組成的一個原因。我們在FPGA中有未使用的收發(fā)器。”實際是,MoSys先使用了它們。
三種理念——我們都已經分別了解了,能夠融合來定義今后的存儲器體系結構。這些理念是大規(guī)模嵌入式存儲器陣列、使用了容錯協(xié)議的高速串行接口,以及會話存儲器。
MoSys芯片和IBM POWER8體系結構很好的體現(xiàn)了前兩種理念。CPU SoC通過第二個芯片與DRAM通信:Centaur存儲器緩沖。一個POWER8能夠連接8個Centaurs,每個都通過一個專用每秒9.6吉比特(Gbps)的串行通道進行連接。每個Centaur含有16 MB存儲器——用于高速緩存和調度緩沖,以及四個DDR4 DRAM接口,還有一個非常智能的控制器。IBM將Centaur芯片放在DRAM DIMM上,避免了在系統(tǒng)中跨過8個DDR4連接器。這樣,設計集中了大量的存儲器,最終明智的采用了快速串行鏈接,由重試協(xié)議進行保護。
另一熱點芯片實例來自MoSys,在大會上,他們介紹了其下一代Bandwidth Engine 2。根據(jù)所采用的模式,Bandwidth Engine 2通過16個15 Gbps的串行I/O通路連接處理子系統(tǒng)。芯片含有四個存儲器分區(qū),每個包括64塊32K 72位字:在第一代,總共72 MB。很多塊通過智能的重新排序控制器以及大容量片內SRAM高速緩存,隱藏了每一比特單元的動態(tài)特性。
除了Centaur芯片所宣布的特性,Bandwidth Engine 2還在管芯上提供了會話功能。各種版本的芯片提供板上算術邏輯單元,因此,統(tǒng)計采集、計量,以及原子算法和索引操作等都可以在存儲器中進行,不需要將數(shù)據(jù)實際移出到外部串行鏈路上。內部算術邏輯單元(ALU)很顯然可以用于旗語和鏈接表應用。而其他的硬件使得芯片有些專用的特性。MoSys技術副總裁Michael Miller介紹了四種不同版本的Bandwidth Engine 2,它們具有不同的特性。
今后的篇章可能不是由CPU設計師撰寫的,而是取決于低成本商用DRAM供應商。Micron技術公司具體實現(xiàn)了混合立方存儲器(HMC)規(guī)范,開發(fā)原型,宣布了他們的接口合作伙伴。 HMC是一組DRAM塊,堆疊成邏輯管芯,通過一組高速串行通路連接系統(tǒng)的其他部分。 Micron并沒有公開討論邏輯管芯的功能,據(jù)推測,可能含有DRAM控制和緩沖,以仿真SRAM功能,還有可能包括專用會話功能。
邏輯嵌入在存儲器子系統(tǒng)中這一理念包括了很有趣的含義。能夠訪問大量的邏輯柵極和高速緩存的本地DRAM控制器實際上可以虛擬化去除劣化存儲器帶寬的所有DRAM芯片特性。IBM還在熱點芯片大會上介紹了zEC12大型機體系結構,它在硬盤驅動直至它所控制的DRAM DIMM上應用了RAID 5協(xié)議,實際上將DRAM塊用作多塊、并行冗余存儲器系統(tǒng)。相同的原理也可以用于將大塊NAND閃存集成到存儲器系統(tǒng)中,提供了RAID管理分層存儲,可以用作虛擬大容量SRAM。
毫無疑問對SoC的需求越來越大。因此,串行鏈路和本地存儲器,特別是本地智能化會完全改變我們怎樣思考存儲器體系結構。
評論