如何通過開源API在DSP上進行視頻處理
虛擬到物理地址的轉換由編解碼引擎處理。通過復用(指針指向)某些由驅動器分配的緩沖器,可獲得物理上連續(xù)的存儲器,這里使用了Linux中的一些技術,比如dma_alloc_coherent(),來在內核空間中分配這類存儲器。由TI開發(fā)的庫/內核模塊CMEM,允許從用戶空間應用來分配物理上連續(xù)的存儲器。
例如,我們利用前面提到的CMEM驅動器來分配物理上連續(xù)的“輸出”緩沖器。編解碼引擎對幀進行解碼,并把解碼后的幀放在輸出緩沖器中。
接下來,指向輸出緩沖器的指針被傳遞給fbvideosink(通過 GstBuffer)。這個videosink必須把解碼后的數據memcpy(復制)到幀緩存中,然后才能顯示。由于memcpy操作是一種成本很高的GPP使用,這種方法使得ARM 和DDR接口的負載很重,因而增加了功耗,且效率極低。
這種技術對非常小的緩沖器是可行的,但在開發(fā)人員使用D1(和更高)大小的緩沖器時,將開始降低系統性能。一種更有效的方案是復用已經驅動器分配了的物理連續(xù)緩沖器,并在編解碼器引擎和videosink插件之間把指向這些緩沖器的指針來回傳遞。幸運的是,GStreamer提供了一個便于這類交互作用的API。
這個API替代方案利用gst_buffer_new()來創(chuàng)建新的緩沖器。當元件獲知它將在哪一個源襯墊上推動數據時,就對gst_pad_alloc_buffer()函數進行調用。這允許對應的元件為調用元件的工作提供特殊的“硬件”緩沖器,故而減少了系統所需的memcpys數量。
視頻解碼器插件(變換過濾器,通過編解碼器引擎API能夠充分利用DSP的優(yōu)勢)將把從視頻呈現過濾器獲得的緩沖器用作視頻解碼器和執(zhí)行解碼的輸出緩沖器。一旦解碼完成,這個輸出緩沖器將被推動(即指針被傳遞)給視頻呈現過濾器插件。由于解碼后的圖像已經存在于視頻驅動存儲器中,就不再需要memcpy了,在幀被顯示時,視頻呈現過濾器將只需把目前的顯示緩沖器轉換為這種特定的緩沖器就可以了。
AV同步處理
播放期間的音頻/視頻(AV)同步處理一般需要三類決策:一是重復幀的決策。一般在媒體流的幀的顯示時間比幀間隔時間更大時采用。二是顯示幀的決策。一般在媒體流的幀的顯示時間在最小和最大閾值之間時采用。三是跳幀決策。一般在幀的顯示時間落后顯示時間至少兩個幀時采用。這樣,跳過當前幀,處理下一個幀,以期彌補下一個幀間隔。持續(xù)這樣做直到下一個幀被顯示或不再剩有幀可供比較。
另外,管道中的所有元件都使用共同的時鐘,以便于這些活動的進行。幸運的是,所有這些決策都由GStreamer內核庫中的音頻視頻sink基類來完成。這樣一來,AV同步的復雜性大部分都在用戶那里被轉移了。
以插件形式開發(fā)的接口
TI開發(fā)了一種GStreamer變換過濾器插件,它利用DSP來進行視頻解碼,運行于ARM上,使用Linux操作系統。TI還提供有Linux外設驅動器,在驅動器接口和編解碼引擎API方面符合標準開源機構的要求,后者注意了DSP編程的相當大部分的復雜性。由硬件制造商提供的API,事先已針對硬件實現做了優(yōu)化。如果改用新的硬件,無需改變應用代碼就可直接替以新的驅動器。這種方案大幅度降低了視頻開發(fā)的成本和交付周期。
硬件的計算資源以一種最優(yōu)方式被執(zhí)行,無需任何匯編編程。其中包括很多復雜的操作,比如DSP資源的最佳利用,和基于硬件的加速引擎;鏈接模式(chained mode)下增強型直接存儲器訪問(Enhanced Direct Memory Access)外設的使用,以提高數據傳輸效率;以及中斷模式和tasklet模式的數據包處理,以靈活滿足不同應用的要求。
由于GStreamer是一種非常流行、廣為人知的架構,它已成為數字視頻開發(fā)的一種標準,在這種環(huán)境中充分利用 DSP優(yōu)勢的能力使得編程人員不再需要學習專用DSP編程語言。
該方案還易于把DSP的功能和GPP內核上運行的典型應用的一些其他要求集成在一起。利用其他GStreamer插件,可以把解碼編碼與數字視頻應用所需的其他操作相結合。這種多媒體架構通過把各種本來需要手工編碼的操作整合在一起來實現集成。
總而言之,這一新接口能夠利用GStreamer Linux多媒體構架來充分發(fā)揮TI的DaVinci處理器平臺的軟件基礎架構的優(yōu)勢。這種整合型的基礎架構提供了靈活的構架,能夠適應新一代多媒體編解碼器的要求。
該軟件架構可以實現各式廣泛的視頻產品的設計。利用這種開源結構,能為視頻設備設計人員提供社群支持、穩(wěn)健的基礎架構,從而縮短上市時間。
評論