中文字幕无码久久精品,13—14同岁无码A片,99热门精品一区二区三区无码,菠萝菠萝蜜在线观看视频高清1

您當(dāng)前的位置是:  首頁 > 新聞 > 文章精選 >
 首頁 > 新聞 > 文章精選 >

英特爾QSV技術(shù)在FFmpeg中的實現(xiàn)與使用

2018-09-29 11:05:33   作者:張華   來源:CTI論壇   評論:0  點擊:


  本文來自英特爾資深軟件工程師張華在LiveVideoStackCon 2018講師熱身分享,并由LiveVideoStack整理而成。在分享中張華介紹了英特爾GPU硬件架構(gòu),并詳細(xì)解析了英特爾QSV技術(shù)在FFmpeg中的具體實現(xiàn)與使用。
  大家好,今天我與大家分享的是英特爾GPU架構(gòu)以及Quick Sync Video技術(shù)在FFmepge中的實現(xiàn)與使用。
  1、處理器整體架構(gòu)
  大家知道,英特爾的圖形處理GPU被稱為“核芯顯卡”,與CPU集成封裝在同一個芯片上,上圖展示的是芯片的內(nèi)部結(jié)構(gòu)。
  1.1 發(fā)展
  英特爾從lvy Bridge架構(gòu)開始就嘗試將GPU與CPU集成在中央處理芯片中并逐代發(fā)展到Skylake架構(gòu)。初期的Ivy Bridge架構(gòu)中GPU所占的面積非常小,而到現(xiàn)在的第五代處理器架構(gòu)Skylake已經(jīng)實現(xiàn)十分成熟的GPU集成技術(shù),GPU在芯片中所占的面積已經(jīng)超過了一半。在未來我們將推出基于PCI-E的獨立顯卡,為PC帶來更大的圖像性能提升。
  1.2 基礎(chǔ)功能模塊
  上圖展示的是一款GPU所具備的一些基礎(chǔ)功能模塊。英特爾的核芯顯卡分為普通的Intel HD Graphics與性能強大的Intel Iris (Pro)Graphics,其中硬件結(jié)構(gòu)的變化決定性能的高低。我們知道,GPU中的Slice個數(shù)越多,處理單元的組織方式越多,性能便越強大。Intel HD Graphics也就是GT2中只有一個Slice,而對于Iris系列中的GT3則有兩個Slice;GT3e相對于GT3增加了eDRAM使其具有更快的內(nèi)存訪問速度,而GT4e則增加到三個Slice。GPU的基礎(chǔ)功能模塊主要由EU以及相關(guān)的Media Processing(MFX)等組成。一個Slice中有三個Sub-Slice,Sub-Slice中包含具體的EU和Media Sampler模塊作為最基本的可編程處理單元,GPU相關(guān)的任務(wù)都是在EU上進行。而Media Processing中還集成了一個被稱為MFX的獨立模塊,主要由Media Format Codec(MFX)與VQE組成。MFX可將一些處理任務(wù)通過Fix Function打包,固定于一個執(zhí)行單元中進行統(tǒng)一的編解碼處理,不調(diào)用EU從而實現(xiàn)提高EU處理3D圖形等任務(wù)的速度。Video Quality Engine(VQE)提供De-interlace與De-Noise等視頻處理任務(wù),在編解碼中使用EU是為了得到更高的視頻編碼質(zhì)量。
  1.3 結(jié)構(gòu)演進
  上圖展示的是英特爾幾代核芯顯卡產(chǎn)品在結(jié)構(gòu)上的變化。最早的Haswell架構(gòu)也就是v3系列中的EU個數(shù)相對較少,最多為40個;而到Broadwell架構(gòu)的GT3中集成了2個Slice,EU個數(shù)隨之增加到48個,圖像處理性能也隨之增強。從Broadwell架構(gòu)發(fā)展到Skylake架構(gòu),除了EU與Slice格式增加的變化,MFX的組織也有相應(yīng)改進。Broadwell架構(gòu)是將MFX集成于一個Slice中,一個Slice集成一個MFX;而到Skylake架構(gòu)之后Slice的個數(shù)增加了但MFX的個數(shù)并沒有,此時的MFC便集成在Slice之外。隨著組織方式的改變,核芯顯卡的功能也隨之改變:Skylake增加了HEVC的Decoder、PAK增加了基于HEVC的處理功能等改進為核芯顯卡整體處理性能帶來了顯著提升,第六代以后的核芯顯卡也都主要沿用GT3的架構(gòu)組織。
  上文介紹了核芯顯卡硬件上的模塊結(jié)構(gòu),接下來我將具體介紹Quick Sync Video Acceleration。從Driver分發(fā)下來的Command Stream回通過多條路徑在GPU上得到執(zhí)行:如果命令屬于編解碼的Fix Function則會由MFX執(zhí)行,部分與視頻處理相關(guān)的命令會由VQE執(zhí)行,其他的命令則會由EU執(zhí)行。而編碼過程主要分為兩部分:ENC與PAK。ENC主要通過硬件實現(xiàn)Rate Control、Motion Estimation、Intra Prediction、Mode Decision等功能;PAK進行Motion Comp、Intra Prediction、Forward Quant、Pixel Reconstruction、Entropy Coding等功能。在目前的英特爾架構(gòu)中,Media SDK通過API對硬件進行統(tǒng)一的調(diào)度與使用,同時我們提供更底層的接口Flexible Encoder Interface(FEI)以實現(xiàn)更優(yōu)秀的底層調(diào)度與更好的處理效果。
  2、軟件策略
  接下來我將介紹英特爾的軟件策略。最底層的FFmpeg可允許開發(fā)者將QSV集成進FFmpeg中以便于開發(fā),而Media SDK則主要被用于編解碼處理,F(xiàn)Fmpeg可把整個多媒體處理有效結(jié)合。如果開發(fā)者認(rèn)為傳統(tǒng)的Media SDK的處理質(zhì)量無法達(dá)到要求或碼率控制不符合某些特定場景,那么可以通過調(diào)用FEI等更底層的接口對控制算法進行優(yōu)化;最頂層的OpenCL接口則利用GPU功能實現(xiàn)邊緣計算等處理任務(wù),常見的Hybrid編碼方式便使用了OpenCL。除此之外OpenCL也可實現(xiàn)一些其他的并行處理功能,例如與AI相關(guān)的一些計算。
  2.1 Media SDK
  Media SDK分為以下幾個版本:Community Edition是一個包含了基本功能的部分免費版本,Essential Edition與Professional Edition則是具有更多功能的收費版本,可實現(xiàn)例如hybrid HEVC 編碼,Audio的編解碼、Video Quality Caliper Tool等諸多高級功能和分析工具的集合。
  1)軟件架構(gòu)
  上圖主要介紹的是Media Server Studio Software Stack軟件架構(gòu),我們基于此架構(gòu)實現(xiàn)FFmpeg的加速。
  這里需要強調(diào)的是:
  a)OpenGL (mesa)與linux內(nèi)核一直是開源的項目,但之前版本的MSS中存在一些私有的內(nèi)核補丁,并對操作系統(tǒng)的或?qū)inux的內(nèi)核版本有特殊要求。
  b)HD Graphics Driver for Linux之前是一個閉源的方案,而現(xiàn)在的MSDK 和用戶態(tài)驅(qū)動(iHD驅(qū)動)都已經(jīng)實現(xiàn)開源,F(xiàn)在我們正在制作一個基于開源版本的Release,未來大家可以通過此開源平臺獲得更好的技術(shù)支持。
  2)編解碼支持
  關(guān)于編解碼支持,其中我想強調(diào)的是HEVC 8 bit 與10 bit的編解碼。在Gen 9也就是Skylake上并不支持硬件級別的HEVC 10 bit解碼,面對這種情況我們可以通過混合模式實現(xiàn)對HEVC 10 bit的編解碼功能。最新E3v6(Kabylake)雖然只有較低性能的GPU配置,但可以支持HEVC 10 bit解碼,HEVC 10 bit編碼功能則會在以后發(fā)布的芯片中提供。
  2.2 QSV到FFmpeg的集成思路
  FFmpeg集成的思路主要如下:
  1. FFmpeg QSV Plugins:將SDK作為FFmpeg的一部分進行封裝,其中包括Decoder、Encoder與VPP Filter處理。
  2. VAPPI Plugin:Media對整個英特爾GPU的軟件架構(gòu)而言,從最底層的linux內(nèi)核,中間有用戶態(tài)驅(qū)動,對外的統(tǒng)一的接口就是VAAPI。Media SDK的硬件加速就是基于VAAPI開發(fā),同時增加了很多相關(guān)的功能,其代碼更為復(fù)雜;而現(xiàn)在增加的VAAPI Plugin則會直接調(diào)用LibAV使軟硬件結(jié)合更為緊密。
  接下來我將介紹如何將SDK集成到FFmpeg中,一共分為AVDecoder、AVEncoder、AVFilter三個部分。
  1)AVFilter
  AVFilter主要是利用硬件的GPU實現(xiàn)Video Processor功能,其中包括vpp_qsv、overlay_qsv、hwupload_qsv,其中我們重點開發(fā)了overlay_qsv,vpp_qsv與hwupload_qsv。 如果在一個視頻處理的pipeline中有多個VPP的實例運行,會對性能造成很大的影響。我們的方案是實現(xiàn)一個大的VPP Filter中集成所有功能并通過設(shè)置參數(shù)實現(xiàn)調(diào)用,避免了多個VPP的實例存在。但是為什么將vpp_qsv與overlay_qsv分開 這是因為無法在一個VPP實例中同時完成compositor和一些視頻處理功能(像de-interlace等)。英特爾核芯顯卡內(nèi)顯存中的存儲格式為NV12, 和非硬件加速的模塊聯(lián)合工作時,需要對Frame Buffer進行從系統(tǒng)內(nèi)存到顯卡顯存的復(fù)制過程,hwupload_qsv提供了在系統(tǒng)內(nèi)存和顯卡內(nèi)存之間進行快速幀轉(zhuǎn)換的功能。
  2)AVEncoder
  AVEncoder目前支持H264、HEVC、MPEG-2等解碼的硬件加速。
  3)AVDecoder
  AVDecoder目前支持H264、HEVC、MPEG-2等協(xié)議的硬件加速。
  最理想的方案是在整條視頻處理的Pipeline中都使用顯卡內(nèi)存從而不存在內(nèi)存之間的幀拷貝,從而達(dá)到最快的處理速度,但在實際應(yīng)用中我們很多時候是做不到這一點。將MSDK集成進FFmpeg中時需要解決內(nèi)存轉(zhuǎn)換的問題,例如VPP Filter不支持一些功能或原始碼流并不在Decoder支持的列表中。上圖中粉色與綠色的轉(zhuǎn)換表示的就是數(shù)據(jù)從顯存到系統(tǒng)內(nèi)存再到顯存之間的轉(zhuǎn)換。我們在實踐中經(jīng)常會遇到處理性能的急劇變化,可能的原因就是一些非硬件處理的模塊和硬件加速的模塊存在與同一個pipeline中,從而對整體性能造成影響。這是因為進行了額外的內(nèi)存拷貝過程,一旦優(yōu)化不足則會極大影響性能。具體進行內(nèi)存分配時我們使用了hwcontext,這是FFmpeg在3.0之后增加的一個功能。我們基于FFmpeg中hwcontext的機制實現(xiàn)了hwcontext_qsv,從而對硬件的初始化與內(nèi)存分配進行很好的管理。
  3、對比MSS與FFmpeg+QSV
  下面我將分享MSS與FFmpeg+QSV的異同。二者支持相同的編解碼器與視頻處理。
  二者的差異有:
  1. MSS 僅提供了一套庫和工具,用戶必須基于 MSS進行二次開發(fā);而FFmpeg 是一個流行的多媒體開放框架, QSV的GPU加速只是其中的一部分。
  2. MSS的庫中提供 了VPP 接口,用戶要實現(xiàn)某些功能必須進行二次開發(fā)。而目前,F(xiàn)Fmpeg+QSV已存在2個開發(fā)好的Filter,并且在Filter中集成了MSS 支持的所有功能,并提供更加簡單的選項進行配置,這些功能對用戶而言都是方便使用的。
  3. 在內(nèi)存管理上,MSS的開發(fā)人員必須管理自己的內(nèi)存;而FFmpeg 提供基本的內(nèi)存管理單元并實現(xiàn)系統(tǒng)內(nèi)存的統(tǒng)一調(diào)用,集成了硬件級別的內(nèi)存處理機制。
  4. FFmpeg 提供了一定的容錯機制與 a/v 同步機制;FFmpeg+QSV 模塊充分利用這些機制來提高兼容性,像使用ffmpeg的parse工具進行視頻流預(yù)處理。
  5. 處理流程上,MSS的用戶在使用MSS模塊之前必須自己開發(fā)Mux/Demux或其他必要的模塊;而FFmpeg+QSV 由于是基于 MSS 實現(xiàn)并添加了特殊的邏輯, 每個模塊都可與 FFmpeg 的其他模塊一起工作。
  可以說FFmpeg有很強大的媒體支持,相對于傳統(tǒng)的MSS在保證性能與質(zhì)量的前提下為用戶節(jié)省很多工作量并顯著提升開發(fā)效率。
  4、實踐與測試
  上圖展示的是我們在Skylake也就是Gen 9上測試硬件轉(zhuǎn)碼能力的結(jié)果。GT2、GT31、GT41三個型號性能遞增;TU1、TU2、TU4、TU7表示編解碼性能與圖像質(zhì)量的均衡程度,其中TU7表示最快的處理速度和較差的圖像質(zhì)量,TU1表示基于大量計算得到的較高圖像質(zhì)量。
  上圖展示的是Skylake對HEVC支持的性能數(shù)據(jù),其中的分辨率為1080P,其實HEVC 4K60p也能得到很好的性能。隨著輸出圖像質(zhì)量的提升,轉(zhuǎn)碼速度也會相應(yīng)降低,但在正常使用中我們主要根據(jù)需求平衡性能與質(zhì)量,在較短時間內(nèi)實現(xiàn)較高質(zhì)量的轉(zhuǎn)碼輸出。
  如果重點分析圖像質(zhì)量,在實踐中我們建議使用Medium模式得到相對較優(yōu)的性能與質(zhì)量。隨著參數(shù)的變化,PSNR與圖像的整體細(xì)節(jié)會出現(xiàn)較明顯變化。



  Source Code主要有以下兩種途徑:可以從FFmpeg上直接clone,也可以訪問Intel的Github獲得相應(yīng)源代碼。Intel的github上的分支中的FFmpeg qsv模塊是經(jīng)過Intel的測試,相對而言問題更少運行更加穩(wěn)定,大家也可以在Intel的Github上提出相關(guān)問題,我們會對部分問題進行解答。
  上圖展示的是實踐中可能需要的一些使用命令參考,其中我想強調(diào)的是Overlay Filter,在這里我們支持多種模式,包括插入臺標(biāo)的、電視墻等,也可在視頻會議等場景中實現(xiàn)人工指定確定畫面中每一個圖片的位置等效果。
【免責(zé)聲明】本文僅代表作者本人觀點,與CTI論壇無關(guān)。CTI論壇對文中陳述、觀點判斷保持中立,不對所包含內(nèi)容的準(zhǔn)確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔(dān)全部責(zé)任。

專題