H264視頻壓縮算法目前無疑是所有視頻壓縮技術(shù)中使用最廣泛,最流行的,如今很多開源庫基于H264提供了編解碼接口。
但為了用好H264,我們或是要對H264的基本原理弄清楚才行。今天我們就來看看H264的基本原理。
H264概述H264壓縮技術(shù)主要采用了以下幾種方法對視頻數(shù)據(jù)進行壓縮。包括:
- 幀內(nèi)預(yù)測壓縮,解決的是空域數(shù)據(jù)冗余問題。
- 幀間預(yù)測壓縮(運動估計與補償),解決的是時域數(shù)據(jù)冗徐問題?! ?br />
- 整數(shù)離散余弦變換(DCT),將空間上的相關(guān)性變?yōu)轭l域上無關(guān)的數(shù)據(jù)然后進行量化。
- CABAC壓縮。
經(jīng)過壓縮后的幀分為:I幀,P幀和B幀:
- I幀:關(guān)鍵幀,采用幀內(nèi)壓縮技術(shù)?! ?br />
- P幀:向前參考幀,在壓縮時,只參考前面已經(jīng)處理的幀。采用幀音壓縮技術(shù)?! ?br />
- B幀:雙向參考幀,在壓縮時,它即參考前而的幀,又參考它后面的幀。采用幀間壓縮技術(shù)。
除了I/P/B幀外,還有圖像序列GOP。
GOP:兩個I幀之間是一臺圖像序列,在一臺圖像序列中只有一臺I幀。如下圖所示:
下面我們就來詳細描述一下H264壓縮技術(shù)。
H264壓縮技術(shù)H264的基本原理其實非常簡單,下我們就簡單的描述一下H264壓縮數(shù)據(jù)的過程。通過攝像頭采集到的視頻幀(按每秒 30 幀算),被送到 H264 編碼器的緩沖區(qū)中。編碼器先要為每一幅圖片劃分宏塊。
以下面這張圖為例:
劃分宏塊H264默認是使用 16X16 大小的區(qū)域作為一臺宏塊,也可以劃分成 8X8 大小。
劃分好宏塊后,計算宏塊的象素值。
以此類推,計算一幅圖像中每個宏塊的像素值,所有宏塊都處理完后如下面的樣子。
劃分子塊H264對比較平坦的圖像使用 16X16 大小的宏塊。但為了更高的壓縮率,還可以在 16X16 的宏塊上更劃分出更小的子塊。子塊的大小可以是 8X16? 16X8? 8X8? 4X8? 8X4? 4X4非常的靈活。
上幅圖中,紅框內(nèi)的 16X16 宏塊中大部分是藍色背景,而三只鷹的部分圖像被劃在了該宏塊內(nèi),為了更好的處理三只鷹的部分圖像,H264就在 16X16 的宏塊內(nèi)又劃分出了多個子塊。
這樣再經(jīng)過幀內(nèi)壓縮,可以得到更高效的數(shù)據(jù)。下圖是分別使用mpeg-2和H264對上面宏塊進行壓縮后的結(jié)果。其中左半部分為MPEG-2子塊劃分后壓縮的結(jié)果,右半部分為H264的子塊劃壓縮后的結(jié)果,可以看出H264的劃分方法更具優(yōu)勢。
宏塊劃分好后,就可以對H264編碼器緩存中的所有圖片進行分組了。
幀分組對于視頻數(shù)據(jù)主要有兩類數(shù)據(jù)冗余,一類是時間上的數(shù)據(jù)冗余,另一類是空間上的數(shù)據(jù)冗余。其中時間上的數(shù)據(jù)冗余是最大的。下面我們就先來說說視頻數(shù)據(jù)時間上的冗余問題。
為啥說時間上的冗余是最大的呢?假設(shè)攝像頭每秒抓取30幀,這30幀的數(shù)據(jù)大部分情況下都是相關(guān)聯(lián)的。也有可能不止30幀的的數(shù)據(jù),可能幾十幀,上百幀的數(shù)據(jù)都是關(guān)聯(lián)特別密切的。
對于這些關(guān)聯(lián)特別密切的幀,其實我們只需要保存一幀的數(shù)據(jù),其它幀都可以通過這一幀再按某種規(guī)則預(yù)測出來,所以說視頻數(shù)據(jù)在時間上的冗余是最多的。
為了達到相關(guān)幀通過預(yù)測的方法來壓縮數(shù)據(jù),就需要將視頻幀進行分組。那么如何判定某些幀關(guān)系密切,可以劃為一組呢?我們來看一下例子,下面是捕獲的一組運動的臺球的視頻幀,臺球從右上角滾到了左下角。
H264編碼器會按順序,每次取出兩幅相鄰的幀進行宏塊比較,計算兩幀的相似度。如下圖:
通過宏塊掃描與宏塊搜索可以發(fā)現(xiàn)這兩個幀的關(guān)聯(lián)度是非常高的。進而發(fā)現(xiàn)這一組幀的關(guān)聯(lián)度都是非常高的。因此,上面這幾幀就可以劃分為一組。其算法是:
在相鄰幾幅圖像畫面中,一般有差別的像素只有10%以內(nèi)的點,亮度差值變化不超過2%,而色度差值的變化只有1%以內(nèi),我們認為這樣的圖可以分到一組。在這樣一組幀中,經(jīng)過編碼后,我們只保留第一帖的完整數(shù)據(jù),其它幀都通過參考上一幀計算出來。我們稱第一幀為
IDR/I幀,其它幀我們稱為
P/B幀,這樣編碼后的數(shù)據(jù)幀組我們稱為
GOP。
運動估計與補償在H264編碼器中將幀分組后,就要計算幀組內(nèi)物體的運動矢量了。還以上面運動的臺球視頻幀為例,我們來看一下它是如何計算運動矢量的。
H264編碼器首先按順序從緩沖區(qū)頭部取出兩幀視頻數(shù)據(jù),然后進行宏塊掃描。當發(fā)現(xiàn)其中一幅圖片中有物體時,就在另一幅圖的鄰近位置(搜索窗口中)進行搜索。如果此時在另一幅圖中找到該物體,那么就可以計算出物體的運動矢量了。下面這幅圖就是搜索后的臺球移動的位置。
通過上圖中臺球位置相差,就可以計算出臺圖運行的方向和距離。H264依次把每一幀中球移動的距離和方向都記錄下來就成了下面的樣子。
運動矢量計算出來后,將相同部分(也就是綠色部分)減去,就得到了補償數(shù)據(jù)。我們最終只需要將補償數(shù)據(jù)進行壓縮保存,以后在解碼時就可以恢復(fù)原圖了。壓縮補償后的數(shù)據(jù)只需要記錄很少的一點數(shù)據(jù)。如下所示:
我們把運動矢量與補償稱為
幀間壓縮技術(shù),它解決的是視頻幀在時間上的數(shù)據(jù)冗余。除了幀間壓縮,幀內(nèi)也要進行數(shù)據(jù)壓縮,幀內(nèi)數(shù)據(jù)壓縮解決的是空間上的數(shù)據(jù)冗余。下面我們就來介紹一下幀內(nèi)壓縮技術(shù)。
幀內(nèi)預(yù)測人眼對圖象都有一臺識別度,對低頻的亮度很敏感,對高頻的亮度不太敏感。所以基于一些研究,可以將一幅圖像中人眼不敏感的數(shù)據(jù)去除掉。這樣就提出了幀內(nèi)預(yù)測技術(shù)。
H264的幀內(nèi)壓縮與JPEG很相似。一幅圖像被劃分好宏塊后,對每個宏塊可以進行 9 種模式的預(yù)測。找出與原圖最接近的一種預(yù)測模式。
下面這幅圖是對整幅圖中的每個宏塊進行預(yù)測的過程。
幀內(nèi)預(yù)測后的圖像與原始圖像的對比如下:
然后,將原始圖像與幀內(nèi)預(yù)測后的圖像相減得殘差值。
再將我們之前得到的預(yù)測模式信息一起保存起來,這樣我們就可以在解碼時恢復(fù)原圖了。效果如下:
經(jīng)過幀內(nèi)與幀間的壓縮后,雖然數(shù)據(jù)有大幅減少,但還有優(yōu)化的空間。
對殘差數(shù)據(jù)做DCT可以將殘差數(shù)據(jù)做整數(shù)離散余弦變換,去掉數(shù)據(jù)的相關(guān)性,進一步壓縮數(shù)據(jù)。如下圖所示,左側(cè)為原數(shù)據(jù)的宏塊,右側(cè)為計算出的殘差數(shù)據(jù)的宏塊。
將殘差數(shù)據(jù)宏塊數(shù)字化后如下圖所示:
將殘差數(shù)據(jù)宏塊進行 DCT 轉(zhuǎn)換。
去掉相關(guān)聯(lián)的數(shù)據(jù)后,我們可以看出數(shù)據(jù)被進一步壓縮了。
做完 DCT 后,還不夠,還要進行 CABAC 進行無損壓縮。
DCT原理大白話 這是第一幀畫面:P1(我們的參考幀)
這是第二幀畫面:P2(需要編碼的幀)
從視頻中截取的兩張間隔1-2秒的畫面,和實際情況類似,下面我們進行幾次運動搜索:
這是一臺演示程序,鼠標選中P2上任意
16x16的Block,即可搜索出
P1上的 BestMatch 宏塊。雖然車輛在運動,從遠到近,但是依然找到了最接近的宏塊坐標。
這是一臺演示程序,鼠標選中P2上任意16x16的Block,即可搜索出P1上的 BestMatch 宏塊。雖然車輛在運動,從遠到近,但是依然找到了最接近的宏塊坐標。
搜索演示2:空中電線交叉位置(上圖P1,下圖P2)
搜索演示3:報刊停的廣告海報
同樣順利在P1中找到最接近P2里海報的宏塊位置。
圖片全搜索:根據(jù)P1和運動矢量數(shù)據(jù)(在P2中搜索到每一臺宏塊在P1中最相似的位置集合)還原出來的P2',即完全用P1各個位置的宏塊拼湊出來最像P2的圖片P2',效果如下:
仔細觀察,有些支離破碎對吧?肯定啊,拼湊出來的東西就是這樣,目前我們用P2`和P2像素相減,得到差分圖 D2 = (P2' - P2) / 2 + 0x80: 這就是之前支離破碎的 P2` 加上誤差 D2之后變成了清晰可見的樣子,基本還原了原圖P2。
由于D2僅僅占5KB,加上壓縮過后的運動矢量不過7KB,所以參考P1我們只需要額外 7KB的數(shù)據(jù)量就可以完整表示P2了,而如果獨立將P2用質(zhì)量尚可的有損壓縮方式獨立壓縮,則至少要去到50-60KB,這一下節(jié)省了差不多8倍的空間,正就是所謂運動編碼的基本原理。
實際在使用中,參考幀并不一定是前面一幀,也不一定是同一臺GOP的I幀,因為GOP間隔較長時,后面的圖片離I幀變化可能已經(jīng)很大了,因此常見做法是最近15幀中選擇一幀誤差最小的作為參考幀,雖然彩色畫面有YUV三個分量,但是大量的預(yù)測工作和最有選擇通常是根據(jù)Y分量的灰度幀進行判斷的。
再者誤差我們保存的是(P2-P2’)/2 + 0x80,實際使用時我們會用更有效率的方式,比如讓[-64,64]之間的色差精度為1,[-255,-64], [64, 255] 之間的色差精度為2-3,這樣會更加真實一些。
同時上文很多地方用的是直接lzma2進行簡單存儲,實際使用時一般會引入熵編碼,對數(shù)據(jù)進行一定層次的整理然后再壓縮,性能會好不少。
CABAC上面的幀內(nèi)壓縮是屬于有損壓縮技術(shù)。也就是說圖像被壓縮后,無法完全復(fù)原。而CABAC屬于無損壓縮技術(shù)。
無損壓縮技術(shù)大家最熟悉的可能就是哈夫曼編碼了,給高頻的詞一臺短碼,給低頻詞一臺長碼從而達到數(shù)據(jù)壓縮的目的。MPEG-2中使用的VLC就是這種算法,我們以 A-Z 作為例子,A屬于高頻數(shù)據(jù),Z屬于低頻數(shù)據(jù)??纯此侨绾巫龅摹?br />
CABAC也是給高頻數(shù)據(jù)短碼,給低頻數(shù)據(jù)長碼。同時還會根據(jù)上下文相關(guān)性進行壓縮,這種方式又比VLC高效很多。其效果如下:
目前將 A-Z 換成視頻幀,它就成了下面的樣子。
從上面這張圖中明顯可以看出采用 CACBA 的無損壓縮方案要比 VLC 高效的多。
本文簡要分析了H264的基本原理,如有不足之處,歡迎指正,只為共同進步,在這波內(nèi)卷的浪潮中,希望你我都能走好運、賺大錢、泡洋妞。