
本發明涉及一種圖像質量評價技術,尤其是涉及一種基于特征選擇的無參考多失真立體圖像質量評價方法。
背景技術:
:隨著圖像編碼和顯示等技術的迅速發展,圖像質量評價研究已經成為其中非常重要的環節。圖像質量客觀評價方法研究的目標是與主觀評價結果盡可能保持一致,從而擺脫耗時而枯燥的圖像質量主觀評價方法,其能夠利用計算機自動地評價圖像質量。根據對原始圖像的參考和依賴程度,圖像質量客觀評價方法可以分為三大類:全參考(FullReference,FR)圖像質量評價方法、部分參考(ReducedReference,RR)圖像質量評價方法和無參考(NoReference,NR)圖像質量評價方法。無參考圖像質量評價方法由于無需任何參考圖像信息,具有較高的靈活性,因此受到了越來越廣泛的關注。目前,已有的無參考圖像質量評價方法是通過機器學習來預測評價模型的,但是對于多失真圖像質量評價問題,現有的針對單失真的預測評價模型并不能直接應用,這是因為:1)多失真圖像同時包含多種失真類型,而現有的特征描述在表征不同失真類型上的能力有所差別;2)多失真圖像的失真信息是無法事先獲取的,而單個的質量預測模型并不能有效地表征多失真信息,因此,如何構造能反映不同失真類型的特征選擇方法,如何對不同失真類型建立質量預測模型,都是在無參考多失真圖像質量評價研究中需要重點解決的技術問題。技術實現要素:本發明所要解決的技術問題是提供一種基于特征選擇的無參考多失真立體圖像質量評價方法,其考慮了不同特征對不同失真類型的影響,不僅極大地降低了特征維數,而且有效地提高了客觀評價結果與主觀感知之間的相關性。本發明解決上述技術問題所采用的技術方案為:一種基于特征選擇的無參考多失真立體圖像質量評價方法,其特征在于包括訓練階段和測試階段兩個過程;所述的訓練階段過程的具體步驟如下:①_1、選取N幅原始的無失真立體圖像;然后對每幅原始的無失真立體圖像分別進行L個不同失真強度的JPEG失真、L個不同失真強度的高斯模糊失真和L個不同失真強度的高斯白噪聲失真,得到每幅原始的無失真立體圖像對應的L個失真強度的JPEG失真立體圖像、L個失真強度的高斯模糊失真立體圖像、L個失真強度的高斯白噪聲失真立體圖像;并對每幅原始的無失真立體圖像同時進行L個不同失真強度的JPEG失真、L個不同失真強度的高斯模糊失真和L個不同失真強度的高斯白噪聲失真,得到每幅原始的無失真立體圖像對應的L×L×L個失真強度的多失真立體圖像;接著將所有原始的無失真立體圖像各自對應的L個失真強度的JPEG失真立體圖像構成JPEG失真訓練圖像集,記為并將所有原始的無失真立體圖像各自對應的L個失真強度的高斯模糊失真立體圖像構成高斯模糊失真訓練圖像集,記為將所有原始的無失真立體圖像各自對應的L個失真強度的高斯白噪聲失真立體圖像構成高斯白噪聲失真訓練圖像集,記為將所有原始的無失真立體圖像各自對應的L×L×L個失真強度的多失真立體圖像構成多失真訓練圖像集,記為其中,N>1,L>1,1≤u≤N,1≤v≤L,1≤v'≤L×L×L,表示第u幅原始的無失真立體圖像對應的第v個失真強度的JPEG失真立體圖像,表示第u幅原始的無失真立體圖像對應的第v個失真強度的高斯模糊失真立體圖像,表示第u幅原始的無失真立體圖像對應的第v個失真強度的高斯白噪聲失真立體圖像,表示第u幅原始的無失真立體圖像對應的第v'個失真強度的多失真立體圖像;①_2、獲取中的每幅失真立體圖像的左視點圖像和右視點圖像各自的圖像特征矢量,將中的第k幅失真立體圖像的左視點圖像和右視點圖像各自的圖像特征矢量對應記為和其中,1≤k≤N×L,和的維數均為128×1;同樣,獲取中的每幅失真立體圖像的左視點圖像和右視點圖像各自的圖像特征矢量,將中的第k幅失真立體圖像的左視點圖像和右視點圖像各自的圖像特征矢量對應記為和其中,和的維數均為128×1;獲取中的每幅失真立體圖像的左視點圖像和右視點圖像各自的圖像特征矢量,將中的第k幅失真立體圖像的左視點圖像和右視點圖像各自的圖像特征矢量對應記為和其中,和的維數均為128×1;獲取中的每幅多失真立體圖像的左視點圖像和右視點圖像各自的圖像特征矢量,將中的第k'幅多失真立體圖像的左視點圖像和右視點圖像各自的圖像特征矢量對應記為和其中,1≤k'≤N×L×L×L,和的維數均為128×1;①_3、獲取針對JPEG失真的特征選擇函數,記為g1();然后獲取中的每幅失真立體圖像的經特征選擇后的圖像特征矢量,將中的第k幅失真立體圖像的經特征選擇后的圖像特征矢量記為其中,的維數為30×1;獲取針對高斯模糊失真的特征選擇函數,記為g2();然后獲取中的每幅失真立體圖像的經特征選擇后的圖像特征矢量,將中的第k幅失真立體圖像的經特征選擇后的圖像特征矢量記為其中,的維數為30×1;獲取針對高斯白噪聲失真的特征選擇函數,記為g3();然后獲取中的每幅失真立體圖像的經特征選擇后的圖像特征矢量,將中的第k幅失真立體圖像的經特征選擇后的圖像特征矢量記為其中,的維數為30×1;①_4、將中的所有失真立體圖像的經特征選擇后的圖像特征矢量和平均主觀評分差值構成第一樣本集合,記為然后采用支持向量回歸模型作為機器學習的方法,對進行訓練,使得經過訓練得到的回歸函數值與平均主觀評分差值之間的誤差最小,構造得到第一質量預測函數,記為f1();其中,表示中的第k幅失真立體圖像的平均主觀評分差值;同樣,將中的所有失真立體圖像的經特征選擇后的圖像特征矢量和平均主觀評分差值構成第二樣本集合,記為然后采用支持向量回歸模型作為機器學習的方法,對進行訓練,使得經過訓練得到的回歸函數值與平均主觀評分差值之間的誤差最小,構造得到第二質量預測函數,記為f2();其中,表示中的第k幅失真立體圖像的平均主觀評分差值;同樣,將中的所有失真立體圖像的經特征選擇后的圖像特征矢量和平均主觀評分差值構成第三樣本集合,記為然后采用支持向量回歸模型作為機器學習的方法,對進行訓練,使得經過訓練得到的回歸函數值與平均主觀評分差值之間的誤差最小,構造得到第三質量預測函數,記為f3();其中,表示中的第k幅失真立體圖像的平均主觀評分差值;所述的測試階段過程的具體步驟如下:②_1、對于任意一幅測試用的多失真立體圖像Stest,將Stest的左視點圖像記為Ltest,將Stest的右視點圖像記為Rtest;②_2、按照步驟①_2的過程,以相同的操作獲取Ltest和Rtest各自的圖像特征矢量,對應記為和其中,和的維數均為128×1;②_3、根據在訓練階段獲取的針對JPEG失真的特征選擇函數g1(),獲取Stest的第一經特征選擇后的圖像特征矢量,記為其中,的維數為30×1;同樣,根據在訓練階段獲取的針對高斯模糊失真的特征選擇函數g2(),獲取Stest的第二經特征選擇后的圖像特征矢量,記為其中,的維數為30×1;根據在訓練階段獲取的針對高斯白噪聲失真的特征選擇函數g3(),獲取Stest的第三經特征選擇后的圖像特征矢量,記為其中,的維數為30×1;②_4、根據在訓練階段構造得到的第一質量預測函數f1(),計算Stest的針對JPEG失真的質量預測值,記為Q1,同樣,根據在訓練階段構造得到的第二質量預測函數f2(),計算Stest的針對高斯模糊失真的質量預測值,記為Q2,根據在訓練階段構造得到的第三質量預測函數f3(),計算Stest的針對高斯白噪聲失真的質量預測值,記為Q3,然后加權Q1、Q2和Q3得到Stest的圖像質量客觀評價預測值,記為Q,Q=ω1×Q1+ω2×Q2+ω3×Q3;其中,ω1、ω2和ω3均為加權參數,ω1+ω2+ω3=1。所述的步驟①_2中的的獲取過程為:采用4個尺度和4個方向的Gabor濾波器、局部二值模式方法、BRISQUE方法及梯度幅值的自然場景統計方法分別對中的第k幅失真立體圖像的左視點圖像進行處理,對應得到中的第k幅失真立體圖像的左視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量,其中,信息熵和標準差特征矢量的維數為32×1,第一圖像特征矢量的維數為36×1,第二圖像特征矢量的維數為18×1,第三圖像特征矢量的維數為42×1;然后將中的第k幅失真立體圖像的左視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量按序組合成維數為128×1的矢量,將該矢量作為中的第k幅失真立體圖像的左視點圖像的圖像特征矢量所述的步驟①_2中的的獲取過程為:采用4個尺度和4個方向的Gabor濾波器、局部二值模式方法、BRISQUE方法及梯度幅值的自然場景統計方法分別對中的第k幅失真立體圖像的右視點圖像進行處理,對應得到中的第k幅失真立體圖像的右視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量,其中,信息熵和標準差特征矢量的維數為32×1,第一圖像特征矢量的維數為36×1,第二圖像特征矢量的維數為18×1,第三圖像特征矢量的維數為42×1;然后將中的第k幅失真立體圖像的右視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量按序組合成維數為128×1的矢量,將該矢量作為中的第k幅失真立體圖像的右視點圖像的圖像特征矢量所述的步驟①_2中的的獲取過程為:采用4個尺度和4個方向的Gabor濾波器、局部二值模式方法、BRISQUE方法及梯度幅值的自然場景統計方法分別對中的第k幅失真立體圖像的左視點圖像進行處理,對應得到中的第k幅失真立體圖像的左視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量,其中,信息熵和標準差特征矢量的維數為32×1,第一圖像特征矢量的維數為36×1,第二圖像特征矢量的維數為18×1,第三圖像特征矢量的維數為42×1;然后將中的第k幅失真立體圖像的左視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量按序組合成維數為128×1的矢量,將該矢量作為中的第k幅失真立體圖像的左視點圖像的圖像特征矢量所述的步驟①_2中的的獲取過程為:采用4個尺度和4個方向的Gabor濾波器、局部二值模式方法、BRISQUE方法及梯度幅值的自然場景統計方法分別對中的第k幅失真立體圖像的右視點圖像進行處理,對應得到中的第k幅失真立體圖像的右視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量,其中,信息熵和標準差特征矢量的維數為32×1,第一圖像特征矢量的維數為36×1,第二圖像特征矢量的維數為18×1,第三圖像特征矢量的維數為42×1;然后將中的第k幅失真立體圖像的右視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量按序組合成維數為128×1的矢量,將該矢量作為中的第k幅失真立體圖像的右視點圖像的圖像特征矢量所述的步驟①_2中的的獲取過程為:采用4個尺度和4個方向的Gabor濾波器、局部二值模式方法、BRISQUE方法及梯度幅值的自然場景統計方法分別對中的第k幅失真立體圖像的左視點圖像進行處理,對應得到中的第k幅失真立體圖像的左視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量,其中,信息熵和標準差特征矢量的維數為32×1,第一圖像特征矢量的維數為36×1,第二圖像特征矢量的維數為18×1,第三圖像特征矢量的維數為42×1;然后將中的第k幅失真立體圖像的左視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量按序組合成維數為128×1的矢量,將該矢量作為中的第k幅失真立體圖像的左視點圖像的圖像特征矢量所述的步驟①_2中的的獲取過程為:采用4個尺度和4個方向的Gabor濾波器、局部二值模式方法、BRISQUE方法及梯度幅值的自然場景統計方法分別對中的第k幅失真立體圖像的右視點圖像進行處理,對應得到中的第k幅失真立體圖像的右視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量,其中,信息熵和標準差特征矢量的維數為32×1,第一圖像特征矢量的維數為36×1,第二圖像特征矢量的維數為18×1,第三圖像特征矢量的維數為42×1;然后將中的第k幅失真立體圖像的右視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量按序組合成維數為128×1的矢量,將該矢量作為中的第k幅失真立體圖像的右視點圖像的圖像特征矢量所述的步驟①_2中的的獲取過程為:采用4個尺度和4個方向的Gabor濾波器、局部二值模式方法、BRISQUE方法及梯度幅值的自然場景統計方法分別對中的第k'幅多失真立體圖像的左視點圖像進行處理,對應得到中的第k'幅多失真立體圖像的左視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量,其中,信息熵和標準差特征矢量的維數為32×1,第一圖像特征矢量的維數為36×1,第二圖像特征矢量的維數為18×1,第三圖像特征矢量的維數為42×1;然后將中的第k'幅多失真立體圖像的左視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量按序組合成維數為128×1的矢量,將該矢量作為中的第k'幅多失真立體圖像的左視點圖像的圖像特征矢量所述的步驟①_2中的的獲取過程為:采用4個尺度和4個方向的Gabor濾波器、局部二值模式方法、BRISQUE方法及梯度幅值的自然場景統計方法分別對中的第k'幅多失真立體圖像的右視點圖像進行處理,對應得到中的第k'幅多失真立體圖像的右視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量,其中,信息熵和標準差特征矢量的維數為32×1,第一圖像特征矢量的維數為36×1,第二圖像特征矢量的維數為18×1,第三圖像特征矢量的維數為42×1;然后將中的第k'幅多失真立體圖像的右視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量按序組合成維數為128×1的矢量,將該矢量作為中的第k'幅多失真立體圖像的右視點圖像的圖像特征矢量所述的步驟①_3中針對JPEG失真的特征選擇函數g1()的獲取過程為:①_3a1、將中的所有失真立體圖像的左視點圖像的圖像特征矢量構成維數為128×M的矩陣,該矩陣中的第k列為然后將該矩陣轉置后并重新表示為[yL(1)(1),yL(1)(2),…,yL(1)(128)];其中,M=N×L,yL(1)(1),yL(1)(2),…,yL(1)(128)對應為[yL(1)(1),yL(1)(2),…,yL(1)(128)]中的第1個列向量、第2個列向量、……、第128個列向量,yL(1)(1)、yL(1)(2)和yL(1)(128)的維數均為M×1;同樣,將中的所有多失真立體圖像的左視點圖像的圖像特征矢量構成維數為128×M'的矩陣,該矩陣中的第k'列為然后將該矩陣轉置后并重新表示為[yL(4)(1),yL(4)(2),…,yL(4)(128)];其中,M'=N×L×L×L,yL(4)(1),yL(4)(2),…,yL(4)(128)對應為[yL(4)(1),yL(4)(2),…,yL(4)(128)]中的第1個列向量、第2個列向量、……、第128個列向量,yL(4)(1)、yL(4)(2)和yL(4)(128)的維數均為M'×1;①_3a2、將[yL(1)(1),yL(1)(2),…,yL(1)(128)]中當前待處理的第i個列向量yL(1)(i)定義為當前第一列向量,將[yL(4)(1),yL(4)(2),…,yL(4)(128)]中當前待處理的第i個列向量yL(4)(i)定義為當前第二列向量;其中,i的初始值為1,1≤i≤128;①_3a3、計算yL(1)(i)的直方圖分布,記為{HL(1),(i)(j)|1≤j≤10};計算yL(4)(i)的直方圖分布,記為{HL(4),(i)(j)|1≤j≤10};其中,HL(1),(i)(j)表示{HL(1),(i)(j)|1≤j≤10}中的第j個直方圖節點的出現概率,HL(4),(i)(j)表示{HL(4),(i)(j)|1≤j≤10}中的第j個直方圖節點的出現概率;①_3a4、計算{HL(1),(i)(j)|1≤j≤10}與{HL(4),(i)(j)|1≤j≤10}之間的Kullback-Leibler距離,記為dL(1)(i),其中,log()表示以10為底的對數函數;①_3a5、令i=i+1;然后將[yL(1)(1),yL(1)(2),…,yL(1)(128)]中下一個待處理的第i個列向量yL(1)(i)作為當前第一列向量,將[yL(4)(1),yL(4)(2),…,yL(4)(128)]中下一個待處理的第i個列向量yL(4)(i)作為當前第二列向量;再返回步驟①_3a3繼續執行,直至[yL(1)(1),yL(1)(2),…,yL(1)(128)]和[yL(4)(1),yL(4)(2),…,yL(4)(128)]中的所有列向量處理完畢為止,共得到128個Kullback-Leibler距離;其中,i=i+1中的“=”為賦值符號;①_3a6、按從小到大的順序排列128個Kullback-Leibler距離;然后將[yL(1)(1),yL(1)(2),…,yL(1)(128)]中與前15個Kullback-Leibler距離各自對應的列向量的位置作為中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置;①_3a7、按照步驟①_3a1至步驟①_3a5的過程,以相同的方式對中的所有失真立體圖像的右視點圖像的圖像特征矢量和中的所有多失真立體圖像的右視點圖像的圖像特征矢量進行處理,最終得到對應的128個Kullback-Leibler距離,第i個Kullback-Leibler距離為dR(1)(i);接著從這128個Kullback-Leibler距離中剔除與中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置相應的15個Kullback-Leibler距離;然后按從小到大的順序排列剩余的113個Kullback-Leibler距離,并將中的所有失真立體圖像的右視點圖像的圖像特征矢量構成的維數為128×M的矩陣經轉置后的重新表示[yR(1)(1),yR(1)(2),…,yR(1)(128)]中與前15個Kullback-Leibler距離各自對應的列向量的位置作為中的每幅失真立體圖像的右視點圖像的圖像特征矢量中應選擇的圖像特征的位置;其中,yR(1)(1),yR(1)(2),…,yR(1)(128)對應為[yR(1)(1),yR(1)(2),…,yR(1)(128)]中的第1個列向量、第2個列向量、……、第128個列向量,yR(1)(1)、yR(1)(2)和yR(1)(128)的維數均為M×1;①_3a8、根據中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置與中的每幅失真立體圖像的右視點圖像的圖像特征矢量中應選擇的圖像特征的位置,獲得針對JPEG失真的特征選擇函數g1(),使g1()的輸入為中的每幅失真立體圖像的左視點圖像的圖像特征矢量和中的每幅失真立體圖像的右視點圖像的圖像特征矢量,g1()的輸出為由根據中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置而選擇的圖像特征與根據中的每幅失真立體圖像的右視點圖像的圖像特征矢量中應選擇的圖像特征的位置而選擇的圖像特征構成的圖像特征矢量;所述的步驟①_3中針對高斯模糊失真的特征選擇函數g2()的獲取過程為:①_3b1、將中的所有失真立體圖像的左視點圖像的圖像特征矢量構成維數為128×M的矩陣,該矩陣中的第k列為然后將該矩陣轉置后并重新表示為[yL(2)(1),yL(2)(2),…,yL(2)(128)];其中,M=N×L,yL(2)(1),yL(2)(2),…,yL(2)(128)對應為[yL(2)(1),yL(2)(2),…,yL(2)(128)]中的第1個列向量、第2個列向量、……、第128個列向量,yL(2)(1)、yL(2)(2)和yL(2)(128)的維數均為M×1;同樣,將中的所有多失真立體圖像的左視點圖像的圖像特征矢量構成維數為128×M'的矩陣,該矩陣中的第k'列為然后將該矩陣轉置后并重新表示為[yL(4)(1),yL(4)(2),…,yL(4)(128)];其中,M'=N×L×L×L,yL(4)(1),yL(4)(2),…,yL(4)(128)對應為[yL(4)(1),yL(4)(2),…,yL(4)(128)]中的第1個列向量、第2個列向量、……、第128個列向量,yL(4)(1)、yL(4)(2)和yL(4)(128)的維數均為M'×1;①_3b2、將[yL(2)(1),yL(2(2),…yL(2)(128)]中當前待處理的第i個列向量yL(2)(i)定義為當前第一列向量,將[yL(4)(1),yL(4)(2),…,yL(4)(128)]中當前待處理的第i個列向量yL(4)(i)定義為當前第二列向量;其中,i的初始值為1,1≤i≤128;①_3b3、計算yL(2)(i)的直方圖分布,記為{HL(2),(i)(j)|1≤j≤10};計算yL(4)(i)的直方圖分布,記為{HL(4),(i)(j)|1≤j≤10};其中,HL(2),(i)(j)表示{HL(2),(i)(j)|1≤j≤10}中的第j個直方圖節點的出現概率,HL(4),(i)(j)表示{HL(4),(i)(j)|1≤j≤10}中的第j個直方圖節點的出現概率;①_3b4、計算{HL(2),(i)(j)|1≤j≤10}與{HL(4),(i)(j)|1≤j≤10}之間的Kullback-Leibler距離,記為dL(2)(i),其中,log()表示以10為底的對數函數;①_3b5、令i=i+1;然后將[yL(2)(1),yL(2(2),…yL(2)(128)]中下一個待處理的第i個列向量yL(2)(i)作為當前第一列向量,將[yL(4)(1),yL(4)(2),…,yL(4)(128)]中下一個待處理的第i個列向量yL(4)(i)作為當前第二列向量;再返回步驟①_3b3繼續執行,直至[yL(2)(1),yL(2(2),…yL(2)(128)]和[yL(4)(1),yL(4)(2),…,yL(4)(128)]中的所有列向量處理完畢為止,共得到128個Kullback-Leibler距離;其中,i=i+1中的“=”為賦值符號;①_3b6、按從小到大的順序排列128個Kullback-Leibler距離;然后將[yL(2)(1),yL(2(2),…yL(2)(128)]中與前15個Kullback-Leibler距離各自對應的列向量的位置作為中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置;①_3b7、按照步驟①_3b1至步驟①_3b5的過程,以相同的方式對中的所有失真立體圖像的右視點圖像的圖像特征矢量和中的所有多失真立體圖像的右視點圖像的圖像特征矢量進行處理,最終得到對應的128個Kullback-Leibler距離,第i個Kullback-Leibler距離為dR(2)(i);接著從這128個Kullback-Leibler距離中剔除與中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置相應的15個Kullback-Leibler距離;然后按從小到大的順序排列剩余的113個Kullback-Leibler距離,并將中的所有失真立體圖像的右視點圖像的圖像特征矢量構成的維數為128×M的矩陣經轉置后的重新表示[yR(2)(1),yR(2)(2),…,yR(2)(128)]中與前15個Kullback-Leibler距離各自對應的列向量的位置作為中的每幅失真立體圖像的右視點圖像的圖像特征矢量中應選擇的圖像特征的位置;其中,yR(2)(1),yR(2)(2),…,yR(2)(128)對應為[yR(2)(1),yR(2)(2),…,yR(2)(128)]中的第1個列向量、第2個列向量、……、第128個列向量,yR(2)(1)、yR(2)(2)和yR(2)(128)的維數均為M×1;①_3b8、根據中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置與中的每幅失真立體圖像的右視點圖像的圖像特征矢量中應選擇的圖像特征的位置,獲得針對高斯模糊失真的特征選擇函數g2(),使g2()的輸入為中的每幅失真立體圖像的左視點圖像的圖像特征矢量和中的每幅失真立體圖像的右視點圖像的圖像特征矢量,g2()的輸出為由根據中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置而選擇的圖像特征與根據中的每幅失真立體圖像的右視點圖像的圖像特征矢量中應選擇的圖像特征的位置而選擇的圖像特征構成的圖像特征矢量;所述的步驟①_3中針對高斯白噪聲失真的特征選擇函數g3()的獲取過程為:①_3c1、將中的所有失真立體圖像的左視點圖像的圖像特征矢量構成維數為128×M的矩陣,該矩陣中的第k列為然后將該矩陣轉置后并重新表示為[yL(3)(1),yL(3)(2),…,yL(3)(128)];其中,M=N×L,yL(3)(1),yL(3)(2),…,yL(3)(128)對應為[yL(3)(1),yL(3)(2),…,yL(3)(128)]中的第1個列向量、第2個列向量、……、第128個列向量,yL(3)(1)、yL(3)(2)和yL(3)(128)的維數均為M×1;同樣,將中的所有多失真立體圖像的左視點圖像的圖像特征矢量構成維數為128×M'的矩陣,該矩陣中的第k'列為然后將該矩陣轉置后并重新表示為[yL(4)(1),yL(4)(2),…,yL(4)(128)];其中,M'=N×L×L×L,yL(4)(1),yL(4)(2),…,yL(4)(128)對應為[yL(4)(1),yL(4)(2),…,yL(4)(128)]中的第1個列向量、第2個列向量、……、第128個列向量,yL(4)(1)、yL(4)(2)和yL(4)(128)的維數均為M'×1;①_3c2、將[yL(3)(1),yL(3)(2),…,yL(3)(128)]中當前待處理的第i個列向量yL(3)(i)定義為當前第一列向量,將[yL(4)(1),yL(4)(2),…,yL(4)(128)]中當前待處理的第i個列向量yL(4)(i)定義為當前第二列向量;其中,i的初始值為1,1≤i≤128;①_3c3、計算yL(3)(i)的直方圖分布,記為{HL(3),(i)(j)|1≤j≤10};計算yL(4)(i)的直方圖分布,記為{HL(4),(i)(j)|1≤j≤10};其中,HL(3),(i)(j)表示{HL(3),(i)(j)|1≤j≤10}中的第j個直方圖節點的出現概率,HL(4),(i)(j)表示{HL(4),(i)(j)|1≤j≤10}中的第j個直方圖節點的出現概率;①_3c4、計算{HL(3),(i)(j)|1≤j≤10}與{HL(4),(i)(j)|1≤j≤10}之間的Kullback-Leibler距離,記為dL(3)(i),其中,log()表示以10為底的對數函數;①_3c5、令i=i+1;然后將[yL(3)(1),yL(3)(2),…,yL(3)(128)]中下一個待處理的第i個列向量yL(3)(i)作為當前第一列向量,將[yL(4)(1),yL(4)(2),…,yL(4)(128)]中下一個待處理的第i個列向量yL(4)(i)作為當前第二列向量;再返回步驟①_3b3繼續執行,直至[yL(3)(1),yL(3)(2),…,yL(3)(128)]和[yL(4)(1),yL(4)(2),…,yL(4)(128)]中的所有列向量處理完畢為止,共得到128個Kullback-Leibler距離;其中,i=i+1中的“=”為賦值符號;①_3c6、按從小到大的順序排列128個Kullback-Leibler距離;然后將[yL(3)(1),yL(3)(2),…,yL(3)(128)]中與前15個Kullback-Leibler距離各自對應的列向量的位置作為中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置;①_3c7、按照步驟①_3c1至步驟①_3c5的過程,以相同的方式對中的所有失真立體圖像的右視點圖像的圖像特征矢量和中的所有多失真立體圖像的右視點圖像的圖像特征矢量進行處理,最終得到對應的128個Kullback-Leibler距離,第i個Kullback-Leibler距離為dR(3)(i);接著從這128個Kullback-Leibler距離中剔除與中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置相應的15個Kullback-Leibler距離;然后按從小到大的順序排列剩余的113個Kullback-Leibler距離,并將中的所有失真立體圖像的右視點圖像的圖像特征矢量構成的維數為128×M的矩陣經轉置后的重新表示[yR(3)(1),yR(3)(2),…,yR(3)(128)]中與前15個Kullback-Leibler距離各自對應的列向量的位置作為中的每幅失真立體圖像的右視點圖像的圖像特征矢量中應選擇的圖像特征的位置;其中,yR(3)(1),yR(3)(2),…,yR(3)(128)對應為[yR(3)(1),yR(3)(2),…,yR(3)(128)]中的第1個列向量、第2個列向量、……、第128個列向量,yR(3)(1)、yR(3)(2)和yR(3)(128)的維數均為M×1;①_3c8、根據中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置與中的每幅失真立體圖像的右視點圖像的圖像特征矢量中應選擇的圖像特征的位置,獲得針對高斯白噪聲失真的特征選擇函數g3(),使g3()的輸入為中的每幅失真立體圖像的左視點圖像的圖像特征矢量和中的每幅失真立體圖像的右視點圖像的圖像特征矢量,g3()的輸出為由根據中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置而選擇的圖像特征與根據中的每幅失真立體圖像的右視點圖像的圖像特征矢量中應選擇的圖像特征的位置而選擇的圖像特征構成的圖像特征矢量。所述的步驟②_4中取ω1=0.2、ω2=0.3和ω3=0.5。與現有技術相比,本發明的優點在于:1)本發明方法在訓練階段,分別構造針對JPEG失真、高斯模糊失真和高斯白噪聲失真的特征選擇函數,并采用機器學習方法分別獲得針對JPEG失真的第一質量預測函數、針對高斯模糊失真的第二質量預測函數和針對高斯白噪聲失真的第三質量預測函數,這樣考慮了不同特征對不同失真類型的影響,極大地降低了特征維數,使得本發明方法適用于實際的應用場合。2)本發明方法在測試階段,根據在訓練階段構造得到的針對JPEG失真、高斯模糊失真和高斯白噪聲失真的特征選擇函數及針對JPEG失真的第一質量預測函數、針對高斯模糊失真的第二質量預測函數和針對高斯白噪聲失真的第三質量預測函數,只需要通過簡單的預測就能得到針對不同失真類型的質量預測值,并通過結合得到最終的圖像質量客觀評價預測值,使得最終計算得到的圖像質量客觀評價預測值與主觀評價值保持了較好的一致性。附圖說明圖1為本發明方法的總體實現框圖。具體實施方式以下結合附圖實施例對本發明作進一步詳細描述。本發明提出的一種基于特征選擇的無參考多失真立體圖像質量評價方法,其總體實現框圖如圖1所示,其包括訓練階段和測試階段兩個過程;所述的訓練階段過程的具體步驟如下:①_1、選取N幅原始的無失真立體圖像;然后對每幅原始的無失真立體圖像分別進行L個不同失真強度的JPEG失真、L個不同失真強度的高斯模糊失真和L個不同失真強度的高斯白噪聲失真,得到每幅原始的無失真立體圖像對應的L個失真強度的JPEG失真立體圖像、L個失真強度的高斯模糊失真立體圖像、L個失真強度的高斯白噪聲失真立體圖像;并對每幅原始的無失真立體圖像同時進行L個不同失真強度的JPEG失真、L個不同失真強度的高斯模糊失真和L個不同失真強度的高斯白噪聲失真,得到每幅原始的無失真立體圖像對應的L×L×L個失真強度的多失真立體圖像;接著將所有原始的無失真立體圖像各自對應的L個失真強度的JPEG失真立體圖像構成JPEG失真訓練圖像集,記為并將所有原始的無失真立體圖像各自對應的L個失真強度的高斯模糊失真立體圖像構成高斯模糊失真訓練圖像集,記為將所有原始的無失真立體圖像各自對應的L個失真強度的高斯白噪聲失真立體圖像構成高斯白噪聲失真訓練圖像集,記為將所有原始的無失真立體圖像各自對應的L×L×L個失真強度的多失真立體圖像構成多失真訓練圖像集,記為其中,N>1,在本實施例中取N=10,L>1,在本實施例中取L=3,1≤u≤N,1≤v≤L,1≤v'≤L×L×L,表示第u幅原始的無失真立體圖像對應的第v個失真強度的JPEG失真立體圖像,表示第u幅原始的無失真立體圖像對應的第v個失真強度的高斯模糊失真立體圖像,表示第u幅原始的無失真立體圖像對應的第v個失真強度的高斯白噪聲失真立體圖像,表示第u幅原始的無失真立體圖像對應的第v'個失真強度的多失真立體圖像,符號“{}”為集合表示符號。在具體實施時,取N=10幅原始的無失真立體圖像,對每幅原始的無失真立體圖像分別加3個不同失真強度的JPEG失真、3個不同失真強度的高斯模糊失真和3個不同失真強度的高斯白噪聲失真,這樣得到由30幅JPEG失真立體圖像構成的JPEG失真訓練圖像集、由30幅高斯模糊失真立體圖像構成的高斯模糊失真訓練圖像集、由30幅高斯白噪聲失真立體圖像構成的高斯白噪聲失真訓練圖像集;對每幅原始的無失真立體圖像同時加3個不同失真強度的JPEG失真、3個不同失真強度的高斯模糊失真和3個不同失真強度的高斯白噪聲失真,這樣得到由270幅多失真立體圖像構成的多失真訓練圖像集,每幅多失真立體圖像有三種失真分別為JPEG失真、高斯模糊失真和高斯白噪聲失真。①_2、獲取中的每幅失真立體圖像的左視點圖像和右視點圖像各自的圖像特征矢量,將中的第k幅失真立體圖像的左視點圖像和右視點圖像各自的圖像特征矢量對應記為和其中,1≤k≤N×L,和的維數均為128×1。同樣,獲取中的每幅失真立體圖像的左視點圖像和右視點圖像各自的圖像特征矢量,將中的第k幅失真立體圖像的左視點圖像和右視點圖像各自的圖像特征矢量對應記為和其中,和的維數均為128×1。獲取中的每幅失真立體圖像的左視點圖像和右視點圖像各自的圖像特征矢量,將中的第k幅失真立體圖像的左視點圖像和右視點圖像各自的圖像特征矢量對應記為和其中,和的維數均為128×1。獲取中的每幅多失真立體圖像的左視點圖像和右視點圖像各自的圖像特征矢量,將中的第k'幅多失真立體圖像的左視點圖像和右視點圖像各自的圖像特征矢量對應記為和其中,1≤k'≤N×L×L×L,和的維數均為128×1。①_3、獲取針對JPEG失真的特征選擇函數,記為g1();然后獲取中的每幅失真立體圖像的經特征選擇后的圖像特征矢量,將中的第k幅失真立體圖像的經特征選擇后的圖像特征矢量記為其中,的維數為30×1。獲取針對高斯模糊失真的特征選擇函數,記為g2();然后獲取中的每幅失真立體圖像的經特征選擇后的圖像特征矢量,將中的第k幅失真立體圖像的經特征選擇后的圖像特征矢量記為其中,的維數為30×1。獲取針對高斯白噪聲失真的特征選擇函數,記為g3();然后獲取中的每幅失真立體圖像的經特征選擇后的圖像特征矢量,將中的第k幅失真立體圖像的經特征選擇后的圖像特征矢量記為其中,的維數為30×1。①_4、將中的所有失真立體圖像的經特征選擇后的圖像特征矢量和平均主觀評分差值構成第一樣本集合,記為然后采用公知的支持向量回歸模型作為機器學習的方法,對進行訓練,使得經過訓練得到的回歸函數值與平均主觀評分差值之間的誤差最小,構造得到第一質量預測函數,記為f1();其中,表示中的第k幅失真立體圖像的平均主觀評分差值。同樣,將中的所有失真立體圖像的經特征選擇后的圖像特征矢量和平均主觀評分差值構成第二樣本集合,記為然后采用公知的支持向量回歸模型作為機器學習的方法,對進行訓練,使得經過訓練得到的回歸函數值與平均主觀評分差值之間的誤差最小,構造得到第二質量預測函數,記為f2();其中,表示中的第k幅失真立體圖像的平均主觀評分差值。同樣,將中的所有失真立體圖像的經特征選擇后的圖像特征矢量和平均主觀評分差值構成第三樣本集合,記為然后采用公知的支持向量回歸模型作為機器學習的方法,對進行訓練,使得經過訓練得到的回歸函數值與平均主觀評分差值之間的誤差最小,構造得到第三質量預測函數,記為f3();其中,表示中的第k幅失真立體圖像的平均主觀評分差值。所述的測試階段過程的具體步驟如下:②_1、對于任意一幅測試用的多失真立體圖像Stest,將Stest的左視點圖像記為Ltest,將Stest的右視點圖像記為Rtest。②_2、按照步驟①_2的過程,以相同的操作獲取Ltest和Rtest各自的圖像特征矢量,對應記為和其中,和的維數均為128×1。②_3、根據在訓練階段獲取的針對JPEG失真的特征選擇函數g1(),獲取Stest的第一經特征選擇后的圖像特征矢量,記為其中,的維數為30×1。同樣,根據在訓練階段獲取的針對高斯模糊失真的特征選擇函數g2(),獲取Stest的第二經特征選擇后的圖像特征矢量,記為其中,的維數為30×1。根據在訓練階段獲取的針對高斯白噪聲失真的特征選擇函數g3(),獲取Stest的第三經特征選擇后的圖像特征矢量,記為其中,的維數為30×1。②_4、根據在訓練階段構造得到的第一質量預測函數f1(),計算Stest的針對JPEG失真的質量預測值,記為Q1,同樣,根據在訓練階段構造得到的第二質量預測函數f2(),計算Stest的針對高斯模糊失真的質量預測值,記為Q2,根據在訓練階段構造得到的第三質量預測函數f3(),計算Stest的針對高斯白噪聲失真的質量預測值,記為Q3,然后加權Q1、Q2和Q3得到Stest的圖像質量客觀評價預測值,記為Q,Q=ω1×Q1+ω2×Q2+ω3×Q3;其中,ω1、ω2和ω3均為加權參數,ω1+ω2+ω3=1,在本實施例中取ω1=0.2、ω2=0.3和ω3=0.5。在本實施例中,步驟①_2中的的獲取過程為:采用4個尺度和4個方向的Gabor濾波器、局部二值模式(LocalBinaryPattern,LBP)方法、BRISQUE(Blind/ReferencelessImageSpatialQUalityEvaluator)方法及梯度幅值(Gradientmagnitude,GM)的自然場景統計(NSS)方法分別對中的第k幅失真立體圖像的左視點圖像進行處理,對應得到中的第k幅失真立體圖像的左視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量,其中,信息熵和標準差特征矢量的維數為32×1,第一圖像特征矢量的維數為36×1,第二圖像特征矢量的維數為18×1,第三圖像特征矢量的維數為42×1;然后將中的第k幅失真立體圖像的左視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量按序組合成維數為128×1的矢量,將該矢量作為中的第k幅失真立體圖像的左視點圖像的圖像特征矢量在本實施例中,步驟①_2中的的獲取過程為:采用4個尺度和4個方向的Gabor濾波器、局部二值模式(LocalBinaryPattern,LBP)方法、BRISQUE(Blind/ReferencelessImageSpatialQUalityEvaluator)方法及梯度幅值(Gradientmagnitude,GM)的自然場景統計(NSS)方法分別對中的第k幅失真立體圖像的右視點圖像進行處理,對應得到中的第k幅失真立體圖像的右視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量,其中,信息熵和標準差特征矢量的維數為32×1,第一圖像特征矢量的維數為36×1,第二圖像特征矢量的維數為18×1,第三圖像特征矢量的維數為42×1;然后將中的第k幅失真立體圖像的右視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量按序組合成維數為128×1的矢量,將該矢量作為中的第k幅失真立體圖像的右視點圖像的圖像特征矢量在本實施例中,步驟①_2中的的獲取過程為:采用4個尺度和4個方向的Gabor濾波器、局部二值模式(LocalBinaryPattern,LBP)方法、BRISQUE(Blind/ReferencelessImageSpatialQUalityEvaluator)方法及梯度幅值(Gradientmagnitude,GM)的自然場景統計(NSS)方法分別對中的第k幅失真立體圖像的左視點圖像進行處理,對應得到中的第k幅失真立體圖像的左視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量,其中,信息熵和標準差特征矢量的維數為32×1,第一圖像特征矢量的維數為36×1,第二圖像特征矢量的維數為18×1,第三圖像特征矢量的維數為42×1;然后將中的第k幅失真立體圖像的左視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量按序組合成維數為128×1的矢量,將該矢量作為中的第k幅失真立體圖像的左視點圖像的圖像特征矢量在本實施例中,步驟①_2中的的獲取過程為:采用4個尺度和4個方向的Gabor濾波器、局部二值模式(LocalBinaryPattern,LBP)方法、BRISQUE(Blind/ReferencelessImageSpatialQUalityEvaluator)方法及梯度幅值(Gradientmagnitude,GM)的自然場景統計(NSS)方法分別對中的第k幅失真立體圖像的右視點圖像進行處理,對應得到中的第k幅失真立體圖像的右視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量,其中,信息熵和標準差特征矢量的維數為32×1,第一圖像特征矢量的維數為36×1,第二圖像特征矢量的維數為18×1,第三圖像特征矢量的維數為42×1;然后將中的第k幅失真立體圖像的右視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量按序組合成維數為128×1的矢量,將該矢量作為中的第k幅失真立體圖像的右視點圖像的圖像特征矢量在本實施例中,步驟①_2中的的獲取過程為:采用4個尺度和4個方向的Gabor濾波器、局部二值模式(LocalBinaryPattern,LBP)方法、BRISQUE(Blind/ReferencelessImageSpatialQUalityEvaluator)方法及梯度幅值(Gradientmagnitude,GM)的自然場景統計(NSS)方法分別對中的第k幅失真立體圖像的左視點圖像進行處理,對應得到中的第k幅失真立體圖像的左視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量,其中,信息熵和標準差特征矢量的維數為32×1,第一圖像特征矢量的維數為36×1,第二圖像特征矢量的維數為18×1,第三圖像特征矢量的維數為42×1;然后將中的第k幅失真立體圖像的左視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量按序組合成維數為128×1的矢量,將該矢量作為中的第k幅失真立體圖像的左視點圖像的圖像特征矢量在本實施例中,步驟①_2中的的獲取過程為:采用4個尺度和4個方向的Gabor濾波器、局部二值模式(LocalBinaryPattern,LBP)方法、BRISQUE(Blind/ReferencelessImageSpatialQUalityEvaluator)方法及梯度幅值(Gradientmagnitude,GM)的自然場景統計(NSS)方法分別對中的第k幅失真立體圖像的右視點圖像進行處理,對應得到中的第k幅失真立體圖像的右視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量,其中,信息熵和標準差特征矢量的維數為32×1,第一圖像特征矢量的維數為36×1,第二圖像特征矢量的維數為18×1,第三圖像特征矢量的維數為42×1;然后將中的第k幅失真立體圖像的右視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量按序組合成維數為128×1的矢量,將該矢量作為中的第k幅失真立體圖像的右視點圖像的圖像特征矢量在本實施例中,步驟①_2中的的獲取過程為:采用4個尺度和4個方向的Gabor濾波器、局部二值模式(LocalBinaryPattern,LBP)方法、BRISQUE(Blind/ReferencelessImageSpatialQUalityEvaluator)方法及梯度幅值(Gradientmagnitude,GM)的自然場景統計(NSS)方法分別對中的第k'幅多失真立體圖像的左視點圖像進行處理,對應得到中的第k'幅多失真立體圖像的左視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量,其中,信息熵和標準差特征矢量的維數為32×1,第一圖像特征矢量的維數為36×1,第二圖像特征矢量的維數為18×1,第三圖像特征矢量的維數為42×1;然后將中的第k'幅多失真立體圖像的左視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量按序組合成維數為128×1的矢量,將該矢量作為中的第k'幅多失真立體圖像的左視點圖像的圖像特征矢量在本實施例中,步驟①_2中的的獲取過程為:采用4個尺度和4個方向的Gabor濾波器、局部二值模式(LocalBinaryPattern,LBP)方法、BRISQUE(Blind/ReferencelessImageSpatialQUalityEvaluator)方法及梯度幅值(Gradientmagnitude,GM)的自然場景統計(NSS)方法分別對中的第k'幅多失真立體圖像的右視點圖像進行處理,對應得到中的第k'幅多失真立體圖像的右視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量,其中,信息熵和標準差特征矢量的維數為32×1,第一圖像特征矢量的維數為36×1,第二圖像特征矢量的維數為18×1,第三圖像特征矢量的維數為42×1;然后將中的第k'幅多失真立體圖像的右視點圖像的信息熵和標準差特征矢量、第一圖像特征矢量、第二圖像特征矢量及第三圖像特征矢量按序組合成維數為128×1的矢量,將該矢量作為中的第k'幅多失真立體圖像的右視點圖像的圖像特征矢量在此具體實施例中,步驟①_3中針對JPEG失真的特征選擇函數g1()的獲取過程為:①_3a1、將中的所有失真立體圖像的左視點圖像的圖像特征矢量構成維數為128×M的矩陣,該矩陣中的第k列為然后將該矩陣轉置后并重新表示為[yL(1)(1),yL(1)(2),…,yL(1)(128)];其中,M=N×L,yL(1)(1),yL(1)(2),…,yL(1)(128)對應為[yL(1)(1),yL(1)(2),…,yL(1)(128)]中的第1個列向量、第2個列向量、……、第128個列向量,yL(1)(1)、yL(1)(2)和yL(1)(128)的維數均為M×1。同樣,將中的所有多失真立體圖像的左視點圖像的圖像特征矢量構成維數為128×M'的矩陣,該矩陣中的第k'列為然后將該矩陣轉置后并重新表示為[yL(4)(1),yL(4)(2),…,yL(4)(128)];其中,M'=N×L×L×L,yL(4)(1),yL(4)(2),…,yL(4)(128)對應為[yL(4)(1),yL(4)(2),…,yL(4)(128)]中的第1個列向量、第2個列向量、……、第128個列向量,yL(4)(1)、yL(4)(2)和yL(4)(128)的維數均為M'×1。①_3a2、將[yL(1)(1),yL(1)(2),…,yL(1)(128)]中當前待處理的第i個列向量yL(1)(i)定義為當前第一列向量,將[yL(4)(1),yL(4)(2),…,yL(4)(128)]中當前待處理的第i個列向量yL(4)(i)定義為當前第二列向量;其中,i的初始值為1,1≤i≤128。①_3a3、計算yL(1)(i)的直方圖分布,記為{HL(1),(i)(j)|1≤j≤10};計算yL(4)(i)的直方圖分布,記為{HL(4),(i)(j)|1≤j≤10};其中,HL(1),(i)(j)表示{HL(1),(i)(j)|1≤j≤10}中的第j個直方圖節點的出現概率,HL(4),(i)(j)表示{HL(4),(i)(j)|1≤j≤10}中的第j個直方圖節點的出現概率。①_3a4、計算{HL(1),(i)(j)|1≤j≤10}與{HL(4),(i)(j)|1≤j≤10}之間的Kullback-Leibler(K-L)距離,記為dL(1)(i),其中,log()表示以10為底的對數函數。①_3a5、令i=i+1;然后將[yL(1)(1),yL(1)(2),…,yL(1)(128)]中下一個待處理的第i個列向量yL(1)(i)作為當前第一列向量,將[yL(4)(1),yL(4)(2),…,yL(4)(128)]中下一個待處理的第i個列向量yL(4)(i)作為當前第二列向量;再返回步驟①_3a3繼續執行,直至[yL(1)(1),yL(1)(2),…,yL(1)(128)]和[yL(4)(1),yL(4)(2),…,yL(4)(128)]中的所有列向量處理完畢為止,共得到128個Kullback-Leibler距離;其中,i=i+1中的“=”為賦值符號。①_3a6、按從小到大的順序排列128個Kullback-Leibler距離;然后將[yL(1)(1),yL(1)(2),…,yL(1)(128)]中與前15個Kullback-Leibler距離各自對應的列向量的位置作為中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置;如:假設[yL(1)(1),yL(1)(2),…,yL(1)(128)]中與前15個Kullback-Leibler距離各自對應的列向量分別為第1個、第4個、第15個、……、第110個、第126個,則[yL(1)(1),yL(1)(2),…,yL(1)(128)]中與前15個Kullback-Leibler距離各自對應的列向量的位置分別為1、4、15、……、110、126,中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇第第1個、第4個、第15個、……、第110個、第126個圖像特征。①_3a7、按照步驟①_3a1至步驟①_3a5的過程,以相同的方式對中的所有失真立體圖像的右視點圖像的圖像特征矢量和中的所有多失真立體圖像的右視點圖像的圖像特征矢量進行處理,最終得到對應的128個Kullback-Leibler距離,第i個Kullback-Leibler距離為dR(1)(i);接著從這128個Kullback-Leibler距離中剔除與中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置相應的15個Kullback-Leibler距離;然后按從小到大的順序排列剩余的113個Kullback-Leibler距離,并將中的所有失真立體圖像的右視點圖像的圖像特征矢量構成的維數為128×M的矩陣經轉置后的重新表示[yR(1)(1),yR(1)(2),…,yR(1)(128)]中與前15個Kullback-Leibler距離各自對應的列向量的位置作為中的每幅失真立體圖像的右視點圖像的圖像特征矢量中應選擇的圖像特征的位置;其中,yR(1)(1),yR(1)(2),…,yR(1)(128)對應為[yR(1)(1),yR(1)(2),…,yR(1)(128)]中的第1個列向量、第2個列向量、……、第128個列向量,yR(1)(1)、yR(1)(2)和yR(1)(128)的維數均為M×1;中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置與中的每幅失真立體圖像的右視點圖像的圖像特征矢量中應選擇的圖像特征的位置不重疊。①_3a8、根據中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置與中的每幅失真立體圖像的右視點圖像的圖像特征矢量中應選擇的圖像特征的位置,獲得針對JPEG失真的特征選擇函數g1(),使g1()的輸入為中的每幅失真立體圖像的左視點圖像的圖像特征矢量和中的每幅失真立體圖像的右視點圖像的圖像特征矢量,g1()的輸出為由根據中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置而選擇的圖像特征與根據中的每幅失真立體圖像的右視點圖像的圖像特征矢量中應選擇的圖像特征的位置而選擇的圖像特征構成的圖像特征矢量。在此具體實施例中,步驟①_3中針對高斯模糊失真的特征選擇函數g2()的獲取過程為:①_3b1、將中的所有失真立體圖像的左視點圖像的圖像特征矢量構成維數為128×M的矩陣,該矩陣中的第k列為然后將該矩陣轉置后并重新表示為[yL(2)(1),yL(2)(2),…,yL(2)(128)];其中,M=N×L,yL(2)(1),yL(2)(2),…,yL(2)(128)對應為[yL(2)(1),yL(2)(2),…,yL(2)(128)]中的第1個列向量、第2個列向量、……、第128個列向量,yL(2)(1)、yL(2)(2)和yL(2)(128)的維數均為M×1。同樣,將中的所有多失真立體圖像的左視點圖像的圖像特征矢量構成維數為128×M'的矩陣,該矩陣中的第k'列為然后將該矩陣轉置后并重新表示為[yL(4)(1),yL(4)(2),…,yL(4)(128)];其中,M'=N×L×L×L,yL(4)(1),yL(4)(2),…,yL(4)(128)對應為[yL(4)(1),yL(4)(2),…,yL(4)(128)]中的第1個列向量、第2個列向量、……、第128個列向量,yL(4)(1)、yL(4)(2)和yL(4)(128)的維數均為M'×1。①_3b2、將[yL(2)(1),yL(2(2),…yL(2)(128)]中當前待處理的第i個列向量yL(2)(i)定義為當前第一列向量,將[yL(4)(1),yL(4)(2),…,yL(4)(128)]中當前待處理的第i個列向量yL(4)(i)定義為當前第二列向量;其中,i的初始值為1,1≤i≤128。①_3b3、計算yL(2)(i)的直方圖分布,記為{HL(2),(i)(j)|1≤j≤10};計算yL(4)(i)的直方圖分布,記為{HL(4),(i)(j)|1≤j≤10};其中,HL(2),(i)(j)表示{HL(2),(i)(j)|1≤j≤10}中的第j個直方圖節點的出現概率,HL(4),(i)(j)表示{HL(4),(i)(j)|1≤j≤10}中的第j個直方圖節點的出現概率。①_3b4、計算{HL(2),(i)(j)|1≤j≤10}與{HL(4),(i)(j)|1≤j≤10}之間的Kullback-Leibler(K-L)距離,記為dL(2)(i),其中,log()表示以10為底的對數函數。①_3b5、令i=i+1;然后將[yL(2)(1),yL(2(2),…yL(2)(128)]中下一個待處理的第i個列向量yL(2)(i)作為當前第一列向量,將[yL(4)(1),yL(4)(2),…,yL(4)(128)]中下一個待處理的第i個列向量yL(4)(i)作為當前第二列向量;再返回步驟①_3b3繼續執行,直至[yL(2)(1),yL(2(2),…yL(2)(128)]和[yL(4)(1),yL(4)(2),…,yL(4)(128)]中的所有列向量處理完畢為止,共得到128個Kullback-Leibler距離;其中,i=i+1中的“=”為賦值符號。①_3b6、按從小到大的順序排列128個Kullback-Leibler距離;然后將[yL(2)(1),yL(2(2),…yL(2)(128)]中與前15個Kullback-Leibler距離各自對應的列向量的位置作為中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置。①_3b7、按照步驟①_3b1至步驟①_3b5的過程,以相同的方式對中的所有失真立體圖像的右視點圖像的圖像特征矢量和中的所有多失真立體圖像的右視點圖像的圖像特征矢量進行處理,最終得到對應的128個Kullback-Leibler距離,第i個Kullback-Leibler距離為dR(2)(i);接著從這128個Kullback-Leibler距離中剔除與中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置相應的15個Kullback-Leibler距離;然后按從小到大的順序排列剩余的113個Kullback-Leibler距離,并將中的所有失真立體圖像的右視點圖像的圖像特征矢量構成的維數為128×M的矩陣經轉置后的重新表示[yR(2)(1),yR(2)(2),…,yR(2)(128)]中與前15個Kullback-Leibler距離各自對應的列向量的位置作為中的每幅失真立體圖像的右視點圖像的圖像特征矢量中應選擇的圖像特征的位置;其中,yR(2)(1),yR(2)(2),…,yR(2)(128)對應為[yR(2)(1),yR(2)(2),…,yR(2)(128)]中的第1個列向量、第2個列向量、……、第128個列向量,yR(2)(1)、yR(2)(2)和yR(2)(128)的維數均為M×1。①_3b8、根據中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置與中的每幅失真立體圖像的右視點圖像的圖像特征矢量中應選擇的圖像特征的位置,獲得針對高斯模糊失真的特征選擇函數g2(),使g2()的輸入為中的每幅失真立體圖像的左視點圖像的圖像特征矢量和中的每幅失真立體圖像的右視點圖像的圖像特征矢量,g2()的輸出為由根據中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置而選擇的圖像特征與根據中的每幅失真立體圖像的右視點圖像的圖像特征矢量中應選擇的圖像特征的位置而選擇的圖像特征構成的圖像特征矢量。在此具體實施例中,步驟①_3中針對高斯白噪聲失真的特征選擇函數g3()的獲取過程為:①_3c1、將中的所有失真立體圖像的左視點圖像的圖像特征矢量構成維數為128×M的矩陣,該矩陣中的第k列為然后將該矩陣轉置后并重新表示為[yL(3)(1),yL(3)(2),…,yL(3)(128)];其中,M=N×L,yL(3)(1),yL(3)(2),…,yL(3)(128)對應為[yL(3)(1),yL(3)(2),…,yL(3)(128)]中的第1個列向量、第2個列向量、……、第128個列向量,yL(3)(1)、yL(3)(2)和yL(3)(128)的維數均為M×1。同樣,將中的所有多失真立體圖像的左視點圖像的圖像特征矢量構成維數為128×M'的矩陣,該矩陣中的第k'列為然后將該矩陣轉置后并重新表示為[yL(4)(1),yL(4)(2),…,yL(4)(128)];其中,M'=N×L×L×L,yL(4)(1),yL(4)(2),…,yL(4)(128)對應為[yL(4)(1),yL(4)(2),…,yL(4)(128)]中的第1個列向量、第2個列向量、……、第128個列向量,yL(4)(1)、yL(4)(2)和yL(4)(128)的維數均為M'×1。①_3c2、將[yL(3)(1),yL(3)(2),…,yL(3)(128)]中當前待處理的第i個列向量yL(3)(i)定義為當前第一列向量,將[yL(4)(1),yL(4)(2),…,yL(4)(128)]中當前待處理的第i個列向量yL(4)(i)定義為當前第二列向量;其中,i的初始值為1,1≤i≤128。①_3c3、計算yL(3)(i)的直方圖分布,記為{HL(3),(i)(j)|1≤j≤10};計算yL(4)(i)的直方圖分布,記為{HL(4),(i)(j)|1≤j≤10};其中,HL(3),(i)(j)表示{HL(3),(i)(j)|1≤j≤10}中的第j個直方圖節點的出現概率,HL(4),(i)(j)表示{HL(4),(i)(j)|1≤j≤10}中的第j個直方圖節點的出現概率。①_3c4、計算{HL(3),(i)(j)|1≤j≤10}與{HL(4),(i)(j)|1≤j≤10}之間的Kullback-Leibler(K-L)距離,記為dL(3)(i),其中,log()表示以10為底的對數函數。①_3c5、令i=i+1;然后將[yL(3)(1),yL(3)(2),…,yL(3)(128)]中下一個待處理的第i個列向量yL(3)(i)作為當前第一列向量,將[yL(4)(1),yL(4)(2),…,yL(4)(128)]中下一個待處理的第i個列向量yL(4)(i)作為當前第二列向量;再返回步驟①_3b3繼續執行,直至[yL(3)(1),yL(3)(2),…,yL(3)(128)]和[yL(4)(1),yL(4)(2),…,yL(4)(128)]中的所有列向量處理完畢為止,共得到128個Kullback-Leibler距離;其中,i=i+1中的“=”為賦值符號。①_3c6、按從小到大的順序排列128個Kullback-Leibler距離;然后將[yL(3)(1),yL(3)(2),…,yL(3)(128)]中與前15個Kullback-Leibler距離各自對應的列向量的位置作為中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置。①_3c7、按照步驟①_3c1至步驟①_3c5的過程,以相同的方式對中的所有失真立體圖像的右視點圖像的圖像特征矢量和中的所有多失真立體圖像的右視點圖像的圖像特征矢量進行處理,最終得到對應的128個Kullback-Leibler距離,第i個Kullback-Leibler距離為dR(3)(i);接著從這128個Kullback-Leibler距離中剔除與中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置相應的15個Kullback-Leibler距離;然后按從小到大的順序排列剩余的113個Kullback-Leibler距離,并將中的所有失真立體圖像的右視點圖像的圖像特征矢量構成的維數為128×M的矩陣經轉置后的重新表示[yR(3)(1),yR(3)(2),…,yR(3)(128)]中與前15個Kullback-Leibler距離各自對應的列向量的位置作為中的每幅失真立體圖像的右視點圖像的圖像特征矢量中應選擇的圖像特征的位置;其中,yR(3)(1),yR(3)(2),…,yR(3)(128)對應為[yR(3)(1),yR(3)(2),…,yR(3)(128)]中的第1個列向量、第2個列向量、……、第128個列向量,yR(3)(1)、yR(3)(2)和yR(3)(128)的維數均為M×1。①_3c8、根據中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置與中的每幅失真立體圖像的右視點圖像的圖像特征矢量中應選擇的圖像特征的位置,獲得針對高斯白噪聲失真的特征選擇函數g3(),使g3()的輸入為中的每幅失真立體圖像的左視點圖像的圖像特征矢量和中的每幅失真立體圖像的右視點圖像的圖像特征矢量,g3()的輸出為由根據中的每幅失真立體圖像的左視點圖像的圖像特征矢量中應選擇的圖像特征的位置而選擇的圖像特征與根據中的每幅失真立體圖像的右視點圖像的圖像特征矢量中應選擇的圖像特征的位置而選擇的圖像特征構成的圖像特征矢量。在此,采用寧波大學多失真立體圖像庫來分析本實施例得到的多失真立體圖像的圖像質量客觀評價預測值與平均主觀評分差值之間的相關性。寧波大學多失真立體圖像庫由10幅無失真立體圖像在多失真類型(JPEG失真、高斯模糊失真和高斯白噪聲失真)的不同失真程度下的多失真立體圖像構成,該多失真立體圖像庫中的每幅無失真立體圖像同時加入JPEG失真、高斯模糊失真和高斯白噪聲失真,每個失真強度均為3,這樣可以得到270幅多失真立體圖像,并且利用主觀質量評價方法分別獲取該多失真立體圖像集合中的每幅失真立體圖像的平均主觀評分差值。這里,利用評估圖像質量評價方法的3個常用客觀參量作為評價指標,即非線性回歸條件下的Pearson相關系數(Pearsonlinearcorrelationcoefficient,PLCC)、Spearman相關系數(Spearmanrankordercorrelationcoefficient,SROCC)、均方誤差(rootmeansquarederror,RMSE),PLCC和RMSE反映失真立體圖像評價客觀模型的準確性,SROCC反映其單調性。將分別采用本發明方法與公知的PSNR全參考質量評價方法和FSIM全參考質量評價方法得到多失真立體圖像的圖像質量客觀評價預測值與平均主觀評分差值之間的Pearson相關系數、Spearman相關系數和均方誤差進行比較,比較結果如表1所示,從表1中可以看出,采用本發明方法得到的多失真立體圖像的圖像質量客觀評價預測值與平均主觀評分差值之間的相關性是很高的,充分表明了本發明方法的客觀評價結果與人眼主觀感知的結果較為一致,足以說明本發明方法的有效性。表1采用本發明方法與公知的全參考質量評價方法得到多失真立體圖像的圖像質量客觀評價預測值與平均主觀評分差值之間的Pearson相關系數比較、Spearman相關系數和均方誤差比較Pearson相關系數Spearman相關系數均方誤差PSNR方法0.84770.84610.1489FSIM方法0.80320.76710.1649本發明方法0.92330.91540.1195當前第1頁1 2 3