複雜背景圖像中的魯棒人臉檢測方法
2023-10-10 00:05:49 2
專利名稱:複雜背景圖像中的魯棒人臉檢測方法
技術領域:
複雜背景圖像中人臉檢測方法屬於人臉識別技術領域。
背景技術:
人臉檢測就是在圖像或圖像序列中確定人臉的位置、大小等信息。它目前廣泛應用於人臉識別、視頻監控、智能人機接口等系統中。人臉檢測尤其是複雜背景下的人臉檢測同時也是一個困難的問題。這是由於外貌、膚色、表情、在三維空間中的運動等人臉本身的原因以及鬍鬚、頭髮、眼鏡、光照等外界因素造成人臉模式類內變化巨大,並且由於背景物體非常複雜,難於與人臉區分開來。
目前人臉檢測的主流方法是基於樣本統計學習的檢測方法。此類方法一般引入了「非人臉」這個類別,通過對收集的樣本進行統計學習獲得「人臉」類別區別於「非人臉」類別的特徵、模型的參數,而不是根據直觀印象得到表層規律。這在統計意義上更為可靠,不僅避免了由於觀察的不完整、不精確而帶來的錯誤,還可通過增加訓練樣本擴充檢測的範圍,提高檢測系統的魯棒性;另外此類方法大多採用由簡單到複雜的多層分類器結構,先由結構簡單的分類器排除掉絕大部分背景窗口,然後由複雜的分類器對剩餘的窗口進行進一步判斷,從而達到較快的檢測速度。但由於此類方法並沒有考慮到實際圖像中人臉和非人臉兩類模式分類錯誤風險極不平衡的特點(這是由於圖像中人臉出現的先驗概率遠低於非人臉的先驗概率,並且人臉檢測主要目的是找出人臉的位置,所以人臉被誤分為非人臉的風險遠大於非人臉誤判為人臉),只採用基於最小分類錯誤率的方法來訓練每一層分類器,通過調整分類器的閾值來達到對人臉較低的錯誤拒識率(False Rejection Rate,FRR),這樣並不能同時達到對非人臉模式較低的錯誤接受率(False Acceptance Rate,FAR);從而造成分類器層數過多、結構過於複雜、檢測速度慢,使算法整體性能下降。針對此類算法存在的缺陷,本發明提出了一種基於風險敏感AdaBoost算法(Cost Sensitive AdaBoost,簡稱CS-AdaBoost)的人臉檢測方法,採用最小化分類風險的原則使訓練得到的每一層分類器在保證對人臉模式極低的拒識率的同時,儘可能降低非人臉類別的誤接受率,從而以更少的分類器層數、更簡單的分類器結構實現複雜背景圖像下更高性能的人臉檢測,這是目前所有其他文獻裡沒有使用過的方法。
發明內容
本發明的目的在於實現一個能在複雜背景下魯棒定位人臉的人臉檢測器。該人臉檢測器的實現包括訓練和檢測兩個階段。
在訓練階段,首先應該進行樣本的採集,包括人臉和非人臉樣本的採集,然後對樣本進行尺寸和光照的歸一化處理;然後利用訓練樣本,進行微結構特徵抽取,得到特徵庫;然後利用特徵庫結合CS-AdaBoost算法,訓練得到一層人臉/非人臉強分類器;重複以上訓練過程,得到結構由簡單到複雜的多層分類器;最後把這些分類器級聯起來,得到一個完整的人臉檢測器。
在檢測階段,首先是按照一定比例連續放縮輸入圖像,然後在得到的系列圖像中判別其中每一個一定尺寸的小窗口(定義輸入圖像中的一個矩形區域子圖像為一個小窗口)。對每一個小窗口,首先進行灰度歸一化處理,然後提取其微結構特徵,用訓練好的人臉檢測器對小窗口進行判斷,如果任意一層分類器輸出低於指定閾值即認為該小窗口為非人臉而不進行後續判斷,只有那些通過所有層分類器判斷的小窗口被認為是一個人臉。從而得到極高的人臉檢測正確率。該方法已經應用於基於人臉的考勤籤到系統等中。
本發明由以下幾部分組成樣本採集與歸一化、積分圖計算和微結構特徵提取、特徵選擇和分類器設計、多層分類器的級聯。
1.樣本採集與歸一化1.1樣本的採集即採用人手工標定的方法,從包含人臉的圖片中切割出人臉圖像,從不包含人臉的風景圖片中隨機切割出非人臉圖像。人臉圖像和非人臉圖像分別作為正例樣本和反例樣本用於訓練分類器。採集過程如圖2所示。
1.2尺寸歸一化將收集好的各尺寸的人臉和非人臉圖像歸一化為指定尺寸。設原始樣本圖像為[F(x,y)]M×N,圖像寬度為M,高度為N,圖像位於第x行第y列的象素點的值為F(x,y)(0≤x<M,0≤y<N);設尺寸歸一化後圖像為[G(x,y)]W×H,圖像寬度為W,高度為H,實驗中取W=H=20。這樣尺寸歸一化可以看成是將源圖像點陣[F(x,y)M×N映射成目標圖像點陣[G(x,y)]W×H的過程。本發明使用反向投影和線性插值將原始樣本圖像變換到標準尺寸樣本圖像,則輸入圖像[F(x,y)]M×N與歸一化後圖像[G(x,y)]W×H之間的對應關係為G(x,y)=F(x/rx,y/ry)其中rx和ry分別為x和y方向的尺度變換因子rx=N/H,ry=M/W。
根據上式,輸出圖像點陣中的點(x,y)對應於輸入圖像中的點(x/rx,y/ry)。由於x/rx、y/ry的取值一般不為整數,故需要根據附近已知離散點處的值來估計F(x/rx,y/ry)的取值。根據線性插值方法,對於給定(x,y),令x/rx=x0+xy/ry=y0+y,0x,y1]]>其中x0=[x/rx],x=x/rx-x0y0=[y/ry],y=y/ry-y0,]]>[●]為取整函數。插值過程可表示為G(x,y)=F(x0+Δx,y0+Δy)=F(x0,y0)ΔxΔy+F(x0+1,y0)(1-Δx)Δy+F(x0,y0+1)Δx(1-Δy)+F(x0+1,y0+1)(1-Δx)(1-Δy)1.3灰度歸一化由於外界光照、成像設備等因素可能導致圖像亮度或對比度異常,出現強陰影或反光等情況。所以還需要對幾何歸一化後的樣本進行灰度均衡化處理,改善其灰度分布,增強模式間的一致性。本發明採用灰度均值、方差歸一化對樣本進行灰度均衡化處理,將樣本圖片灰度的均值μ和方差σ調整到給定值μ0和σ0。
首先採用下式計算樣本圖像G(x,y)(0≤x<W,0≤y<H)的均值和方差-=1WHy=0H-1x=0W-1G(x,y)]]>=1WHy=0H-1x=0W-1(G(x,y)-)2]]>然後對每個像素點的灰度值進行如下變換I(x,y)=0(G(x,y)-)+0]]>從而將圖像灰度的均值和方差調整到給定值μ0和σ0,完成樣本的灰度歸一化。
2.微結構特徵快速提取本發明採用圖5中的五種類型微結構模板來提取人臉和非人臉樣本的高維微結構特徵每一種微結構特徵通過計算模板黑色區域和白色區域內所對應圖像中像素灰度和的差值來得到(此處是為了區別兩塊區域,分別給予不同的顏色,下同),並且模板在圖像中的位置以及模板的尺寸可以改變。具體特徵提取方式如下定義S(x1,y1;x2,y2)為區域(x1≤x′≤x2,y1≤y′≤y2)內的像素灰度和S(x1,y1;x2,y2)=x1xx2y1yy2I(x,y)]]>
設微結構模板左上角的像素坐標為(x,y),則如圖5所示五種類型微結構(前四種微結構中黑色區域與白色面積相等,第五種類型微結構中黑色區域在白色區域中的分布對稱)分別為(a)S(x,y;x+w-1,y+h-1)-S(x+w,y;x+2w-1,y+h-1)(b)S(x,y;x+w-1,y+h-1)-S(x,y+h;x+w-1,y+2h-1)(c)2S(x+w,y;x+2w-1,y+h-1)-S(x,y;x+3w-1,y+h-1)(d)S(x,y;x+2w-1,y+2h-1)-2S(x,y;x+w-1,y+h-1)--2S(x+w,y+h;x+2w-1,y+2h-1)(e)S(x,y;x+w-1,y+h-1)-S(x+2,y+2;x+w-3,y+h-3)由於每一種特徵提取只涉及到矩形區域中像素和的計算問題,所以可以利用整幅圖像的積分圖像(Integral Image)快速得到任意尺度、任意位置的一種微結構特徵。
2.1積分圖像對於一個圖像I(x,y),(x≥0,y≥0),定義其對應的積分圖像II(x,y)為從(0,0)到(x,y)範圍內的所有像素之和,即II(x,y)=0xx0yyI(x,y),]]>並且定義II(-1,y)=0,II(x,-1)=0。
由此有S(x1,y1;x2,y2)=II(x2,y2)+II(x1-1,y1-1)-II(x2,y1-1)-II(x1-1,y2)。
即原始圖像I(x,y)中任何一個矩形區域中的像素和S(x1,y1;x2,y2)通過積分圖經3次加減法可以計算出;同樣定義平方積分圖像SqrII(x,y)為從(0,0)到(x,y)範圍內的所有像素平方之和,即SqrII(x,y)=0xx0yyI(x,y)I(x,y).]]>其中SqrII(-1,y)=0,SqrII(x,-1)=0。
平方積分圖像可用於計算每個矩形區域的方差(見2.3節)。
2.2微結構特徵的快速提取由於每一種特徵提取只涉及到矩形區域中像素和的計算問題,所以以上任意一種微結構特徵可以通過積分圖像若干次加減快速計算出,其中第(a)種類型微結構特徵的計算公式(圖6所示)
g(x,y,w,h)=2·II(x+w-1,y-1)+II(x+2·w-1,y+h-1)+II(x-1,y+h-1)-2·II(x+w-1,y+h-1)-II(x+2·w-1,y-1)-II(x-1,y-1)第(b)種類型微結構特徵g(x,y,w,h)=2II(x+w-1,y+h-1)+II(x-1,y-1)-II(x+w-1,y-1)-2H(x-1,y+h-1)-II(x+w-1,y+2h-1)+II(x-1,y+2h-1)第(c)種類型微結構特徵g(x,y,w,h)=2II(x+2w-l,y+h-1)+2II(x+w-1,y-1)-2II(x+2w-1,y-1)-2II(x+w-1,y+h-1)-II(x+3w-1,y+h-1)-II(x-1,y-1)+II(x-1,y+h-1)+II(x+3w-1,y-1)第(d)種類型微結構特徵g(x,y,w,h)=-II(x-1,y-1)-II(x+2w-1,y-1)-II(x-l,y+2h-1)-4II(x+w-1,y+h-1)+2II(x+w-1,y-1)+2II(x-1,y+h-1)-II(x+2w-1,y+2h-1)+2II(x+2w-1,y+h-1)+2II(x+w-1,y+2h-1)第(e)種類型微結構特徵g(x,y,w,h)=II(x+w-1,y+h-1)+II(x-1,y-1)-II(x+w-1,y-1)-II(x-1,y+h-1)-II(x+w-3,y+h-3)-II(x+1,y+1)+II(x+1,y+h-3)+II(x+w-1,y+1)改變參數x,y,w,h可以提取不同位置、不同尺度的特徵。對於一個20×20像素的樣本圖像,共可得到92267個五種類型的微結構特徵,組成該樣本的特徵矢量FV(j),1≤j≤92267。
2.3特徵的歸一化為了減輕光照對於人臉檢測的影響,需要對每一個20×20像素樣本圖像進行灰度均值和方差的歸一化,所以首先要快速計算出小窗口的均值μ和方差σ,然後對每一維特徵進行歸一化,其中的20×20像素小窗口區域(x0≤x′≤x0+19,y0≤y′≤y0+19)內的像素灰度和的μ和σ分別為(如圖6所示)μ=[II(x0+19,y0+19)+II(x0-1,y0-1)-II(x0-1,y0+19)-II(X0+19,y0-1)]/400σ={[SqrII(x0+19,y0+19)+SqrII(x0-1,y0-1)-SqrII(x0-1,y0+19)-SqrII(x0+19,y0-1)]/400-μ2}1/2對每一維微結構特徵可以進行如下的歸一化
FV(j)=0FV(j)]]>對於一個20×20像素的樣本圖像,共得到92267維微結構特徵FV(j),1≤j≤92267。
3.特徵選擇和分類器設計為達到足夠快的檢測速度,一個人臉檢測器必須採用分層結構(如圖7所示),由多層結構的從簡單到複雜的強分類器級聯起來構成。先由結構簡單的強分類器排除掉圖像中的背景窗口,然後由結構複雜的強分類器對餘下窗口進行判斷(此處的強分類器是指在訓練集上達到足夠高性能的分類器;下文中的弱分類器是指在訓練集上錯誤率略低於0.5的分類器)。
本發明使用CS-AdaBoost算法訓練每層強分類器。CS-AdaBoost算法是一種弱分類器集成算法,可以將弱分類器組合成在訓練集上的強分類器;且CS-AdaBoost算法中區別對待兩類分類錯誤帶來的風險,使訓練集上的總分類錯誤風險最小化。對於人臉檢測問題,就是使訓練得到的強分類器在保證人臉類別上的足夠低的分類錯誤(FRR)的基礎上同時儘量降低非人臉類別的分類錯誤(FAR)。
3.1弱分類器的構造本發明中弱分類器是使用一維特徵構造的樹分類器hj(sub)=1,ifgj(sub)jorgj(sub)>j0,otherwise]]>其中sub是一個20×20像素的樣本,gj(sub)表示從該樣本提取得到的第j個特徵,θj是第j個特徵對應的判決閾值(該閾值通過統計所有採集的人臉和非人臉樣本的第j個特徵使得人臉樣本的FRR滿足規定的要求來得到),hj(sub)表示使用第j個特徵構造的樹分類器的判決輸出。這樣每個弱分類器只需要比較一次閾值就可以完成判決;共可得到92267個弱分類器。
3.2基於CS-AdaBoost算法的強分類器設計將CS-AdaBoost算法結合上述弱分類器構造方法用於訓練人臉/非人臉強分類器。訓練步驟如下(記訓練樣本集L={(subi,li)},i=1,...,n,li=0,1是樣本圖像subi的類別標號,分別對應非人臉類別和人臉類別,其中人臉樣本nface個,非人臉樣本nnonface個)3.2.1參數的初始化訓練樣本誤分類風險的初始化。對於每個人臉樣本的誤分類風險C(i)=2cc+1,]]>對每個非人臉樣本的誤分類風險C(i)=2c+1]]>(c是人臉類別是非人臉類別的誤分類風險倍數,c值應大於1且隨著強分類器層數的增多逐漸減小接近於1,具體選擇值見表1);訓練樣本權重的初始化。初始每個樣本的權重為D1(i)=(c+1)C(i)2cnface+2nnonface;]]>選擇迭代次數T(T即為希望使用的弱分類器的個數),T應隨著強分類器層數的增多逐漸增多,具體選擇值見表1;統計樣本集上每維特徵的極大值Fmax(j)和極小值Fmin(j)(其中j為特徵序號,1≤j≤92267)Fmax(j)=max1inFVi(j),Fmin(j)=min1inFVi(j);]]>3.2.2重複以下過程T次(t=1,...,T)3.2.2.1使用第j個特徵(1≤j≤92267)構造弱分類器hj,然後在Fmin(j)和Fmax(j)間窮舉搜索閾值參數θj,使得hj的錯誤率εj最小,定義j=i=1nDt(i)|hj(subi)-li|;]]>3.2.2.2令t=argmin1j92267j,]]>並將其對應的弱分類器作為hj;3.2.2.3計算參數t=12ln(1-tt);]]>3.2.2.4更新樣本的權重Dt+1(i)=Dt(i)exp(-tliht(subi))exp(tli)Zt,]]>其中=c-1c+1,]]>i=1....,n,Zt=i=1nDt(i)exp(-tliht(subi))exp(tli).]]>3.2.3輸出最後的強分類器 3.3多層強分類器的級聯由於單層強分類器很難同時實現高分類速度,極低的FRR和極低的FAR等目標,所以整個人臉檢測器必須採用分層結構,由簡單到複雜將多層強分類器級聯起來,如圖7所示。在檢測時只要某個圖像窗口不能通過其中任何一層,可立即排除掉不進行後續的判斷,否則由後續更複雜的強分類器進行進一步的判斷。;所以對於明顯不像人臉的窗口圖像,在前幾級就可被排除,無需後續計算,從而大大節省了計算量。
使用11580個人臉樣本和2000000張非人臉樣本作為訓練樣本集,多層強分類器級聯的具體訓練步驟如下(1)初始化i=1;定義每層強分類器的訓練目標是在人臉訓練集上FRR≤0.02%,在非人臉訓練集上FAR≤60%;定義整個人臉檢測器在人臉訓練集上的目標FRR≤0.5%,在非人臉訓練集上的目標FAR≤3.2×10-6,其中FAR和FRR的定義如下FAR=被判別為人臉的非人臉樣本個數÷非人臉樣本總數×100%FRR=被判別為非人臉的人臉樣本個數÷人臉樣本總數×100%(2)使用訓練樣本集採用3.2節中的方法訓練第i層強分類器;(3)用訓練得到的前i層分類器對樣本集進行檢測;(4)如果FRR、FAR未達到預定值,則i←i+1,返回步驟(2)繼續進行訓練;否則停止訓練。
最後訓練得到的人臉檢測器包括19層強分類器,共使用了3139個弱分類器。整個檢測器在人臉驗證集上的FRR約為0.15%,在非人臉訓練集上FAR約為3.2×10-6。表1給出其中若干層分類器的訓練結果。
表1 一些人臉/非人臉強分類器訓練結果
在檢測時如果一個窗口通過所有層分類器判決,則認為該窗口包含一個人臉。
本發明的特徵在於,它是一種能夠在複雜背景和光照下魯棒地檢測各種人臉的技術,並且在標準視頻中能夠達到實時的檢測速度。它首先對收集到的樣本進行尺寸歸一化和光照歸一化,以最大限度地消除輸入樣本因光照和尺寸的不同而造成的類內差異,然後高效率地提取能很好區別人臉與非人臉模式結構特點的微結構特徵,在此基礎上利用CS-AdaBoost算法訓練得到具有極低FRR和極低FAR的強分類器,然後把多層強分類器級聯成一個完整的人臉檢測器,得到最終的人臉位置。
在由圖像採集設備和計算機組成的系統中,本檢測方法包括訓練階段和檢測階段。其中訓練階段依次含有以下步驟1.樣本的採集利用攝像頭、數位相機、掃描儀等設備採集圖像,並將其中的人臉人工標定切割出來,建立人臉訓練樣本資料庫;從不包含人臉的風景圖片中隨機切割出非人臉訓練圖像。共得到11580個人臉樣本和2000000張非人臉樣本作為訓練樣本集2.歸一化處理,包含樣本光照和大小的線性歸一化(2.1)尺寸歸一化設原始樣本圖像為[F(x,y)]M×N,圖像寬度和高度分別為M和N,尺寸歸一化後為[G(x,y)]W×H,實驗中取W=H=20。使用反向投影和線性插值從原始樣本圖像得到歸一化後樣本圖像,則輸入圖像與歸一化後圖像之間的對應關係有G(x,y)=F(x/rx,y/ry)其中rx和ry分別為x和y方向的尺度變換因子rx=N/H,ry=M/W。由於x/rx、y/ry的取值一般不為整數,故需要根據附近已知離散點處的值來估計F(x/rx,y/ry)的取值。本發明採用線性插值方法。對於給定(x,y),令x/rx=x0+xy/ry=y0+y,0x,y1]]>其中x0=[x/rx],x=x/rx-x0y0=[y/ry],y=y/ry-y0,]]>[●]為取整函數,可得G(x,y)=F(x0+Δx,y0+Δy)=F(x0,y0)ΔxΔy+F(x0+1,y0)(1-Δx)Δy+F(x0,y0+1)Δx(1-Δy)+F(x0+1,y0+1)(1-Δx)(1-Δy)。
(2.2)灰度歸一化對尺寸歸一化後的樣本圖像G(x,y)的每個像素的灰度進行如下變換,將均值μ和方差σ調整到給定值μ0和σ0,得到樣本圖像I(x,y)I(x,y)=0(G(x,y)-)+0.]]>
其中=1WHy=0H-1x=0W-1G(x,y),=1WHy=0H-1x=0W-1(G(x,y)-)2;]]>3.樣本特徵庫的獲取計算出積分圖以快速提取微結構特徵,它依次含有以下步驟(3.1)計算每個樣本的積分圖根據定義使用II(x,y)=0xx0yyI(x,y)]]>計算每個樣本對應的積分圖II(x,y),並且有II(-1,y)=0,II(x,-1)=0。
(3.2)微結構特徵庫的提取利用每一種微結構特徵的定義以及以上積分圖快速提取每一個樣本對應的92267個特徵,從而分別構成人臉樣本的特徵庫和非人臉樣本的特徵庫。
4.分類器設計用以上訓練樣本集訓練以及CS-AdaBoost算法訓練每一層人臉/非人臉強分類器,並將多層強分類器級聯起來組成一個完整的人臉檢測器。包括以下步驟(4.1)初始化i=1;定義每層強分類器的訓練目標是在人臉訓練集上FRR≤0.02%,在非人臉訓練集上FAR≤60%;定義整個人臉檢測器在人臉訓練集上的目標FRR≤0.5%,在非人臉訓練集上的目標FAR≤3.2×10-6;(4.2)訓練第i層強分類器;(4.3)用訓練得到的前i層分類器對樣本集進行檢測;(4.4)如果FRR、FAR未達到預定值,則i←i+1,返回步驟(4.2)繼續進行訓練;否則停止訓練。
其中步驟(4.2)依次含有以下步驟(4.2.1)參數的初始化訓練樣本誤分類風險的初始化。對於每個人臉樣本的誤分類風險C(i)=2cc+1,]]>對每個非人臉樣本的誤分類風險C(i)=2c+1]]>(c是人臉類別是非人臉類別的誤分類風險倍數,c值應大於1且隨著強分類器層數的增多逐漸減小接近於1,具體選擇值見表1);訓練樣本權重的初始化。初始每個樣本的權重為D1(i)=(c+1)C(i)2cnface+2nnonface;]]>選擇迭代次數T(T即為希望使用的弱分類器的個數),T應隨著強分類器層數的增多逐漸增多,具體選擇值見表1);
統計樣本集上每維特徵的極大值Fmax(j)和極小值Fmin(j)(其中j為特徵序號,1≤j≤92267)Fmax(j)=max1inFVi(j),Fmin(j)=min1inFVi(j);]]>(4.2.2)重複以下過程T次(t=1,...,T)(4.2.2.1)使用第j個特徵(1≤j≤92267)構造弱分類器hj,然後在Fmin(j)和Fmax(j)間窮舉搜索閾值參數θj,使得hj的錯誤率εj最小,定義j=i=1nDt(i)|hj(subi)-li|;]]>(4.2.2.2)令targmin1j92267j,]]>並將其對應的弱分類器作為hj;(4.2.2.3)計算參數t=12ln(1-tt);]]>(4.2.2.4)更新樣本的權重Dt+1(i)=Dt(i)exp(-tliht(subi))exp(tli)Zt,]]>其中=c-1c+1,]]>i=1,...,n,Zt=i=1nDt(i)exp(-tliht(subi))exp(tli).]]>(4.2.1)輸出最後的強分類器 由以上各個步驟可以訓練得到一個完整的人臉檢測器。
在檢測階段,該發明採用以下步驟來判斷一張輸入圖像中是否包含人臉(一個實際的檢測過程如圖)(1)輸入圖像的採集利用攝像頭、數位相機、掃描儀等設備採集圖像。
(2)輸入圖像的放縮及其圖像中每一個小窗口的快速判斷為檢測不同尺寸的人臉,採用前文使用的線性插值方法按照一定比例連續縮小12次輸入圖像(本發明採用1.25的比例),共得到由13個不同尺寸的輸入圖像,分別判斷每張輸入圖像中所有的20×20像素的小窗口,這樣可以檢測尺寸從20×20像素到280×280像素的人臉。具體來說包括以下步驟(2.1)輸入圖像的放縮採用前文使用的線性插值方法按比例q=1.25連續縮小12次輸入圖像I(x,y)得到輸入圖像序列{Ii(x,y)}(i=0,…,12);
(2.2)積分圖像的計算使用上文迭代公式分別計算每個圖像Ii(x,y)所對應的積分圖像IIi(x,y)和平方積分圖像SqrIIi(x,y),(i=0,…,9);(2.3)小窗口的窮舉判斷從每幅圖像Ii(x,y)的左上角開始窮舉判別所有20×20像素尺寸的小窗口,對任一個小窗口[x0,y0;x0+19,y0+19]的處理步驟如下(2.3.1).利用整幅圖像的積分圖IIi(x,y)和平方積分圖SqrIIi(x,y)計算小窗口的均值μ和方差σ;μ=[IIi(x0+19,y0+19)+IIi(x0-1,y0-1)-IIi(x0-1,y0+19)-IIi(x0+19,y0-1)]/400σ={[SqrIIi(x0+19,y0+19)+SqrIIi(x0-1,y0-1)-SqrIIi(x0-1,y0+19)-SqrIIi(x0+19,y0-1)]/400-μ2}1/2(2.3.2).利用前文介紹方法快速提取該小窗口的微結構特徵,並進行特徵歸一化處理;(2.3.3).採用訓練好的多層人臉/非人臉強分類器對小窗口進行判斷;如果通過所有層強分類器的判斷,則認為該小窗口包含一個人臉,輸出其位置;否則拋棄掉該小窗口,不進行後續處理;利用以上步驟可以快速魯棒地檢測一張輸入圖像中的所有人臉。
為驗證本發明的有效性,我們在多個公開資料庫上進行了實驗,並給出一個具體的實現例子。
在CMU測試集上我們將本發明的性能與目前世界公認最好算法的性能進行了比較。CMU測試集共包含130張具有複雜背景的圖片,507個人臉。實驗中對圖像按1.25的比例進行最多13次縮放,共搜索判斷了71040758個圖像窗口。比較結果見表2,可以看出本文算法總體性能優於Viola[Viola P,Jones M.Rapid object detection using a boosted cascadeof simple features.Proc on Computer Vision Pattern Recognition,2001]、Schneiderman[Schneiderman H,Kanade T.Probabilistic modeling of local appearanceand spatial relationships for object recognition.Proc.on CVPR,1998]、Rowley[RowleyH A,Baluja S,and Kanade T.Neural network-based face detection.IEEE Transactionson Pattern Analysis and Machine Intelligence,1998,20(1)23-38]等方法的性能,特別是在低虛警的情況下,例如10個虛警時,本文算法的人臉檢測率為90.1%,比其他算法的檢測率高7%~14%,遠優於其他算法。其中與Viola的基於常規AdaBoost算法得到的檢測器相比,我們的人臉檢測器使用了19層強分類器3139個弱分類器,而其使用了38層強分類器6000餘個弱分類器,我們的檢測器在結構上遠比其簡單,所以本發明具有更優異的性能和更快的檢測速度。對於386×288的標準視頻圖像,採用本文算法可以達到18幀/秒以上的檢測速度(PIII1.8GHZ主頻,512M內存)。
表2與其它檢測方法在CMU正面直立人臉測試集上的性能比較 另外在BANCA資料庫上還與Identix公司的著名產品FaceIT的檢測性能進行了比較。BANCA資料庫包括6540張具有複雜背景和光照的圖片,每張圖片中包含一張正面直立人臉,人臉的俯仰變化較大。本發明的正確檢測率為98.8%,FaceIT的正確檢測率為94.9%;在交由第三方-中國航天信息公司在其收集的每張圖像包含一張人臉的圖像集上進行的測試中,本文算法的檢測正確率為98.6%,FaceIT的檢測正確率為98.0%。
圖1一個典型的人臉檢測系統的硬體構成。
圖2訓練樣本的獲取過程。
圖3獲得的典型人臉樣本示例。
圖4人臉檢測系統的構成。
圖5五種微結構特徵模板。
圖6積分圖的計算和微結構特徵的提取示例。
圖7多級強分類器的級聯。
圖8強分類器的訓練過程。
圖9一張圖像中人臉的實際檢測過程示例。
圖10基於本算法的人臉識別籤到系統。
具體實施例方式
在實現一個人臉檢測系統時,首先應該通過收集足夠多的樣本訓練得到人臉檢測器,然後就可使用人臉檢測器對任意輸入圖像進行檢測。整個系統的硬體結構如圖1所示,系統的訓練過程和檢測過程如圖4所示,下面詳細介紹系統的各個部分A)訓練系統的實現A.1訓練樣本的獲取利用攝像頭、數位相機、掃描儀等設備採集圖像,將其中的人臉人工標定切割出來,建立人臉訓練樣本資料庫;而非人臉訓練樣本則是從不包含人臉的風景圖片等中隨機割取。在本例中共收集到使用11580個人臉樣本和2000000張非人臉樣本作為訓練集。
A.2樣本歸一化A.2.1尺寸歸一化設原始樣本圖像為[F(x,y)]M×N,圖像寬度和高度分別為M和N,尺寸歸一化後為[G(x,y)]W×H,實驗中取W=H=20。使用反向投影和線性插值從原始樣本圖像得到歸一化後樣本圖像,則輸入圖像與歸一化後圖像之間的對應關係有G(x,y)=F(x/rx,y/ry)其中rx和ry分別為x和y方向的尺度變換因子rx=N/H,ry=M/W。對於給定(x,y),令x/rx=x0+xy/ry=y0+y,0x,y1]]>其中x0=[x/rx],x=x/rx-x0y0=[y/ry],y=y/ry-y0,]]>[●]為取整函數,可得G(x,y)=F(x0+Δx,y0+Δy)=F(x0,y0)ΔxΔy+F(x0+1,y0)(1-Δx)Δy+F(x0,y0+1)Δx(1-Δy)+F(x0+1,y0+1)(1-Δx)(1-Δy)。
A.2.2光照歸一化對尺寸歸一化後的樣本圖像G(x,y)的每個像素的灰度進行如下變換,將均值μ和方差σ調整到給定值μ0和σ0,得到樣本圖像I(x,y)I(x,y)=0(G(x,y)-)+0.]]>其中=1WHy=0H-1x=0W-1G(x,y),=1WHy=0H-1x=0W-1(G(x,y)-)2;]]>
A.3樣本特徵庫的獲取A.3.1樣本積分圖的計算根據定義使用II(x,y)=0xx0yyI(x,y)]]>計算每個樣本對應的積分圖II(x,y),並且有II(-1,y)=0,II(x,-1)=0。
A.3.2微結構特徵庫的提取利用每一種微結構特徵的定義以及以上積分圖快速提取每一個樣本對應的92267個特徵,分別進行歸一化,從而分別構成人臉樣本的特徵庫和非人臉樣本的特徵庫。
A.4人臉檢測器的訓練用以上訓練樣本集訓練以及CS-AdaBoost算法訓練每一層人臉/非人臉強分類器,並將多層強分類器級聯起來組成一個完整的人臉檢測器。包括以下步驟A.4.1初始化i=1;定義每層強分類器的訓練目標是在人臉訓練集上FRR≤0.02%,在非人臉訓練集上FAR≤60%;定義整個人臉檢測器在人臉訓練集上的目標FRR≤0.5%,在非人臉訓練集上的目標FAR≤3.2×10-6;A.4.2訓練第i層強分類器;A.4.3用訓練得到的前i層分類器對樣本集進行檢測;A.4.4如果FRR、FAR未達到預定值,則i←i+1,返回步驟(4.2)繼續進行訓練;否則停止訓練。
前面所述的步驟A.4.2依次含有以下步驟A.4.2.1參數的初始化訓練樣本誤分類風險的初始化。對於每個人臉樣本的誤分類風險C(i)=2cc+1,]]>對每個非人臉樣本的誤分類風險C(i)=2c+1]]>(c是人臉類別是非人臉類別的誤分類風險倍數,c值應大於1且隨著強分類器層數的增多逐漸減小接近於1,具體選擇值見表1);訓練樣本權重的初始化。初始每個樣本的權重為D1(i)=(c+1)C(i)2cnface+2nnonface;]]>選擇迭代次數T(T即為希望使用的弱分類器的個數),T應隨著強分類器層數的增多逐漸增多,具體選擇值見表1);統計樣本集上每維特徵的極大值Fmax(i)和極小值Fmin(j)(其中j為特徵序號,1≤j≤92267)Fmax(j)=max1inFVi(j),Fmin(j)=min1inFVi(j);]]>
A.4.2.2重複以下過程T次(t=1,...,T)A.4.2.2.1使用第j個特徵(1≤j≤92267)構造弱分類器hj,然後在Fmin(j)和Fmax(j)間窮舉搜索閾值參數θj,使得hj的錯誤率εj最小,定義j=i=1nDt(i)|hj(subi)-li|;]]>A.4.2.2.2令targmin1j92267j,]]>並將其對應的弱分類器作為ht;A.4.2.2.3計算參數t=12ln(1-tt);]]>A.4.2.2.4更新樣本的權重Dt+1(i)=Dt(i)exp(-tliht(subi))exp(tli)Zt,]]>其中=c-1c+1,]]>i=1,…,n,Zt=i=1nDt(i)exp(-tliht(subi))exp(tli).]]>A.4.2.3輸出最後的強分類器 B)檢測系統的實現在檢測階段,該發明包括以下步驟B.1圖像的採集利用攝像頭、數位相機、掃描儀等設備採集圖像。
B.2輸入圖像金字塔的構成以及積分圖像的計算為檢測不同尺寸的人臉,採用前文使用的線性插值方法按照一定比例連續縮小12次輸入圖像(本發明採用1.25的比例),共得到由13個不同尺寸的輸入圖像,分別判斷每張輸入圖像中的每一個20×20像素的小窗口(定義輸入圖像中的一個矩形區域子圖像為一個小窗口),這樣可以檢測尺寸從20×20像素到280×280像素的人臉。具體來說包括以下步驟B.2.1輸入圖像的放縮採用前文使用的線性插值方法按比例q=1.25連續縮小12次輸入圖像I(x,y)得到輸入圖像序列{Ii(x,y)}(i=0,…,12);B.2.2積分圖像的計算使用上文迭代公式分別計算每個圖像Ii(x,y)所對應的積分圖像IIi(x,y)和平方積分圖像SqrIIi(x,y),(i=0,…,9);B.2.3小窗口的窮舉判斷從每幅圖像Ii(x,y)的左上角開始窮舉判別所有20×20像素尺寸的小窗口,對任一個小窗口[x0,y0;x0+19,y0+19]的處理步驟如下B.2.3.1利用整幅圖像的積分圖IIi(x,y)和平方積分圖SqrIIi(x,y)計算小窗口的均值μ和方差σ;μ=[IIi(x0+19,y0+19)+IIi(x0-1,y0-1)-IIi(x0-1,y0+19)-IIi(x0+19,y0-1)]/400σ={[SqrIIi(x0+19,y0+19)+SqrIIi(x0-1,y0-1)-SqrIIi(x0-1,y0+19)-SqrIIi(x0+19,y0-1)]/400-μ2}1/2B.2.3.2利用前文介紹方法快速提取該小窗口的微結構特徵,並進行特徵歸一化處理;B.2.3.3採用訓練好的多層人臉/非人臉強分類器對小窗口進行判斷;如果通過所有層強分類器的判斷,則認為該小窗口包含一個人臉,輸出其位置;否則拋棄掉該小窗口,不進行後續處理;利用以上步驟可以快速魯棒地檢測一張輸入圖像中的所有人臉。
實施例1基於人臉的識別籤到系統(如圖10)人臉認證是近來受到廣泛關注的生物特徵認證技術中最友好的一種認證方式,旨在利用人臉圖像進行計算機自動個人身份認證,以代替傳統的密碼、證件、印章等身份認證方式,具有不易偽造、不會丟失以及方便等優點。本系統利用人臉信息來對人身份進行自動驗證。其中使用的人臉檢測模塊是本文的研究成果。此外本系統還參加了ICPR2004組織的FAT2004競賽。此次競賽共有包括來自美國的Carnegie Mellon大學、德國的Neuroinformatik研究所、英國的Surrey大學等11個學術和商業機構的13個人臉識別算法參加。本實驗室所提交的系統在三個評價指標上都比第二名以低約50%錯誤率的結果獲得第一名。本文的研究成果應用在本實驗實所提交系統的人臉檢測模塊中,從而保證了系統的總體性能居於世界先進水平。
綜上所述,本發明能夠在具有複雜背景的圖像中魯棒地檢測人臉,在實驗中獲得了優異的檢測結果,具有非常廣泛的應用前景。
權利要求
1.複雜背景圖像中的魯棒人臉檢測方法,其特徵在於,該方法是一種基於人臉和非人臉模式的分類錯誤風險敏感分類器的統計學檢測方法,該方法首先對收集到的樣本進行尺寸歸一化和光照歸一化,以最大限度地消除輸入樣本因光照和尺寸的不同而造成的類內差異,然後高效率地提取能很好反映人臉模式結構特點的微結構特徵,在此基礎上利用CS-AdaBoost算法選擇出最具鑑別性的特徵組成具有極低誤拒識率和極低誤接受率的強分類器,然後把多層強分類器級聯成一個完整的人臉檢測器,最後使用後處理算法把檢測到的人臉候選進行歸併處理得到最終的人臉位置;在由圖像採集設備和計算機組成的系統中,本檢測方法包括訓練階段和檢測階段;其中訓練階段依次含有以下步驟步驟1.樣本的採集利用包含攝像頭、數位相機、掃描儀在內的任一種設備採集圖像,並將其中的人臉人工標定切割出來,建立人臉訓練樣本資料庫;從不包含人臉的風景圖片中隨機切割出非人臉訓練圖像;共得到11580個人臉樣本和2000000張非人臉樣本作為訓練樣本集;步驟2.歸一化處理,包含樣本光照和大小的線性歸一化;步驟2.1尺寸歸一化,把步驟1得到的人臉和非人臉圖像歸一化為指定尺寸;設原始樣本圖像為[F(x,y)]M×N,圖像寬度和高度分別為M和N,尺寸歸一化後為[G(x,y)]W×H,實驗中取W=H=20;使用反向投影和線性插值從原始樣本圖像得到歸一化後樣本圖像,則輸入圖像與歸一化後圖像之間的對應關係有G(x,y)=F(x/rx,y/ry)其中rx和ry分別為x和y方向的尺度變換因子rx=N/H,ry=M/W;由於x/rx、y/ry的取值一般不為整數,故需要根據附近已知離散點處的值來估計F(x/rx,y/ry)的取值;本發明採用線性插值方法;對於給定(x,y),令x/rx=x0+xy/ry=y0+y,0x,y1]]>其中x0=[x/rx],x=x/rx-x0y0=[y/ry],y=y/ry-y0,]]>[·]為取整函數,可得G(x,y)=F(x0+Δx,y0+Δy)=F(x0,y0)ΔxΔy+F(x0+1,y0)(1-Δx)Δy;+F(x0,y0+1)Δx(1-Δy)+F(x0+1,y0+1)(1-Δx)(1-Δy)步驟2.2灰度歸一化對尺寸歸一化後的樣本圖像G(x,y)的每個像素的灰度進行如下變換,將均值μ和方差σ調整到給定值μ0和σ0,得到樣本圖像I(x,y)I(x,y)=0(G(x,y)-)+0.]]>其中=1WHy=0H-1x=0W-1G(x,y),=1WHy=0H-1x=0W-1(G(x,y)-)2;]]>步驟3.樣本特徵庫的獲取計算出積分圖以快速提取微結構特徵,它依次含有以下步驟步驟3.1計算每個樣本的積分圖根據定義使用II(x,y)=0xx0yyI(x,y)]]>計算每個樣本對應的積分圖II(x,y),並且有II(-1,y)=0,II(x,-1)=0;步驟3.2微結構特徵庫的提取設定下述五種類型微結構模板來把取人臉樣本的高維微結構特徵,每一種微結構特徵通過計算模板黑色區域和白色區域內所對應圖像中像素灰度和的差值來得到,所述微結構特徵用g(x.y.w.h)表述,對於所述五種類型微結構特徵向量,分別表示如下(a)類黑色區域和白色區域左右對稱且面積相等用w其中各區域的寬,h表示其中各區域的高g(x,y,w,h)=2·II(x+w-1,y-1)+II(x+2·w-1,y+h-1)+II(x-1,y+h-1)-2·II(x+w-1,y+h-1)-II(x+2·w-1,y-1)-II(x-1,y-1)(b)類黑色區域和白色區域上下對稱且面積相等,w、h的定義與(a)類相同g(x,y,w,h)=2II(x+w-1,y+h-1)+II(x-1,y-1)-II(x+w-1,y-1)-2II(x-1,y+h-1)-II(x+w-1,y+2h-1)+II(x-1,y+2h-1)(c)類在水平方向,黑色區域位於兩塊白色區域之間,且黑色區域和每塊白色區域的面積相等,w、h的定義與(a)類相同g(x,y,w,h)=2II(x+2w-1,y+h-1)+2II(x+w-1,y-1)-2II(x+2w-1,y-1)-2II(x+w-1,y+h-1)-II(x+3w-1,y+h-1)-II(x-1,y-1)+II(x-1,y+h-1)+II(x+3w-1,y-1)(d)類兩塊黑色區域分別處於第一象限和第三象限,而兩塊白色區域分別處於,且每塊黑色區域和每塊白色區域的的面積相等w、h的定義與(a)類相同g(x,y,w,h)=-II(x-1,y-1)-II(x+2w-1,y-1)-II(x-1,y+2h-1)-4II(x+w-1,y+h-1)+2II(x+w-1,y-1)+2II(x-1,y+h-1)-II(x+2w-1,y+2h-1)+2II(x+2w-1,y+h-1)+2II(x+w-1,y+2h-1)(e)類黑色區域位於白色區域有中央,且黑色區域的分布對稱且黑色區域的上、下兩邊、左、右兩邊分別距離白色區域的上、下兩邊、左、右兩邊各為2個像素的距離,w、h分別表示白色區域周框的寬和高g(x,y,w,h)=II(x+w-1,y+h-1)+II(x-1,y-1)-II(x+w-1,y-1)-II(x-1,y+h-1)-II(x+w-3,y+h-3)-II(x+1,y+1)+II(x+1,y+h-3)+II(x+w-1,y+1)對於一個20×20像素的樣本圖像參數x.y.w.h後共有92267個,分布於所述五種類型中的微結構特徵,組成該樣本的特徵點是FV(j),1≤j≤92267;步驟3.3特徵的歸一化,即對每一個像素樣本圖像進行灰度均值和方差的歸一化設每一個20×20像素小窗口區域,即(x0≤x′≤x0+19,y0≤y′≤y0+19)內的像素灰度和的內值為μ,方差為σ,則μ=[II(x0+19,y0+19)+II(x0-1,y0-1)-II(x0-1,y0+19)-II(x0+19,y0-1)]/400σ={[SqrII(x0+19,y0+19)+SqrII(x0-1,y0-1)-SqrII(x0-1,y0+19)-SqrII(x0+19,y0-1)]/400-μ2}1/2接著對每個微結構特徵作如下歸一化FV(j)=0FV(j)]]>對於一個20×20像素的樣本圖像,共得到92267維微結構特徵FV(j),1≤j≤92267步驟4.特徵選擇和分類器設計用以上訓練樣本集訓練以及CS-AdaBoost算法訓練每一層人臉/非人臉強分類器,並將多層強分類器級聯起來組成一個完整的人臉檢測器。包括以下步驟步驟4.1初始化i=1;定義每層強分類器的訓練目標是在人臉訓練集上FRR≤0.02%,在非人臉訓練集上FAR≤60%;定義整個人臉檢測器在人臉訓練集上的目標FRR≤0.5%,在非人臉訓練集上的目標FAR≤3.2×10-6;步驟4.2訓練第i層強分類器;步驟4.3用訓練得到的前i層分類器對樣本集進行檢測,並計算FRR、FARFAR=被判別為人臉的非人臉樣本個數÷非人臉樣本總數×100%FRR=被判別為非人臉的人臉樣本個數÷人臉樣本總數×100%步驟4.4如果FRR、FAR未達到步驟4.1設定的預定值,則i←i+1,返回步驟4.2繼續進行訓練;否則停止訓練;其中步驟4.2依次含有以下步驟步驟4.2.1參數的初始化訓練樣本誤分類風險的初始化;對於人臉樣本的誤分類風險Ci=2cc+1,]]>對非人臉樣本的誤分類風險Ci=2c+1,]]>c是人臉類別是非人臉類別的誤分類風險倍數,c值應大於1且隨著強分類器層數的增多逐漸減小接近於1;訓練樣本權重的初始化;初始每個樣本的權重為D1(i)=CijCj;]]>選擇迭代次數T,T即為希望使用的弱分類器的個數,T應隨著強分類器層數的增多逐漸增多;統計樣本集上每個特徵分布的極大值Fmax(j)和極小值Fmin(j),其中j為特徵序號,1≤j≤92267;步驟4.2.2重複以下過程T次,t=1,...,T步驟4.2.2.1使用第j個特徵,1≤j≤92267)構造弱分類器hj,然後在Fmin(j)和Fmax(j)間窮舉搜索閾值參數θj,使得hj的錯誤率εj最小,定義j=i=1nDt(i)|hj(subi)-li|;]]>弱分類應用hj(sub)表示,簡稱hjhj(sub)=1,ifgj(sub)jorgj(sub)>j0,otherwise]]>其中sub是一個20×20像素的樣本,gj(sub)是從該樣本把取得到的第j個特徵;θj是第j個特徵對左右的判決閾值,為設定值(該閾值通過統計所有採集的人臉和非人臉樣本的第j個特徵使得人臉樣本的FRR滿足規定的要求來得到);hj(sub)是使用第j個特徵構造的樹分類器的判決輸出,相反地,可得到92267個弱分類器;li=o.l是樣本圖像subi的類別標號,分別對應非人臉類別和人類臉別,其中人臉樣本nface個,非人臉樣本nnonface個,共同構成訓練樣本集L={(subi,li)},i=1,...,n,li=0,1;步驟4.2.2.2令t=argmin1j92267j,]]>並將其對應的弱分類器作為ht;步驟4.2.2.3計算參數t=12ln(1-tt);]]>步驟4.2.2.4更新樣本的權重Dt+1(i)=Dt(i)exp(-tliht(subi))exp(tli)Zt,]]>其中=c-1c+1,]]>i=1,...,n,Zt=i=1nDt(i)exp(-tliht(subi))exp(tli).]]>步驟4.2.3輸出最後的強分類器 由以上各個步驟可以訓練得到一個完整的人臉檢測器;在檢測階段,該發明採用以下步驟來判斷一張輸入圖像中是否包含人臉步驟1.輸入圖像的採集利用攝像頭、數位相機、掃描儀等任一設備採集圖像;步驟2.輸入圖像的放縮及其圖像中每一個小窗口的快速判斷為檢測不同尺寸的人臉,採用前文使用的線性插值方法按照一定比例連續縮小12次輸入圖像(本發明採用1.25的比例),共得到由13個不同尺寸的輸入圖像,分別判斷每張輸入圖像中的每一個20×20像素的小窗口,這樣可以檢測尺寸從20×20像素到280×280像素的人臉;具體來說包括以下步驟步驟2.1輸入圖像的放縮採用前文使用的線性插值方法按比例q=1.25連續縮小12次輸入圖像I(x,y)得到輸入圖像序列{Ii(x,y)},i=0,...,12;步驟2.2積分圖像的計算使用上文迭代公式分別計算每個圖像Ii(x,y)所對應的積分圖像IIi(x,y)和平方積分圖像SqrIIi(x,y),i=0,...,9;步驟2.3判斷圖像中每一個的小窗口從每幅圖像Ii(x,y)的左上角開始判別圖像中每一個20×20像素尺寸的小窗口,對任一個小窗口[x0,y0;x0+19,y0+19]的處理步驟如下步驟2.3.1利用整幅圖像的積分圖IIi(x,y)和平方積分圖SqrIIi(x,y)計算小窗口的均值μ和方差σ;μ=[IIi(x0+19,y0+19)+IIi(x0-1,y0-1)-IIi(x0-1,y0+19)-IIi(x0+19,y0-1)]/400σ={[SqrIIi(x0+19,y0+19)+SqrIIi(x0-1,y0-1)-SqrIIi(x0-1,y0+19)-SqrIIi(x0+19,y0-1)]/400-μ2}1/2步驟2.3.2利用前文介紹方法快速提取該小窗口的微結構特徵,並進行特徵歸一化處理;步驟2.3.3採用訓練好的多層人臉/非人臉強分類器對小窗口進行判斷;如果通過所有層強分類器的判斷,則認為該小窗口包含一個人臉,輸出其位置;否則拋棄掉該小窗口,不進行後續處理;利用以上步驟可以快速魯棒地檢測一張輸入圖像中的所有人臉。
全文摘要
複雜背景下的人臉檢測技術屬於人臉識別領域。其特徵在於,提出了一種性能魯棒的複雜背景下圖像中的人臉檢測方法。它採用高效率和高冗餘度的微結構特徵來表達人臉模式中眼睛、嘴巴等區域的灰度分布特點;並採用風險敏感的AdaBoost算法從中選擇出最具有區分人臉和非人臉的微結構特徵構成強分類器,使訓練得到的每一層分類器在保證對人臉類別極低的拒識率的情況下,儘可能降低非人臉樣本的誤接受率,從而以更簡單的結構實現複雜背景圖像下更高性能的人臉檢測;另外還使用了後處理算法進一步降低誤檢率。在多個公開資料庫上以及競賽評測的結果證明了本發明的優異性能。
文檔編號G06K9/00GK1731417SQ200510086248
公開日2006年2月8日 申請日期2005年8月19日 優先權日2005年8月19日
發明者丁曉青, 馬勇, 方馳, 劉長松, 彭良瑞 申請人:清華大學