您的位置:電子發(fā)燒友網(wǎng) > 電子技術(shù)應(yīng)用 > 電子技術(shù) > 傳感技術(shù) >
臉部檢測方法 - 基于OpenCV的人臉識別系統(tǒng)設(shè)計
2012年07月17日 14:47 來源:本站整理 作者:秩名 我要評論(0)
3.3 臉部檢測方法
OpenCV采用一種叫做Haar cascade classifier 的人臉檢測器,他利用保存在XML 文件中的數(shù)據(jù)來確定每一個局部搜索圖像的位置,先用cvLoad()從文件中加載CvHaarClassifierCascade 變量, 然后利用cvHaarDetectObjects()來進行檢測,函數(shù)使用針對某目標(biāo)物體訓(xùn)練的級聯(lián)分類器在圖像中找到包含目標(biāo)物體的矩形區(qū)域,并且將這些區(qū)域作為一序列的矩形框返回,最終檢測結(jié)果保存在cvRect 變量中。
3.4 臉部識別方法
識別步驟及所需函數(shù)如圖2 所示。
圖2 識別步驟(visio)
PCA 方法(即特征臉方法)是M.Turk 和A.Pentland在文獻中提出的,該方法的基本思想是將圖像向量經(jīng)過K-L 變換后由高維向量轉(zhuǎn)換為低維向量,并形成低維線性向量空間,即特征子空間,然后將人臉投影到該低維空間,用所得到的投影系數(shù)作為識別的特征向量。識別人臉時,只需將待識別樣本的投影系數(shù)與數(shù)據(jù)庫中目標(biāo)樣本集的投影系數(shù)進行比對,以確定與哪一類最近。
PCA 算法分為兩步:核心臉數(shù)據(jù)庫生成階段,即訓(xùn)練階段以及識別階段。
3.4.1 訓(xùn)練階段
主要需要經(jīng)過如下的幾步:
(1) 需要一個訓(xùn)練人臉照片集。
(2) 在訓(xùn)練人臉照片集上計算特征臉,即計算特征值,保存最大特征值所對應(yīng)的的M 張圖片。這M 張圖片定義了“特征臉空間”(原空間的一個子空間)。當(dāng)有新的人臉添加進來時,這個特征臉可以進行更新和重新計算得到。
?。?) 在“特征臉空間”上,將要識別的各個個體圖片投影到各個軸(特征臉)上,計算得到一個M 維的權(quán)重向量。簡單而言,就是計算得到各個個體所對應(yīng)于M 維權(quán)重空間的坐標(biāo)值。
OpenCV 實現(xiàn)為:先用cvLoadImage()載入圖片并利用cvCvtcolor()轉(zhuǎn)換為灰度圖片,建立自定義的迭代標(biāo)準(zhǔn)CvTermCriteria,調(diào)用cvCalcEigenObjects()進行PCA 操作,計算出的Eigenface 都存放在向量組成的數(shù)組中,利用cvEigenDecomposite()將每一個訓(xùn)練圖片投影在PCA 子空間(eigenspace)上,結(jié)果保存在矩陣數(shù)組中,用cvWrite《datatype》()將訓(xùn)練結(jié)果保存至XML文件中。下面圖3 為訓(xùn)練得到的部分特征臉圖像。
圖3 特征臉圖像
3.4.2 身份識別階段
在識別新的人臉圖片時,具體的操作方法流程如下:
?。?) 基于前面得到的M 個特征臉,將新采集的圖片投影到各個特征臉,計算得到一個權(quán)重集合(權(quán)重向量)。
?。?) 判斷新圖片是否是一幅人臉圖像,即通過判斷圖像是否足夠靠近人臉空間。
?。?) 如果是人臉圖像,則根據(jù)前面計算的權(quán)重集合(權(quán)重向量),利用權(quán)重模式將這個人臉分類劃歸到初始時計算得到的各個個體或者是成為一個新 的個體照片。簡單而言,就是計算新權(quán)重到原來各個個體權(quán)重的距離,選擇最近的,認(rèn)為是識別成這個個體;如果最近的距離超出閾值,則認(rèn)為是一個新的個體。
(4) 更新特征臉或者是權(quán)重模式。
?。?) 如果一個未知的人臉,出現(xiàn)了很多次,也就意味著,對這個人臉沒有記錄,那么計算它的特征權(quán)重(向量),然后將其添加到已知人臉中[6]。
OpenCV 實現(xiàn)調(diào)用cvRead《datatype》()加載訓(xùn)練結(jié)果XML 文件,調(diào)cvEigenDecomposite()將采集圖片映射至PCA 子空間,利用最近距離匹配方法SquaredEuclidean Distance,計算要識別圖片同每一個訓(xùn)練結(jié)果的距離,找出距離最近的即可。
3.5 臉部表情識別
臉部運動跟蹤利用了Camshift 算法,該算法利用目標(biāo)的顏色直方圖模型將圖像轉(zhuǎn)換為顏色概率分布圖,初始化一個搜索窗的大小和位置,并根據(jù)上一幀得到的結(jié)果自適應(yīng)調(diào)整搜索窗口的位置和大小, 從而定位出當(dāng)前圖像中目標(biāo)的中心位置。
Camshift 能有效解決目標(biāo)變形和遮擋的問題,對系統(tǒng)資源要求不高,時間復(fù)雜度低,在簡單背景下能夠取得良好的跟蹤效果。
Camshift 的OpenCV 實現(xiàn)分以下幾步:
?。?)調(diào)用cvCvtColor()將色彩空間轉(zhuǎn)化到HSI 空間,調(diào)用cvSplit()獲得其中的H 分量。
?。?) 調(diào)用cvCreateHist()計算H 分量的直方圖,即1D 直方圖。
(3) 調(diào)用cvCalcBackProject()計算Back Projection.
?。?) 調(diào)用cvCamShift()輸出新的Search Window 的位置和面積。
我們利用光流算法評估了兩幀圖像的之間的變化,Lucas–Kanade 光流算法是一種兩幀差分的光流估計算法。它計算兩幀在時間t 到t +δt 之間每個每個像素點位置的移動。是基于圖像信號的泰勒級數(shù),就是對于空間和時間坐標(biāo)使用偏導(dǎo)數(shù)。
首先要用到shi-Tomasi 算法,該算法主要用于提取特征點,即圖中哪些是我們感興趣需要跟蹤的點,對應(yīng)函數(shù)為cvGoodFeaturesToTrack(),可以自定義第一幀特征點的數(shù)目,函數(shù)將輸出所找到特征值。接下來是cvCalcOpticalFlowPyrLK 函數(shù), 實現(xiàn)了金字塔中Lucas-Kanade 光流計算的稀疏迭代版本。 它根據(jù)給出的前一幀特征點坐標(biāo)計算當(dāng)前視頻幀上的特征點坐標(biāo)。輸入?yún)?shù)包括跟蹤圖像的前一幀和當(dāng)前幀,以及上面函數(shù)輸出的前一幀圖像特征值,自定義的迭代標(biāo)準(zhǔn),輸出所找到的當(dāng)前幀的特征值點。這些點可以確定面部局部區(qū)域的特征 如眼部,鼻子高度與寬度,嘴部兩側(cè)與底部的夾角等等,利用與前一幀的特征比較,可得出反應(yīng)臉部動態(tài)變化的參數(shù),這些數(shù)據(jù)可以與臉部的一些簡單表情相關(guān)聯(lián)。下面圖4 為跟蹤眼睛上下眨動的圖像。
圖4 跟蹤眼部上下眨動圖像
4 總結(jié)
本文以O(shè)penCV 圖像處理庫為核心,以QT 庫所提供的界面框架為基礎(chǔ),提出了人臉識別系統(tǒng)設(shè)計方案,實驗證明本方案具有較好的實用性,可移植性。但仍有許多不足之處,如身份與表情識別部分可以通過引入神經(jīng)網(wǎng)絡(luò)或支持向量機SVM 進行分類,可以使識別準(zhǔn)確率與識別種類數(shù)得到提高,這些也是后續(xù)工作中步需要改進的。
本文導(dǎo)航
- 第 1 頁:基于OpenCV的人臉識別系統(tǒng)設(shè)計
- 第 2 頁:臉部檢測方法
標(biāo)簽:人臉識別(32)opencv(7)opencv 2.2(1)