有關(guān)計算機視覺的課程論文(2)
有關(guān)計算機視覺的課程論文
有關(guān)計算機視覺的課程論文篇二
《計算機視覺——行人檢測方法改進(jìn)》
摘要:該文在闡述行人檢測方法改進(jìn)的主要思路、范圍和方法的基礎(chǔ)上,進(jìn)一步對行人檢測所使用的統(tǒng)計方法和特征進(jìn)行了分析比較,提出了基于融合分類器的行人檢測算法,并在檢測前先進(jìn)行前景標(biāo)注,然后再在帶標(biāo)注的圖像上進(jìn)行行人檢測。
關(guān)鍵詞:計算機視覺;行人檢測方法;改進(jìn);級聯(lián)分類器
計算機視覺對于人類的影響是重大的,它伴隨著計算機的蓬勃發(fā)展成為了一個不可或缺的分支。毫無疑問視覺信息在我們的日常生活中具有重要的地位。如果計算機能夠像人類那樣理解攝像機捕捉到的視覺信息,則會給我們的生活帶來巨大的影響和幫助。然而目前對于計算機視覺的研究還不是很成熟的,比如小孩到了4、5歲的時候就能在輕易地分辨出圖像卡片中的樹、人、車等不同類別的物體,還能區(qū)別不同的樹,如楊樹、柳樹、果樹等,在這方面,計算機明顯還存在著巨大的不足之處。
該文針對計算機視覺中的行人檢測部分做了深入的研究,力求能讓計算機能夠高速高質(zhì)量的辨別一段視頻中的人。下面詳細(xì)的對所做的實驗的方法以及結(jié)果做以介紹。
1行人檢測方法改進(jìn)的主要思路
實驗的主要思路為在行人檢測研究時,根據(jù)現(xiàn)有的級聯(lián)分類器的不足之處,提出了融合兩個級聯(lián)分類器來進(jìn)行行人檢測的方法。具體采用了表觀特征向量來描述人體,并結(jié)合統(tǒng)計學(xué)習(xí)的分類方法來檢測視頻中的行人。為了保證融合分類器的檢測性能和實時性,融合的兩個分器分別選取了類Haar特征分類器和Shapelet特征分器,前者作為第一級分類器,后者作為第二級分類器。提出了使用Haar-like結(jié)合人體頭肩的特征和Shapelet結(jié)合人體頭肩的特征來描述人體;在分類器訓(xùn)練時,采用的是Gentle-Adaboost機器學(xué)習(xí)算法;并且為提高分類器檢測速度,首先對視頻序列進(jìn)行了前景標(biāo)注,采用背景差分將前景點標(biāo)注出來,這樣在檢測時只需檢測前景點即可,減少了大量背景上的檢測時間。
2研究的范圍與方法
2.1本實驗主要研究的是靜態(tài)背景下的行人檢測
根據(jù)拍攝的攝像頭的情況,可以將運動目標(biāo)檢測的研究主要分為兩大類:動態(tài)背景情況下的目標(biāo)檢測與靜態(tài)背景下的目標(biāo)檢測。前者主要是在拍攝的過程中,攝像頭是跟著目標(biāo)前進(jìn),后退等方式移動的,背景環(huán)境因此也是不斷變化的;后者情況下,攝像頭是固定的,相對于目標(biāo)場景來說是靜止的,因此背景環(huán)境是相對不變的。而視頻監(jiān)控系統(tǒng)中使用的大多數(shù)方式便是固定攝像頭,所以本實驗主要研究的是靜態(tài)背景下的目標(biāo)檢測。
另外此實驗是基于統(tǒng)計方法的行人目標(biāo)檢測。采用統(tǒng)計分類學(xué)習(xí)來研究目標(biāo)檢測問題。該方法通過統(tǒng)計學(xué)習(xí)獲得的分類器某個類別目標(biāo)的檢測器(例如人臉、汽車和行人等),然后根據(jù)得到的檢測器來進(jìn)行目標(biāo)檢測。基于統(tǒng)計方法的目標(biāo)檢測方法一般被分為兩個階段:離線檢測模型的訓(xùn)練和在線目標(biāo)檢測階段,在離線訓(xùn)練階段,首先要收集大量的樣本,包括與正樣本和負(fù)樣本,正樣本指包含著目標(biāo)類別的圖像,負(fù)樣本指不包含目標(biāo)類別的圖像;接著對收集好的正負(fù)樣本做標(biāo)記(用y表示),與正樣本標(biāo)為+1,負(fù)樣本標(biāo)為-1;然后對樣本進(jìn)行配準(zhǔn)、對齊和大小歸一化;再接著在歸一化后的正負(fù)樣本上提取出特征向量x (x∈Rd),和對應(yīng)的標(biāo)簽 y一起組成最終用以統(tǒng)計訓(xùn)練學(xué)習(xí)的特征向量集合S={(x1,y1),…(xN,yN)};最后使用選定的統(tǒng)計學(xué)習(xí)方法根據(jù)訓(xùn)練數(shù)據(jù)集S訓(xùn)練分類器的參數(shù)以供檢測階段使用。
在線檢測階段首先需要在待檢測圖像上提取得到與訓(xùn)練階段使用的相同的特征向量,然后與離線階段的分類器對該特征向量進(jìn)行分類差別。由于不知道目標(biāo)在圖像中的大小和位置,因此在檢測時需要在不同的尺度和位置對目標(biāo)進(jìn)行檢測,即需要在不同的尺度位置空間中逐窗口進(jìn)行遍歷判斷。。尺度空間通過對圖像逐級縮放做金字塔分解(Pyramid decomposition)實現(xiàn);位置空間通過遍歷每個尺度下圖像中的每個空間位置實現(xiàn)。因此檢測目標(biāo)時某個尺度下對于目標(biāo)大小為w×h,圖像尺寸為W×H時,需要分類判斷的窗口數(shù)目約是WH個,數(shù)量巨大。在不同的尺度與位置空間進(jìn)行窗口遍歷時,如果該窗口被判別為目標(biāo)類別,則記錄其位置和當(dāng)前的尺度,否則丟棄,最后將不同尺度和位置上得到的檢測結(jié)果進(jìn)行聚類或者最大化抑制輸出最終的檢測結(jié)果。
2.2本實驗采用的是基于部件的行人檢測方法
行人統(tǒng)計學(xué)習(xí)算法根據(jù)檢測方式的不同基本可以分為兩類:基于人體整體的統(tǒng)計學(xué)習(xí)方法和基于人體部件的統(tǒng)計學(xué)習(xí)方法。前者將整個人體作為特征進(jìn)行分類器訓(xùn)練,對于待檢測圖像,其進(jìn)行整個人體的特征提取,然后再用分類器進(jìn)行分類即可,而后者則將人體的各個部件均看作是人體的一個特征,然后分別進(jìn)行分類器訓(xùn)練,得到各自的分類器,在檢測時,先檢測各個部件,然后根據(jù)分析各個部件的相互約束關(guān)系來最終做出判決。
本采用的便是第二種方式,基于部件的行人檢測方法,但區(qū)別于以上的方法,該文采用的是用兩種不同的特征分別訓(xùn)練相同的一個部件的方法,最后綜合兩個分類器的結(jié)果做出決策
人體檢測中的特征是對目標(biāo)的描述,是用來有效的區(qū)分目標(biāo)與非目標(biāo)的,是目標(biāo)檢測的基礎(chǔ),在檢測目標(biāo)的過程中,如果能夠提取出有效區(qū)分目標(biāo)類與非目標(biāo)類的特征,那么檢測的性能就會有巨大的提升,相反,如果一個特征不能區(qū)分目標(biāo)類與非目標(biāo)類,那么有檢測時,便不能與待檢測的目標(biāo)很好的匹配,或是與其他物體相似,便可能造成誤檢。所以,提取什么樣的特征來描述目標(biāo)是目標(biāo)檢測中和首要問題。接下來介紹的是該文主要使用的是類Haar特征和Shapelet特征。
Shapelet特征是通過先局部,后整體的思想,先在局部提取小特征集作為最基本的低層特征,然后通過統(tǒng)計學(xué)習(xí)算法得出中層特征,最后再由中層特征構(gòu)成分類器,層層進(jìn)行篩選,把分類能力較弱的特征一層層篩掉,最后得到包含更多有用信息的特征用來分類,特征的維數(shù)相對來說是非常低的,計算也簡單;而且特征是由低層特征訓(xùn)練而來,類間的區(qū)別能力更強,在基于行人的檢測方面,性能尤其卓越,比Dalel的HOG特征算法的誤檢測率降低了整整10倍。實驗已經(jīng)證明,通過自適應(yīng)學(xué)習(xí)而來的Shapelet特征相比其他的固定特征來說,能捕捉到更多有用的用于判別的信息,因而訓(xùn)練出的檢測器性能可以達(dá)到非常優(yōu)秀的水平。類Haar特征可以快速的進(jìn)行行人檢測,但是在檢測的過程中,由于該特征主要描述的是行人與背景之間的差異性,對于人體內(nèi)部的差異性描述的精度不夠,所以該文采用融合分類器進(jìn)行行人檢測時,先使用類Haar特征訓(xùn)練人體頭肩生成的分類器進(jìn)行檢測,可以快速的對非人體目標(biāo)進(jìn)行排除。
對于級聯(lián)分類器來說,級聯(lián)分類器在檢測率,漏檢率,虛警率,和時間等性能上的變化,通過一系列實驗我們可得知隨著分類器級數(shù)的增加,在分類器的后面幾級中被過濾掉的樣本中正樣本所占的比率呈直線上升的方式增加。
3行人檢測方法改進(jìn)具體步驟
該文的設(shè)計方法均是在OpenCV的基礎(chǔ)上,采用Visual Studio 2010實現(xiàn)的。本實驗的參數(shù)設(shè)置如下:正樣本和負(fù)樣本在級聯(lián)Adaboost分類器中的單級通過率分別為99%和50%。分類器在尺度空間上對檢測窗口搜索的步長設(shè)定為1.05(經(jīng)驗值)。在實驗過程中,Haar特征級聯(lián)分類器和Shapelet特征級聯(lián)分類器分別采用了900張正樣本和2000張負(fù)樣本,并對人體的頭肩部分做了人工標(biāo)注,作為訓(xùn)練數(shù)據(jù)集,訓(xùn)練數(shù)據(jù)集的歸一化大小為20*20。為了增加訓(xùn)練數(shù)據(jù)集,該文對標(biāo)準(zhǔn)數(shù)據(jù)庫中的正樣本進(jìn)了豎直方向的鏡像對稱,使正樣本的數(shù)量增倍。Haar特征級聯(lián)分類器由20級Adaboost分類器構(gòu)成,Shapelet特征分類器由10級Adaboost分類器構(gòu)成。
3.1本實驗采用一種新的級聯(lián)分類器的融合方式
筆者提出一種新的級聯(lián)分類器的融合方式,以期隨著分類器級數(shù)的增加,檢測率不斷提升的前提下,能有效的遏制正樣本被過濾掉的概率的增加,以此來增強分類器的性能,使分類器的檢測率更加提升。
根據(jù)之前的分析類Haar特征運算簡單,快速,采用它訓(xùn)練的分類器可以在分類器的前幾級快速的排除掉大量的背景區(qū)域,但是類Haar特征描述的主要是人體與背景之間的差異性,因此在分類器隨著性能的增加,分類器復(fù)雜度提高的情況下,在分類器的后幾級,類Haar特征對區(qū)別與行人輪廓類似的物體時,非常不敏感,很容易將這二者混淆,將行人誤判為非行人,或?qū)⒎切腥苏`判為行人,導(dǎo)致分類器的虛警率和漏檢率的增加;而Shapelet特征在基于行人的檢測方面,性能則尤其卓越,通過自適應(yīng)學(xué)習(xí)而來的Shapelet特征相比其他的固定特征來說,能捕捉到更多有用的用于判別的信息,特別是人體的頭肩部分,Shapelet的描述更加的精確,對于區(qū)分與行人非常類似的物體,具有很高的性能。
為此,我們采用基于人體頭肩部件的類Haar特征和Shaplet特征來訓(xùn)練分類器,根據(jù)二者各自的性能,該文先用類Haar特征級聯(lián)分類器對檢測窗口進(jìn)行分類,在分類器的前面就快速的排除掉大量的背景區(qū)域,然后,在分類器的后面幾級,對于分類器的排除掉的樣本,再用Shapelet分類器來進(jìn)行分類,將在Haar特征分類器中被漏掉的目標(biāo)區(qū)域檢測出來。最后根據(jù)兩個分類器的結(jié)果進(jìn)行決策。這樣就對那些在Haar特征分類器中被錯誤過濾掉的目標(biāo)樣本進(jìn)行了二次分類,降低了分類器漏檢率的增加。
3.2本實驗采用前景標(biāo)注的方法為了提高分類器的檢測速度
我們會在待檢測的視頻圖像上對前景進(jìn)行標(biāo)注,在檢測的過程中根據(jù)標(biāo)注只需要在前景部分進(jìn)行行人檢測即可,不必在全局圖像中進(jìn)行搜索匹配,這樣既可以減少檢測的數(shù)量,又可以節(jié)約檢測計算時占用的空間,對于視頻分析中時間和空間進(jìn)行了雙重的優(yōu)化。該文的前景標(biāo)注的過程主要是:采用背景差分法得到圖像的前景,然后對于得到的前景建立一張標(biāo)注表,與原圖像進(jìn)行對應(yīng),在檢測時,標(biāo)注為前景的像素點則在原圖像上進(jìn)行目標(biāo)檢測,若標(biāo)注為背景,則不進(jìn)行檢測。
4結(jié)論
該文通過對行人檢測所使用的統(tǒng)計方法和特征進(jìn)行了分析比較,并分析了級聯(lián)分類器的特點,得出級聯(lián)分類器級數(shù)越高,在最后幾級中被排除掉的樣本中正樣本的比率上升很快,會引起分類器漏檢率的急劇增高,因此,該文提出了基于融合分類器的行人檢測算法,該融合方法選擇兩個級聯(lián)分類器(分別為類Haar特征分類器和Shapelet特征分類器)進(jìn)行級聯(lián)融合;根據(jù)監(jiān)控視頻領(lǐng)域中一般情況下都是靜態(tài)背景,而且為了提高檢測的速度與避免背景的干擾,該文提出了在檢測前先進(jìn)行前景標(biāo)注的方法,然后再在帶標(biāo)注的圖像上進(jìn)行行人檢測。
參考文獻(xiàn):
[1]賈慧星,章毓晉.車輛輔助駕駛系統(tǒng)中基于計算機視覺的行人檢測研究綜述[J].自動化學(xué)報, 33(1):84-90, 2007.
[2] Xu Fengliang,Fujimura K. Pedestrian detection and tracking with night vision. Proceeding of IEEE Intelligent Vehicles Symposium[M]. Versailles, France: IEEE Press, 2002: 21-30.
[3] Munder S, Gavrila D M. An experimental study on pedestrian classification[J].IEEE Trans. Pattern Analysis and Machine Intelligence, 2006,28 (11):1863-1868.
有關(guān)計算機視覺的課程論文相關(guān)文章: