時(shí)間:2020-09-20 19:49來(lái)源:戰(zhàn)術(shù)導(dǎo)彈技術(shù) 作者:中國(guó)通航
|
2 特征提取
特征提取是目標(biāo)檢測(cè)中的關(guān)鍵步驟,其質(zhì)量直接影響到最終檢測(cè)結(jié)果的準(zhǔn)確性。特征提取常用的圖像特征有顏色特征、紋理特征、形狀特征等。受限于無(wú)人機(jī)實(shí)際偵察條件,應(yīng)用于復(fù)雜多目標(biāo)背景下無(wú)人機(jī)偵察目標(biāo)檢測(cè)的特征提取算法應(yīng)對(duì)尺度、亮度、旋轉(zhuǎn)、遮擋和噪聲等干擾具有較強(qiáng)的魯棒性,而傳統(tǒng)目標(biāo)檢測(cè)技術(shù)大部分通過(guò)人工設(shè)計(jì)提取圖像特征,常見的算法有:
Harris角點(diǎn)檢測(cè)算法以泰勒展開式構(gòu)建像素點(diǎn)鄰域內(nèi)的連續(xù)曲面,計(jì)算所有像素點(diǎn)的微商平方和,采用其中的最大值和最小值作為判斷特征角點(diǎn)的顯著性依據(jù),該算法能將檢測(cè)方向擴(kuò)展到所有方向上。不足之處是計(jì)算過(guò)程復(fù)雜,且人為設(shè)定的初始閾值對(duì)算法的穩(wěn)定性具有決定性作用。
SIFT(Scale Invariant Feature Transform)特征檢測(cè)算法是現(xiàn)階段較為成熟的一種算法,首先通過(guò)高斯平滑構(gòu)建高斯尺度空間,在其中進(jìn)行極值點(diǎn)檢測(cè)并將其作為特征點(diǎn),經(jīng)過(guò)特征點(diǎn)描述即可用于圖像匹配。該算法對(duì)于照度變換、尺度和旋轉(zhuǎn)變換、視點(diǎn)變化以及噪聲影像都具備一定的魯棒性,特征點(diǎn)區(qū)分力較好,信息量豐富,匹配的準(zhǔn)確度較高,但由于算法需要構(gòu)建尺度空間并計(jì)算全局極值,計(jì)算量大,無(wú)法滿足實(shí)時(shí)要求。
HOG(Histogram of Oriented Gradient)特征檢測(cè)算法是一種利用局部圖像梯度方向直方圖特性提取圖像特征的方法,能夠減弱局部光照、陰影對(duì)特征提取的影響,計(jì)算像素梯度獲取圖像輪廓信息。首先將圖像劃分成多個(gè)Cell塊,每個(gè)Cell塊由數(shù)個(gè)像素點(diǎn)組成,統(tǒng)計(jì)Cell塊的梯度直方圖,再將數(shù)個(gè)Cell塊組合成Block區(qū)域,根據(jù)密度對(duì)區(qū)域中的Cell塊歸一化,區(qū)域中所有Cell塊的梯度特征組合成Block特征,同理圖像中所有Block特征組合成圖像特征,HOG對(duì)光照和輕微形變有一定的抑制能力,可以很好的表征局部像素之間的關(guān)系。與其它傳統(tǒng)特征提取算法相同,計(jì)算冗長(zhǎng)導(dǎo)致的實(shí)時(shí)性差是算法的主要缺陷。
SURF(Speeded up Robust Features)檢測(cè)算法采用Hessian矩陣對(duì)SIFT算法中高斯尺度空間構(gòu)建過(guò)程進(jìn)行近似處理,利用積分圖像和更低維度的描述子向量簡(jiǎn)化算法體積,有效減少了計(jì)算量,彌補(bǔ)了SIFT算法運(yùn)行速度緩慢的缺點(diǎn)。但是在采用Hessian矩陣獲得極值后,在求取特征點(diǎn)主方向階段過(guò)于依賴局部區(qū)域像素點(diǎn)的梯度方向,可能會(huì)造成誤匹配。而且由于算法采用一種近似處理實(shí)現(xiàn)特征點(diǎn)的檢測(cè),導(dǎo)致其對(duì)于各種變換的魯棒性相對(duì)下降。
之后還有許多基于SIFT和SURF改進(jìn)的特征檢測(cè)算法,如BRIEF(Binary Robust Independent Elementary Features)檢測(cè)算法、ORB(Oriented FAST and Rotated BRIEF)檢測(cè)算法、BRISK(Binary Robust Invariant Scalable Keypoints)檢測(cè)算法、非線性特征檢測(cè)的風(fēng)式特征(KAZE)算法,魯棒性和實(shí)時(shí)性都有大幅提高,但是傳統(tǒng)特征提取算法應(yīng)用于無(wú)人機(jī)偵察目標(biāo)檢測(cè)時(shí),魯棒性、實(shí)時(shí)性和準(zhǔn)確性等傳統(tǒng)指標(biāo)依然無(wú)法滿足實(shí)際需求,具體表現(xiàn)為以下四個(gè)方面:
(1)提取到的特征信息過(guò)于單一,無(wú)法完整的表述目標(biāo);
(2)可分性較差,分類器無(wú)法準(zhǔn)確的對(duì)復(fù)雜背景下的目標(biāo)進(jìn)行分類;
(3)泛化性不足,不同的特征適用于不同的影像數(shù)據(jù),一般人為選取的特征都有自身特定的應(yīng)用背景;
(4)特征設(shè)計(jì)工作復(fù)雜,研發(fā)周期長(zhǎng),且設(shè)計(jì)工作需要較強(qiáng)的專業(yè)背景。
隨著深度學(xué)習(xí)的不斷發(fā)展,基于深度卷積神經(jīng)網(wǎng)絡(luò)(convolution neural network,CNN)的目標(biāo)檢測(cè)算法得到深入研究。在圖像特征提取方面,卷積神經(jīng)網(wǎng)絡(luò)具有明顯優(yōu)勢(shì),區(qū)別于人工設(shè)計(jì)的特征,其利用大量圖片數(shù)據(jù)學(xué)習(xí)到非人工設(shè)計(jì)的特征,解決了由于人為選取的特征信息單一導(dǎo)致的復(fù)雜背景下魯棒性不強(qiáng)的問(wèn)題,提升影像目標(biāo)檢測(cè)效果。
3 分類器
分類是目標(biāo)檢測(cè)的核心之一,而分類器的選擇是分類的重點(diǎn)。將特征提取中得到的特征送入分類器,判斷出圖像中目標(biāo)類別,即基本完成目標(biāo)的粗檢測(cè)。如圖3所示為目標(biāo)檢測(cè)中分類器進(jìn)行分類的過(guò)程。
![]() 圖3 分類示意圖
目標(biāo)檢測(cè)分類過(guò)程最常用的分類器有:支持向量機(jī)(support vector machine,簡(jiǎn)稱 SVM)、Boosting、隨機(jī)森林(Random Forest, RF)、人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network, ANN)等。
SVM分類器是以統(tǒng)計(jì)學(xué)習(xí)理論為基礎(chǔ)的學(xué)習(xí)方法,根據(jù)結(jié)構(gòu)風(fēng)險(xiǎn)最小化準(zhǔn)則,以最大化分類間隔構(gòu)造最優(yōu)分類超平面來(lái)提高學(xué)習(xí)機(jī)的泛化能力,較好地解決了非線性、高維數(shù)、局部極小點(diǎn)等問(wèn)題。對(duì)于分類問(wèn)題,支持向量機(jī)算法根據(jù)區(qū)域中的樣本計(jì)算該區(qū)域的決策曲面,由此確定該區(qū)域中未知樣本的類別。傳統(tǒng)圖像目標(biāo)檢測(cè)中大多應(yīng)用SVM分類器進(jìn)行特征分類,然而缺失數(shù)據(jù)敏感和對(duì)非線性問(wèn)題沒有通用解決方案仍是急待解決的問(wèn)題。
Boosting分類器是一種集合分類器即通過(guò)組合幾個(gè)弱分類器實(shí)現(xiàn)強(qiáng)分類器的性能。其基本思想是:訓(xùn)練數(shù)個(gè)弱分類器,在第一個(gè)弱分類器中輸入相同權(quán)值訓(xùn)練樣本,在之后的分類器迭代過(guò)程中,不斷增加正確樣本權(quán)重直到迭代完成,最后將所有弱分類器組合成強(qiáng)分類器用于分類決策。Adaboost(Adaptive Boosting)算法具體實(shí)現(xiàn)了Boosting分類器這一思想,且具有精度高、抗過(guò)擬合能力強(qiáng)、構(gòu)建簡(jiǎn)單靈活等優(yōu)點(diǎn),大量應(yīng)用于包括目標(biāo)特征分類等各種分類場(chǎng)景。弱分類器的選擇是影響B(tài)oosting分類器分類效果的關(guān)鍵,也是制約其發(fā)展的阻力。
隨機(jī)森林是由多個(gè)決策樹分類器(Classification and Regression Tree, CART)組成的總分類器。為達(dá)到提升泛化性的目的,分類器訓(xùn)練過(guò)程中通過(guò)隨機(jī)有放回的采樣獲取子分類器訓(xùn)練樣本集,隨后將提取到的特征按一定比例隨機(jī)無(wú)放回的采樣來(lái)訓(xùn)練子分類器節(jié)點(diǎn)。隨機(jī)森林相較于其它分類器具有訓(xùn)練速度快、泛化能力強(qiáng)、實(shí)現(xiàn)簡(jiǎn)單等優(yōu)點(diǎn),且可以有效克服樣本失衡、特征丟失、特征維度過(guò)高的問(wèn)題。但在數(shù)據(jù)噪聲較大的情況下仍會(huì)發(fā)生過(guò)擬合的問(wèn)題,此外,該模型內(nèi)部不可控,只能通過(guò)外部參數(shù)進(jìn)行調(diào)節(jié)。
|