一種基於馬步測度的Harris-SIFT雙目視覺定位方法
2023-09-16 15:56:25 1
一種基於馬步測度的Harris-SIFT雙目視覺定位方法
【專利摘要】本發明提供的是一種基於馬步測度的Harris-SIFT雙目視覺定位方法。用於無人水下航行器(UUV)回收過程中的實時雙目視覺定位。基於雙目立體視覺的模型原理,利用SIFT算法從左右攝像機分別獲取的圖像中檢測目標,並獲取匹配目標的特徵點,對兩幅圖像中目標物體的坐標標定,通過計算可得到目標物體的深度距離,還原其三維信息。針對UUV運動的海洋環境的特點,本發明提出了一種基於採用馬步距離做測度的Harris-SIFT算子雙目視覺算法,提高了圖像匹配的運算效率和應用水平的實時性,並且可以保證一定的精度。
【專利說明】—種基於馬步測度的Harris-SIFT雙目視覺定位方法
【技術領域】
[0001]本發明涉及的是一種無人水下航行器(UUV)的定位方法,具體地說是一種能實時地為無人水下航行器(UUV)提供回收導引光源的方位與距離信息的方法。
【背景技術】
[0002]無人水下航行器(Unmanned Underwater Vehicle,簡稱UUV)的應用領域廣泛。安全回收對於UUV的續航能力和水下長期工作的能力是至關重要的。隨著計算機視覺及相關技術的發展,視覺導引已經成為UUV回收方式的主要選擇。立體雙目視覺技術是近年來數字圖像處理和計算機視覺領域研究的方向和熱點。該技術獲取的物體圖像相對於目標物體有縮放、旋轉以及遮擋的變化,這時就需要利用圖像特徵匹配來識別目標物體。
[0003]在UUV的回收過程中,實際系統的控制方式不外乎採用「視覺伺服」的閉環控制方式或「先看後動」的開環控制方式。開環控制方式實現簡單,但系統動作的精度將直接取決於視覺傳感系統的精度和運載器本身的執行精度,這就要求視覺傳感器的精度要適當高一些,同時要保證實時性;對於視覺伺服系統,視覺反饋在一定程度上提高了整個系統的執行精度,但其複雜的計算對實時性能提出更高要求。目前,實際系統多採用專用的圖像處理晶片來提高雙目系統的處理速度。
[0004]雙目視覺是計算機被動測距方法中最重要的距離感知技術,一直是計算機視覺領域的研究重點。其基本原理是從兩個視點觀察同一景物,以獲取在不同視點下的感知圖像,通過計算共軛像點的視差來獲取景物的三維信息。匹配過程是雙目視覺的關鍵,對於校正好的立體圖像對,匹配方法過程決定著整個雙目系統的性能。
[0005]SIFT特徵匹配算法是圖像中檢測和描述局部特徵的一種算法,是DavidG.Lowe在1999年首次發表之後,於2004年經過完善總結提出了一種基於尺度空間的,對圖像的縮放、旋轉甚至仿射變換都保持不變性的特徵匹配算法。圖像中的任何目標物體,都存在許多「特徵」,從訓練圖像中獲取特徵描述標註目標,以及從其他目標的測試圖像中進行定位。SIFT特徵在識別物體時運用局部圖像特徵的描述與偵測,尋找到基於物體上的一些局部的特徵點與圖像的大小和旋轉無關,還有其它符合SIFT算法的匹配條件和特性。根據這些特性,其特徵點就比較容易獲得,在龐大的特徵資料庫中,很容易識別到物體而且很少發生錯誤。使用SIFT特徵描述對於部分物體遮蔽的識別率也非常髙,只需要3個以上的SIFT物體的特徵就能夠計算出物體的位置與方位。
[0006]在這種算法的基礎之上,研究這方面的學者也是越來越多,對這個算法提出新的觀點和想法。比如,Rob Hess基於GSL和Opencv編寫了相應的C語言程序,後來YanKe覺得SIFT的特徵描述符的維數過大,於是用PAC降維對原算法進行改進,取得良好的效果;之後Mikolajczyk提出了尺度和仿射不變量的檢查算法,在對仿射變換適應性更好;Y.yu等人把SIFT算法應用於雷射掃描儀上的IE標和軟體,在進行配準的過程中獲得了很好的配準效果。
[0007]由於SIFT算法提取的特徵,對亮度變化、尺度縮放以及旋轉均具有保持不變性,而且對噪聲、仿射變換、視角變化保持較好的穩定性,可以在較複雜的環境中匹配識別出目標物體,適合UUV回收時複雜的水下環境。SIFT算法雖然得到了廣泛的研究和應用,但對於水下雙目視覺立體匹配SIFT算法的研究目前還很少,並未真正提出實時性好、準確性高的實用的水下SIFT匹配立體定位算法。
【發明內容】
[0008]本發明的目的在於提供一種匹配效率高,實時性強用於UUV回收的基於馬步測度的Harris-SIFT雙目視覺定位方法。
[0009]本發明的目的是這樣實現的:
[0010]步驟一:對待匹配圖像進行高斯濾波和校正處理;
[0011]步驟二:採用Harris算子對待匹配圖像中的特徵點進行檢測,提取待匹配圖像中的特徵點,待匹配圖像的特徵點的特徵值為:
[0012]R= det (C) -ktr2 (C)
[0013]其中,det為矩陣行列式,tr為矩陣的跡,C為相關矩陣;k取0.04~0.06 ;
[0014]步驟三:根據特徵點的局部圖像梯度和局部特徵,為每一個特徵點分配一個方向來描述旋轉不變性,最後得到特徵點鄰域的梯度和方向:
【權利要求】
1.一種基於馬步測度的HarriS-SIFT雙目視覺定位方法,其特徵是: 步驟一:對待匹配圖像進行高斯濾波和校正處理; 步驟二:採用Harris算子對待匹配圖像中的特徵點進行檢測,提取待匹配圖像中的特徵點,待匹配圖像的特徵點的特徵值為:
R = det (C) -ktr2 (C) 其中,det為矩陣行列式,tr為矩陣的跡,C為相關矩陣;k取0.04?0.06 ; 步驟三:根據特徵點的局部圖像梯度和局部特徵,為每一個特徵點分配一個方向來描述旋轉不變性,最後得到特徵點鄰域的梯度和方向:m(x,y) =
+1, v) - £ (x -1, y)]" + [i(x, V +1) -1 (x, V -1 )J
t+!)-Ζ.(λ\ V-1)
θ(χ,ν) = arctan--;-;-f
L(x+ I, v)- L(j-1, v) 其中,L為檢測的特徵點所在的尺度,m(x,y)表示特徵點的梯度大小,Θ (x, y)表示特徵點梯度的方向; 步驟四:對每個特徵點用4X4共16個種子點來描述,這樣一個關特徵點產生並最終形成128維的SIFT特徵向量; 步驟五:構建KD-tree,在KD-tree上計算第一幅圖像的每個特徵點在待匹配圖像上的特徵點最近鄰匹配; 步驟六:採用馬步距離計算特徵向量的距離,藉助頂函數定義馬步距離:
ΓΓ^? Γ^ + 7]? [ ΓΓ?.~| [^ + 711f (、',/.)關(I,ο) max — , - +<(s + t)-max — , - mod2 <
L 2 3 」IL 2 3 J [(5,0^(2,2) dk (p, r) = <3 (λ',O = (1,0)
4 (5,0 = (2,2)
其中,s = max {I xp-xr |,| yp-yr I}, t = min {| xp_xr |,| yp-yr |},用(x, y)表示像素;
步驟七:採用基於2D單應變換的RANSAC算法剔除誤匹配點對。
2.根據權利要求1所述的基於馬步測度的Harris-SIFT雙目視覺定位方法,其特徵是:所述採用基於2D單應變換的RANSAC算法剔除誤匹配點對具體包括:從SIFT匹配同名點對中隨機抽取M組抽樣,每一組抽樣數據至少包含4對匹配點;利用M組抽樣中匹配點對,分別估算出2D單應變換矩陣H的參數初始值;再根據匹配點對間的誤差,計算出每一組2D單應變換矩陣H參數初始值所對應的內點和外點。
【文檔編號】G06T7/00GK104166995SQ201410373212
【公開日】2014年11月26日 申請日期:2014年7月31日 優先權日:2014年7月31日
【發明者】嚴浙平, 郝悅, 張偉, 王千一, 趙錦陽, 張宏瀚 申請人:哈爾濱工程大學