河海大學王俊瑋獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網獲悉河海大學申請的專利弱紋理場景下的無人系統導航線感知及障礙物測距方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN120339403B 。
龍圖騰網通過國家知識產權局官網在2025-08-19發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202510827842.2,技術領域涉及:G06T7/77;該發明授權弱紋理場景下的無人系統導航線感知及障礙物測距方法是由王俊瑋;宋國章;黃浩乾;王迪;王冰設計研發完成,并于2025-06-20向國家知識產權局提交的專利申請。
本弱紋理場景下的無人系統導航線感知及障礙物測距方法在說明書摘要公布了:本發明公開了弱紋理場景下的無人系統導航線感知及障礙物測距方法,屬于機器視覺技術領域。本發明首先利用改進的YOLOv5網絡對圖像中的參考物和行人進行檢測,獲取參考物邊界框坐標信息及行人檢測框坐標信息;接著提取初始參考點點集,通過RANSAC算法去除離群點后,運用最小二乘擬合算法擬合行線并提取導航線;同時對目標場景進行區域劃分,計算各區域的最小深度值,通過四分區深度比較算法確定行人的近似最小深度,進而獲取行人的深度范圍并計算其距離信息;最后通過融合改進的YOLOv5目標檢測與雙目視覺技術,實現導航線的提取和行人障礙物的測距,以提高無人系統導航的環境感知精度、障礙物測距準確性和系統實時響應能力。
本發明授權弱紋理場景下的無人系統導航線感知及障礙物測距方法在權利要求書中公布了:1.一種弱紋理場景下的無人系統導航線感知及障礙物測距方法,其特征在于,該方法包括以下步驟: S1:利用YOLOv5檢測模型對輸入圖像進行實時檢測,獲取圖像中所有參考邊界框坐標信息,并依據參考檢測框底部中點提取出初始參考點點集; S2:對步驟S1得到的初始參考點集進行離群點檢測并剔除:基于RANSAC算法,對于不同檢測情況,來進行內點外點的區分,識別并剔除點集中偏離正常分布的離群點,獲取參考點集; S3:運用最小二乘擬合算法對步驟S2得到的參考點集進行最小二乘擬合,分別獲得左右行線,基于擬合出的左右行線幾何關系再次通過最小二乘擬合計算提取最終導航線; S4:參考步驟S3中的最終導航線得到目標場景,對目標場景進行區域劃分,計算各區域的最小深度值,比較各區域的最小深度值,確定行人的近似最小深度; S5:利用S4中得到的最小深度,構建深度范圍模型,獲取行人的深度范圍,對深度圖像進行分割,計算行人深度范圍內的深度均值,根據深度均值獲取行人的距離信息; 步驟S4是基于四分區深度比較的行人測距算法,利用雙目視覺測距原理將兩個相機同時觀察一幅場景,通過比較兩個相機拍攝的圖像之間的差異來計算物體的深度信息,再通過三角測量法來計算物體的深度實現測距,在檢測時將檢測邊界框分為2*2個,即4個分區,對每個區域計算最小深度,并進行比較,具體方法如下: S4-1:首先,通過YOLOv5卷積神經網絡對相機的圖像進行檢測,獲取到行人檢測框的坐標信息為xr,yr,wr,hr,根據圖像的尺寸pW,pH恢復像素坐標,X=xr*pW,Y=yr*pH,W=wr*pW,H=hr*pH,分別表示檢測邊界框的中心點像素坐標X,Y,以及檢查邊界框的寬度W和高度H; S4-2:然后通過左右圖片基于雙目視覺得到深度圖,將檢測框分為上下左右四個分區,對每個分區進行深度統計,對于每個分區,統計從上部中心點到區域中心點、從底部中心點到區域中線點、從左側中心點到區域中心點、從右側中心點到區域中心點的深度均值分別為Dt i,Db i,Dl i,Dr i,i=1,2,3,4分別表示四個區域; S4-3:對中心點左右兩側提取的深度均值Dt i,Db i比較取二者間較小值得Dtb i,對較小一側的所有深度值進行排序,即sortd操作,頂部和底部的深度值進行相同的處理得Dlr i并排序; S4-4:最后,對vtb i與Dlr i進行比較,選取值較小一側的5個最小深度值并取均值作為該區域的最小深度Di;最后對四個區域的最小深度進行排序得D1,D2,D3,D4,選則最小的深度作為行人的近似最小深度Dperson。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人河海大學,其通訊地址為:210024 江蘇省南京市鼓樓區西康路1號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。