同濟大學田煒獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網獲悉同濟大學申請的專利一種紅外與RGB跨模態特征點匹配方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN114120013B 。
龍圖騰網通過國家知識產權局官網在2025-08-29發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202111392935.5,技術領域涉及:G06V10/75;該發明授權一種紅外與RGB跨模態特征點匹配方法是由田煒;陳展;鄧振文;黃禹堯;譚大藝;韓帥設計研發完成,并于2021-11-23向國家知識產權局提交的專利申請。
本一種紅外與RGB跨模態特征點匹配方法在說明書摘要公布了:本發明涉及一種紅外與RGB跨模態特征點匹配方法,包括:基于采集的原始RGB圖像和IR圖像對深度學習模型進行離線訓練,得到訓練好的匹配模型;將待測的數據輸入匹配模型,以提取出特征描述子、輸出對應匹配結果。與現有技術相比,本發明聚焦于多光譜圖像的融合,融合可見光圖像RGB和熱成像圖像IR,通過模型訓練,能夠在多模態下準確提取特征點,更好地執行跨模態特征匹配任務,進而提高在光照變化劇烈及黑暗場景下相機位姿估計的精度,可以為許多應用提供可靠的感知前端,為后續在傳統SLAM框架下融合多光譜傳感器的研究工作做好前端鋪墊,也將有利于實現跨越白天基于RGB圖像和黑夜基于IR圖像的同一場景建圖定位匹配或深度估計與三維建圖。
本發明授權一種紅外與RGB跨模態特征點匹配方法在權利要求書中公布了:1.一種紅外與RGB跨模態特征點匹配方法,其特征在于,包括以下步驟: S1、采集原始RGB圖像和原始IR圖像,基于原始RGB圖像和原始IR圖像對深度學習模型進行離線訓練,得到訓練好的匹配模型; S2、將待測的數據輸入訓練好的匹配模型,以提取出特征描述子,并輸出對應的匹配結果; 所述步驟S1中深度學習模型具體為UnsuperPoint神經網絡模型; 步驟S1中離線訓練的具體過程為: S11、對采集的原始RGB圖像和原始IR圖像進行預處理,以得到成對圖像; S12、構建UnsuperPoint神經網絡模型,將成對圖像輸入UnsuperPoint神經網絡模型中進行離線訓練,得到訓練好的匹配模型; 步驟S11具體是對原始RGB圖像和原始IR圖像進行像素對齊處理,以保證原始RGB圖像與原始IR圖像是像素級完全對齊的,所述成對圖像具體為原始RGB圖像以及加入視角變換的IR圖像,或原始IR圖像以及加入視角變換的RGB圖像; 步驟S12中構建的UnsuperPoint神經網絡模型包括骨干網絡,所述骨干網絡用于執行點置信估計、點坐標回歸以及描述子提取的聯合任務,所述骨干網絡分為兩個分支:一個分支用于處理原始圖像,另一個分支則用于處理單應矩陣變換后的圖像,提取的點通過單應矩陣的真值投影到同一圖像坐標系中,計算每對的點距離,以距離小于4像素的點對作為有效點對,構建點對應關系,以進行自監督學習; 所述UnsuperPoint神經網絡模型采用卷積核大小為3、步長為2的卷積網絡層,以處理IR圖像中因溫度輻射而產生的邊緣模糊; 所述UnsuperPoint神經網絡模型的學習損失函數具體為: , , , , 其中,A為RGB圖像的標識,B為IR圖像的標識,為總損失函數,為點置信度損失,該損失由A與B相同點的得分差值的平方表示,為相應的權重; 為基于點對距離的可重復性損失,為提取點的置信度,為點對的距離,為所有點對的距離均值,為相應的權重; 為點對的歐式距離損失,為相應的權重; 為坐標均勻化的損失,為相應的權重; 為描述子損失,該損失由A與B相同點的描述子的差值的平方表示,為相應的權重; 用于提升描述子在空間上的緊致程度,該損失由不同位置上點的描述子的互相關系數的總和表示,為相應的權重; 為兩個描述子向量,為的相似性計算值,為溫度超參數,用于控制學習負例的強度。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人同濟大學,其通訊地址為:200092 上海市楊浦區四平路1239號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。