• <form id="tsg3z"></form>

    <thead id="tsg3z"></thead>
      <abbr id="tsg3z"><table id="tsg3z"><nav id="tsg3z"></nav></table></abbr>

    1. 男女性杂交内射女bbwxz,亚洲欧美人成电影在线观看,中文字幕国产日韩精品,欧美另类精品xxxx人妖,欧美日韩精品一区二区三区高清视频,日本第一区二区三区视频,国产亚洲精品中文字幕,gogo无码大胆啪啪艺术
      Document
      拖動滑塊完成拼圖
      個人中心

      預訂訂單
      服務訂單
      發布專利 發布成果 人才入駐 發布商標 發布需求

      在線咨詢

      聯系我們

      龍圖騰公眾號
      首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 需求市場 關于龍圖騰
       /  免費注冊
      到頂部 到底部
      清空 搜索
      當前位置 : 首頁 > 專利喜報 > 太原理工大學程俊兵獲國家專利權

      太原理工大學程俊兵獲國家專利權

      買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

      龍圖騰網獲悉太原理工大學申請的專利融合環境語義的GNSS/視覺松耦合定位方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN120334979B

      龍圖騰網通過國家知識產權局官網在2025-08-22發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202510756897.9,技術領域涉及:G01S19/48;該發明授權融合環境語義的GNSS/視覺松耦合定位方法是由程俊兵;李鑫;鄭偉;李健;賈潤新;高云飛設計研發完成,并于2025-06-09向國家知識產權局提交的專利申請。

      融合環境語義的GNSS/視覺松耦合定位方法在說明書摘要公布了:本發明屬于導航定位技術領域,尤其涉及融合環境語義的GNSS視覺松耦合定位方法,解決了傳統方法面對城市遮擋環境和高動態場景時存在定位精度不足的技術問題。該方法中,GNSS接收機通過其雙差測量模型獲取載體的位置坐標,立體相機捕捉的連續圖像幀被傳遞給VO模塊,用于執行載體的位姿估計;采用松耦合模型將GNSS的載體位置坐標和VO模塊的載體位姿信息進行結合,再根據環境語義信息和局部建圖模塊計算遮擋因子,結合遮擋因子引入自適應KF算法,在遮擋因子的約束下,自適應KF算法能夠計算出位姿最優估計值,該值反饋給GNSS對載體位置坐標進行修正,最終經過修正的位置坐標作為定位結果輸出。

      本發明授權融合環境語義的GNSS/視覺松耦合定位方法在權利要求書中公布了:1.融合環境語義的GNSS視覺松耦合定位方法,其特征在于,所述松耦合定位方法是基于立體相機、GNSS和SLAM系統實現的,立體相機固定連接至載體上用于實時采集載體行駛過程中的圖像,SLAM系統包括VO模塊和局部建圖模塊,VO模塊包括特征點跟蹤單元,所述松耦合定位方法的步驟為: 步驟1、對VO模塊進行改良,在VO模塊中嵌入實時的環境語義分割處理單元,環境語義分割處理單元與特征點跟蹤單元并行工作;圖像以連續幀的形式輸入VO模塊,特征點跟蹤單元從圖像中提取ORB特征點,形成包含動態特征點和靜態特征點的特征圖,環境語義分割處理單元對圖像進行環境語義分割,生成帶有具體語義標簽的掩碼圖像,VO模塊將特征圖和掩碼圖像進行信息融合,將動態特征點標記為離群點,并對離群點進行剔除得到只有靜態特征點的圖像; 步驟2、VO模塊將當前圖像的靜態特征點與上一幀圖像的靜態特征點進行逐點匹配,再通過最小化重投影誤差獲取立體相機六自由度的旋轉R和平移T; 步驟3、基于GNSS的雙差觀測模型獨立獲取載體的初步位置坐標; 步驟4、立體相機的旋轉R和平移T即為載體的旋轉R和平移T,利用載體的旋轉R和平移T構建視覺定位誤差模型,其中視覺定位誤差模型為: (1), 公式(1)中,、和分別為導航坐標系下立體相機的長度尺度因子、載體的位置坐標和載體的姿態,其中載體的位置坐標是對載體的平移T進行積分得到的,載體的姿態是對載體的旋轉R進行積分得到的;、和分別為長度尺度因子、位置坐標和姿態在導航坐標系中的誤差;、和分別為長度尺度因子、位置坐標和姿態在導航坐標系中誤差的連續時間導數;為從載體坐標系到導航坐標系的估計旋轉矩陣;為在載體坐標系下的估計平移;是長度尺度因子的估計值;和分別為在載體坐標系下的平移誤差和旋轉誤差;為的隨機漂移; 將公式(1)簡化為系統模型,系統模型表示為: (2), 公式(2)中,為;為;為;為;為; 再通過公式(2)構建KF算法的狀態模型形式: (3), 公式(3)中,是歷元的狀態向量,是從歷元到歷元的離散時間轉換矩陣,是噪聲分布矩陣,是系統噪聲序列; 采用松耦合模型,將VO模塊得到的載體的位置坐標與步驟3中GNSS得到的載體初步位置坐標之間的差值作為KF算法的觀測值輸入,構建KF算法的觀測模型為: (4), 公式(4)中,和分別為VO模塊與GNSS得到的載體位置坐標;為觀測轉移矩陣;為觀測噪聲; 則KF算法的狀態更新方程表示為:(5), 公式(5)中,表示時間歷元時刻的誤差協方差,表示的相應協方差矩陣;表示歷元到歷元的先驗狀態向量估計值;表示從歷元到歷元的狀態轉換矩陣;表示歷元的狀態向量估計值;表示歷元到歷元的預測估計誤差的一步協方差;表示歷元的預測估計誤差協方差;表示從歷元到歷元的狀態轉換矩陣的轉置;表示噪聲分布矩陣的轉置; 其中KF算法的觀測更新方程表示為: (6), 公式(6)中,表示增益矩陣;表示觀測轉移矩陣的轉置;表示觀測噪聲協方差;表示歷元的狀態向量估計值;表示歷元的預測估計誤差協方差; 通過KF算法的觀測更新方程能對載體的位置坐標進行更新,將更新后載體的位置坐標反饋給GNSS,GNSS通過更新后載體的位置坐標對步驟3中載體的初步位置坐標進行修正,最終經過修正的載體的位置坐標作為定位結果輸出。

      如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人太原理工大學,其通訊地址為:030024 山西省太原市萬柏林區迎澤西大街79號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

      免責聲明
      1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
      2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
      主站蜘蛛池模板: 成人亚洲欧美一区二区三区| 午夜成人无码免费看网站| 国产又爽又黄又爽又刺激| 中文字幕日本一区二区在线观看| 男女一级国产片免费视频| 亚洲AV永久无码一区| 色综合天天综合天天综| 视频一区二区不中文字幕| 午夜国产理论大片高清| 办公室强奷漂亮少妇视频| 精品一精品国产一级毛片| 极品美女自拍偷精品视频| 九九热在线精品免费视频| 亚洲精品日韩在线丰满| 综合久久婷婷综合久久| 久久精品免视看成人国产| 免费av深夜在线观看| 午夜自产精品一区二区三区| 人人人澡人人肉久久精品| 91国产自拍一区二区三区| 国产中文字幕精品在线| 久久久久国产一级毛片高清版A | 四虎网址| 女同性恋一区二区三区视频| 久久精品国产亚洲av麻豆不卡| 亚洲成在人网站av天堂| 高颜值午夜福利在线观看| 国产免费无遮挡吃奶视频| 正在播放国产剧情亂倫| 亚洲熟女乱色综一区二区| 人人妻人人狠人人爽天天综合网| 国产精品人妻久久无码不卡| 麻豆tv入口在线看| 国产精品久久久久7777| 国产清纯在线一区二区| 制服丝袜人妻有码无码中文字幕 | 九九热免费在线视频观看| 日韩有码国产精品一区| 亚洲欧美人成电影在线观看| 高清无码18| 国产精品中文字幕第一页|