• <form id="tsg3z"></form>

    <thead id="tsg3z"></thead>
      <abbr id="tsg3z"><table id="tsg3z"><nav id="tsg3z"></nav></table></abbr>

    1. 男女性杂交内射女bbwxz,亚洲欧美人成电影在线观看,中文字幕国产日韩精品,欧美另类精品xxxx人妖,欧美日韩精品一区二区三区高清视频,日本第一区二区三区视频,国产亚洲精品中文字幕,gogo无码大胆啪啪艺术
      Document
      拖動滑塊完成拼圖
      個人中心

      預訂訂單
      服務訂單
      發布專利 發布成果 人才入駐 發布商標 發布需求

      在線咨詢

      聯系我們

      龍圖騰公眾號
      首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 需求市場 關于龍圖騰
       /  免費注冊
      到頂部 到底部
      清空 搜索
      當前位置 : 首頁 > 專利喜報 > 長春理工大學李萬京獲國家專利權

      長春理工大學李萬京獲國家專利權

      買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

      龍圖騰網獲悉長春理工大學申請的專利基于多視圖立體和網格的稀疏視圖室外場景三維重建方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN120259559B

      龍圖騰網通過國家知識產權局官網在2025-08-15發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202510732701.2,技術領域涉及:G06T17/00;該發明授權基于多視圖立體和網格的稀疏視圖室外場景三維重建方法是由李萬京;孫榮春;陳磊設計研發完成,并于2025-06-04向國家知識產權局提交的專利申請。

      基于多視圖立體和網格的稀疏視圖室外場景三維重建方法在說明書摘要公布了:本發明屬于計算機圖形學中三維重建技術領域,尤其為基于多視圖立體和網格的稀疏視圖室外場景三維重建方法,旨在解決現有重建技術中輸入依賴密集視圖、渲染結果易產生模糊偽影及大規模場景內存占用高等問題,特別適合稀疏視圖輸入下室外無邊界場景的高精度重建。實現步驟包括:獲取待重建場景的多視圖圖像及對應的相機位姿,并基于K?means聚類算法確定場景中心;提取輸入視圖特征,基于多視圖立體框架生成代價體,并結合概率深度估計方法獲取場景深度分布先驗;基于深度分布引導體素網格采樣,并利用空間收縮函數將超出網格邊界的光線映射至有限網格范圍內;提取圖像局部特征與體素網格全局特征進行自適應融合;最后通過體渲染生成重建圖像。

      本發明授權基于多視圖立體和網格的稀疏視圖室外場景三維重建方法在權利要求書中公布了:1.基于多視圖立體和網格的稀疏視圖室外場景三維重建方法,其特征在于,包括以下步驟: 步驟1,獲取待重建場景的圖像數據集,包含圖像數據、相機位姿參數和場景的稀疏三維點云信息,并使用包圍盒將場景包圍; 步驟2,提取輸入視圖的多尺度圖像特征,基于多視圖立體框架構建代價體,對代價體進行正則化處理生成神經編碼體和深度概率體,并通過概率深度估計方法獲取場景的深度分布先驗; 步驟3,光線采樣與空間約束:對光線進行自適應采樣,并采用等比例空間收縮函數對無界場景光線進行重映射,將空間限制在有限網格范圍內; 步驟4,提取目標圖像局部特征和采樣點對應的全局體素網格特征,通過注意力網絡動態融合全局與局部特征; 步驟5,將融合特征和神經編碼體特征進行解碼,輸出采樣點的體密度和顏色值,基于體渲染方程計算像素RGB值,最后結合光度一致性監督和網格的稀疏幾何監督進行端到端優化; 所述步驟3中,自適應采樣是通過圖像深度分布信息引導光線進行更精準的場景表面采樣,減少三維空間中無效區域采樣點,并通過設計的度量距離映射函數進行非均勻采樣,因此光線采樣點x表示如下: x=o+lr 其中o表示光線原點,r表示光線方向,l表示度量距離,通過參數化度量距離實現非均勻采樣策略,使采樣點分布與場景特性相匹配,度量距離l與歸一化距離s的映射函數表示如下: l=Ln+Lf-Lns4 其中Ln,Lf分別為根據深度值定義的近平面距離和遠平面距離; 此外,所述空間收縮函數基于射線與體素相交檢測定理進行設計,將任意光線路徑上的采樣點xj等距收縮至有限網格空間內,從而實現對無界場景空間的全局線性縮放,具體定義如下所示: contractxj=qenter,j+kj·xj-xn,j 其中qenter,qexit分別表示光線進入包圍盒的入射點坐標和出射點坐標,j表示光線索引,xn,j表示光線的第一個采樣點坐標,k表示光線的縮放比例,通過對采樣點進行contract計算,光線被壓縮到一個緊湊的有限空間; 所述步驟4中全局-局部特征動態融合過程如下: 首先提取全局特征,基于張量分解構建具有連續網格的全局空間輻射場,對查詢點鄰近的離散體素通過插值獲取全局一致性置信度特征向量和外觀特征向量,將特征向量與顏色矩陣B相乘,并結合光線方向r通過解碼函數S得到全局特征Fglobal和全局一致性置信度CV,計算公式如下: 其中解碼函數S采用多層感知器網絡,Af表示插值得到的外觀特征向量,Ac表示插值得到的置信度特征向量,m表示空間張量分解的維度,τ表示張量分解通道索引,表示級聯運算,全局一致性置信度CV用于評估網格位置在多視圖中的幾何一致性、紋理豐富度和遮擋情況,動態調節全局特征與局部特征的權重; 接著提取局部特征,對于任意被查詢的三維點,投影至多分辨率目標圖像,通過雙線性插值提取各尺度二維平面特征,將特征進行級聯,生成長度為3×C的特征向量作為幾何局部特征Flocal,其中C表示單尺度特征維數; 然后采用輕量級注意力網絡以全局特征Fglobal與局部特征Flocal和置信度CV作為輸入,生成融合權重ω,基于該權重,實現全局-局部特征的自適應融合,權重ω和融合特征計算公式如下: Ffused=ω·Fglobal+1-ω·Flocal 其中Sigmoid函數用于將權重限制到[0,1],實現平滑過渡,Ffused表示最終得到的融合特征。

      如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人長春理工大學,其通訊地址為:130012 吉林省長春市朝陽區衛星路7089號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

      免責聲明
      1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
      2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
      主站蜘蛛池模板: 人妻内射一区二区在线视频| 你懂的亚洲一区二区三区| 9lporm自拍视频区| 美女一区二区三区亚洲麻豆| 大香伊蕉在人线国产最新2005 | 黑人异族巨大巨大巨粗| 国产做无码视频在线观看| 精品亚洲精品日韩精品| 亚洲国产欧美在线观看片| 亚洲国产精品区一区二区| 久久精品国产99久久久古代 | 国产性一交一乱一伦一色一情| 暖暖 免费 高清 日本 在线观看5| 日韩美女一区二区三区视频| 成人午夜av在线播放| 精品国产欧美一区二区三区在线| 一区二区在线观看成人午夜 | 亚洲中文字幕无码不卡电影| 熟女在线视频一区二区三区| 久久国产精品99久久蜜臀| 欧美激情 亚洲 在线| 久久天天躁狠狠躁夜夜躁2o2o | 99久久机热/这里只有精品| 产综合无码一区| 青青国产揄拍视频| 国产精品无码无需播放器| 无码日韩av一区二区三区| 亚洲一区成人在线视频| 日韩精品中文字幕亚洲| 国产精品美女久久久久久麻豆| 亚洲国产成人综合精品| 日韩有码中文在线观看| 亚洲精品人妻中文字幕| 色五开心五月五月深深爱| 91精品人妻中文字幕色| 亚洲一二三区精品与老人| 亚洲av色香蕉一区二区三| 成年午夜无码av片在线观看| 久久综合激情网| 中文字幕人妻无码一区二区三区| 亚洲午夜精品国产电影在线观看|